L’avion du futur selon le CNRS

A l’approche du salon du Bourget, le CNRS fait le point sur l’avion de demain. Objectif : rendre les avions plus sûrs, plus propres et plus performants. Grâce à la modélisation, aux simulations de pointe et aux bancs d’essais, les matériaux composites s’imposent face aux métaux. C’est l’objet de l’article « Le régime minceur des avions de ligne ». Non corrosifs, les composites rendent les avions plus légers, plus résistants et donc moins consommateurs de carburant. Grâce à eux, les avions ont déjà perdu plusieurs tonnes! Sur les modèles les plus récents (Boeing 787 et Airbus A350), la proportion de matériaux composites peut dépasser 50%. Ils s’étendent aux fuselage et aux ailes. Il s’agit notamment de composites à matrice organique – généralement un polymère – renforcée par des fibres de carbone pour le fuselage et les ailes. Ou à matrice en céramique pour certaines pièces de moteur.

Il y a un revers à la médaille. Pour dissiper le courant en cas de foudroiement, il faut rajouter des poutres en cuivre dans le fuselage. Par ailleurs, ces matériaux absorbent moins bien les chocs. Leur maintenance est aussi plus coûteuse. Les chercheurs travaillent donc sur les procédés de fabrication pour les rendre moins coûteux et plus rapide : chauffage par induction ultrarapide, infrarouges… Ils analysent aussi les différents types d’impacts grâce à la plateforme STIMPACT.

Améliorer les moteurs pour réduire les pollutions

Dans son article « la quête du moteur idéal », le CNRS rappelle les récentes évolutions des moteurs à réaction. Le principal défi reste d’assurer la stabilité de la flamme et une combustion la plus complète pour réduire les émissions de polluants. Grâce à des innovations sur la chambre de combustion, le moteur LEAP du groupe Safran connait par exemple un véritable succès commercial avec déjà près de 11.500 commandes.

Les derniers développements ont permis de réduire de moitié la consommation de kérosène des moteurs. Un voyageur consomme désormais environ 4 litres aux 100 kilomètres. Mais le défi des moteurs hybrides reste capital et difficile à surmonter. Solar Impulse a certes réussi une véritable performance avec son tour du monde solaire. Mais ce n’est pas demain que les avions de ligne auront une motorisation électrique. Pour remplacer les 240 tonnes de kérosène d’un A380, il faudrait 3.600 tonnes de batteries, estime le CNRS.

Moins de bruit en perspective ?

Le bruit des avions au décollage a déjà diminué de plusieurs dizaines de décibels ces trente dernières années. Des recherches sont notamment menées pour identifier les sources de bruit et les neutraliser en y apposant à proximité des « pièges sonores ». Des recherches s’intéressent aux métamatériaux qui absorbent mieux les bruits ou encore à des matériaux qui transforment le son en électricité. D’autres étudient encore de nouvelles architectures d’avion.

Par Matthieu Combe, journaliste scientifique

Édition sur mesure

 

Quand et pourquoi avez-vous mis en place ce nouveau service ?

Le service d’édition sur mesure a été officiellement mis en place cette année mais nous avons déjà fourni ce type de prestations dans le passé. Nous concevons, coordonnons et réalisons des publications, au format numérique et papier, pour le compte de professionnels dont l’édition n’est pas le métier, par exemple pour les laboratoires, les sociétés savantes, les associations professionnelles mais aussi les entreprises privées.

C’est pour nous une évolution logique et naturelle que de mettre à la disposition des acteurs de la recherche et de l’innovation notre savoir-faire et notre expertise en matière de traitement et de publication de contenus scientifiques et techniques.

 

Comment se passe l’accompagnement du projet ? Quels sont les types de prestations possibles ?

Il s’agit d’un accompagnement sur mesure, à partir du cahier des charges et des besoins spécifiques du client. En tant qu’experts de l’édition, nous pouvons aussi le conseiller et l’orienter dans ses choix. Pour cela, nous proposons toute une gamme de services éditoriaux, de l’idée jusqu’à la livraison, qui peuvent être regroupés en trois grandes étapes : l’étape de conception (définition du projet et du cahier des charges, aide au choix du format et du support, conception graphique), l’étape de rédaction (aide à la recherche d’auteurs et d’illustrateurs, coordination et suivi éditorial, recherche iconographique, correction, préparation et relecture des textes) et enfin l’étape de fabrication (composition, mise en page, impression, façonnage, livraison). Nous pouvons également prendre en charge des traductions de documents techniques et scientifiques.

 

Quels types de contenus et quels formats ?

Nous sommes d’une souplesse totale sur ces deux points. En effet, nous prenons en charge tout type de contenu scientifique et technique : actes de conférence, annuaires, guides pratiques, livres blancs, lettres d’information, documents institutionnels ou promotionnels et sommes capables de produire différents ouvrages imprimés (brochés, lettres, magazines, plaquettes, catalogues, etc.) et documents numériques (HTML, PDF, ePub, Flipbook, applications pour tablettes et mobiles, infographies, etc.).

Nous sommes bien sûr à l’écoute de nos interlocuteurs pour étudier et développer ensemble tout autre format ou support innovant.

 

Quels sont les exemples de réalisation ?

La dernière en date concerne le Guide de la commande numérique réalisé sur mesure pour le compte du Symop. Il s’agit d’un guide pratique de 70 pages à destination des acteurs de l’industrie mécanique. Nous avons pris en charge le projet éditorial de la recherche d’auteurs jusqu’à la fabrication d’un ouvrage imprimé et d’un document numérique feuilletable (format Flipbook, voir un extrait ici).

 

>> Pour en savoir plus : Édition sur mesure

>> Pour nous contacter : [email protected]

 

celine_chartier

Céline CHARTIER

Ingénieure et docteure en chimie-physique, éditrice et responsable du service « Édition sur mesure ».

 

 

 

 

Télécharger la lettre des éditeurs au format PDF

 

 

 

Le retour d’expérience au coeur de l’innovation

 

Pourquoi avoir mis en place ce nouveau format REX  dans l’offre “Management et ingénierie de l’innovation” ?

Souvent l’innovation est abordée dans les articles sous l’angle des définitions, des principaux concepts, des processus, des moyens, des outils et des aides qui nécessitent d’être déployés, mais assez rarement sous une forme concrète, en traitant de cas réels.

Le format REX se propose de combler cette lacune, de refléter des cas réels de conduite de projet d’innovation en entreprise, avec présentation du projet, de la mise en œuvre, des actions menées, des moyens déployés, des difficultés et des succès rencontrés, des solutions mises en place, etc., pour en tirer les enseignements positifs et négatifs.

 

Quel est l’objectif des REX ?

L’objectif est d’offrir au lecteur un contenu court (entre 6 et 10 pages), pratique, appliqué, proche de sa réalité professionnelle, et ainsi de permettre un accès facile, rapide, direct en complément de la théorie et des fondamentaux. Le public visé est la cible classique de Techniques de l’ingénieur (ingénieurs, chercheurs de l’industrie, du public, de bureau d’études, etc.). Il s’agit de lecteurs qui veulent de l’information pratique et appliquée, qui n’ont pas le temps de lire ou qui n’ont pas besoin du niveau de détail sur la théorie ou les fondamentaux.

 

Comment les entreprises s’organisent pour répondre au défi de l’innovation ?

L’innovation est bien entendu essentielle pour la compétitivité de l’entreprise. Cependant elle implique de se projeter à long terme alors que les entreprises sont confrontées à un quotidien qui a tendance à absorber toute leur énergie. Les entreprises qui innovent sont celles qui investissent une partie de leurs ressources dans ce long terme. Ce n’est pas évident car l’innovation est un processus transverse qui fait appel aux compétences de ces divers services et aussi à des compétences extérieures. Il faut donc s’organiser et s’ouvrir pour que ce processus fonctionne. S’organiser et s’ouvrir pour que le dialogue et la communication entre les services et les hommes s’instaurent. S’organiser et s’ouvrir pour favoriser la créativité et l’invention. La ressource documentaire “Management et ingénierie de l’innovation” rassemble des articles de référence, des REX  et des fiches pratiques qui couvrent tous ces aspects.

 

>> Accéder à l’offre Management et ingénierie de l’innovation
>> Consulter un exemple d’article REX

 

Pierre DEVALAN

Pierre DEVALAN

Conseiller scientifique de Management et ingénierie de l’innovation

Ancien directeur des programmes de R&D du Cetim (Centre technique des industries mécaniques)

 

Télécharger la lettre des éditeurs au format PDF

Concours de nouvelles : imaginez le monde dans 70 ans !

À l’occasion de ses 70 ans, Techniques de l’Ingénieur a organisé un concours de nouvelles sur le thème de prospective « Comment la science et les techniques façonneront le monde en 2086 ? ». Près d’une centaine  de textes ont ainsi été reçus. Le jury constitué de  Marie-Christine Guillon, animatrice d’ateliers d’écriture, Michel Letté, maître de conférences en histoire des techniques et de l’environnement au Cnam,  Loïc Mangin, rédacteur en chef adjoint du magazine Pour la science et Blaise Mao, rédacteur en chef adjoint du magazine Usbek & Rica, a sélectionné 12 nouvelles pour leurs qualités de rédaction et d’anticipation :

 

  • Jeanne Battais, La lumière de l’enfer
  • Nouara Bouchenna, Énergie
  • Claude Chervet, Le sommeil de Mathilde
  • F.M.R., Max et son clone
  • Kévin Gallot, La sélection
  • Véronique Goossens, Miss Marple
  • C. M.  Lewden, Marc Bristow 
  • Madelicea, Le projet Effiscience
  • Vincent Marcant, Un colis
  • Barbara Muller, SyLiCC
  • Marc Pégeot, La maternité
  • Eva Wolff, Roméo & Juliette

 

Vous pourrez découvrir ces textes tout au long de l’été sur notre site internet dans notre Magazine d’actualités. Une version imprimée sera disponible prochainement. Une lecture des nouvelles sera organisée le 14 septembre à 18 h au CNAM de Paris dans le cadre de ses Journées portes ouvertes.

 

Extrait de Miss Marple
Ixelles, octobre 2086. Les étangs de Flagey, bicentenaires, s’étendent à l’est du capitole. Après quelques jours de froid, la douceur est de retour et la surface de l’eau renvoie les couleurs flamboyantes de l’automne. Les ruches artificielles bourdonnent de milliards d’abeilles électroniques qui produisent le miel et pollinisent les plantes. Dire qu’il a pratiquement fallu attendre que la dernière abeille organique ait disparu pour trouver comment produire les enzymes nécessaires à la fabrication du vrai miel et la pollinisation des plantes…

 

Biomimétisme, quand la nature inspire les ingénieurs

 

biomimetisme

Dans de nombreux domaines, les organismes vivants surclassent nos solutions technologiques. Les solutions biomimétiques sont intéressantes, non seulement pour leur ingéniosité, mais aussi pour leur potentiel de résilience écologique. La nature possède des stratégies d’optimisation de ressource encore inégalées par nos technologies actuelles.

 

57971298 - extreme magnification - butterfly wing on microscope
Aile de papillon au microscope

Papillons et biomimétisme

Les ailes des papillons sont recouvertes d’une fine « poudre » colorée constituée de minuscules écailles dont les propriétés sont à l’origine de nombreuses innovations : écran anti-reflet, système anti-contrefaçon pour les billets de banque, nouveau matériau réflecteur de lumière pour panneaux solaires…

 

 

 

>> Découvrez l’infographie complète

 

Télécharger la lettre des éditeurs au format PDF

 

 

Coup de projecteur sur nos nouveautés de l’été !

 

Eco-conception

L’intégration des exigences de protection de l’environnement dès la conception des produits est devenue incontournable pour les entreprises. Il existe une grande diversité de démarches d’éco-conception propres à chaque secteur, pour répondre à des besoins et enjeux particuliers. L’éco-conception en tant que discipline fait appel à des fondements scientifiques qui évoluent en permanence et qui constituent une source importante d’innovations. Techniques de l’Ingénieur propose deux ressources documentaires dédiées à l’éco-conception, pour faire le point sur : – l’ensemble des concepts et enjeux stratégiques de l’éco-conception dans divers secteurs et présenter les méthodes et outils à disposition des professionnels, – les pratiques d’éco-conception et leur mise en oeuvre dans différents secteurs.

>> A retrouver dans Éco-conception et innovation responsable

 

Étanchéité en mécanique

L’étanchéité est une fonction qui revêt une importance de plus en plus grande en mécanique par suite, d’une part de l’utilisation croissante des fluides pour les commandes (hydrauliques, pneumatiques) et pour les contrôles et, d’autre part, du nombre très important et de la très grande diversité des composants mécaniques dans les réseaux de fluides. Le confinement d’un gaz ou d’un liquide, de par sa nature, n’est pas aisé. Une fuite, même petite, peut avoir de multiples conséquences, tant sur le plan de la disponibilité du matériel que sur celui du fonctionnement et aussi de la sécurité. Des exemples courants montrent que des ensembles fort complexes, tels que les fusées, peuvent connaître des ennuis importants par suite d’une simple fuite. L’ingénieur mécanicien trouvera dans cette rubrique un panorama complet des meilleures solutions techniques en étanchéité.

>> A retrouver dans Fonctions et composants mécaniques

 

A venir prochainement :

  • Propriété intellectuelle et brevets d’invention
  • Menaces et vulnérabilités : protection des sites industriels
  • Métallurgie extractive

 

Télécharger la lettre des éditeurs au format PDF

 

Pourquoi le Qatar a-t-il été blacklisté ?

Depuis le 5 juin, les frontières terrestres et aériennes sont fermées entre le Qatar et ses voisins. Les relations diplomatiques ont été officiellement rompues et les Qataris se sont précipités dans les supermarchés par crainte de pénurie. Le pays importe en effet absolument tout, à part le gaz naturel, dont il est le premier exportateur mondial.

middle-east-map

Richesse gazière

Le Qatar a vu sa richesse exploser en quelques années grâce à la découverte et l’exploitation de ses énormes réserves gazières. Avec l’aide de compagnies internationales (la française Total en premier lieu), le Royaume est rapidement devenu un acteur incontournable du marché mondial du gaz naturel en s’imposant comme le premier producteur et exportateur mondial (181 Mds m3 /an). Une ascension rapide qui a fait de l’ombre aux autres pétro-monarchies du Golfe.

Soucieux de ne pas tout miser sur les hydrocarbures, le Qatar s’est servi de ses importantes entrées de devises étrangères pour constituer un fonds d’investissement massif, dont l’objectif est de diversifier les investissements du Royaume : le Qatar Investment Authority doté de 335 Mds $. Ces placements avaient également pour fonction de faire connaître le petit Royaume dans le monde en achetant des actifs très populaires, tels que des clubs de football, ce qui lui a permis d’obtenir l’organisation d’un événement de portée mondiale : le Coupe de monde de football en 2022.

Diplomatie active

Cette volonté de faire parler de soi s’est traduite également par la création d’une nouvelle chaîne d’information, Al-Jazeera, qui a représenté un véritable séisme dans le secteur médiatique au Moyen-Orient. Sa liberté de ton et sa ligne éditoriale ont séduit de nombreux journalistes de la région empêchés de travailler dans leurs pays respectifs, en faisant une caisse de résonance des débats qui agitent les sociétés arabes. Al-Jazeera a joué un rôle en médiatisant et soutenant les révolutions arabes du printemps 2011 ce qui lui a valu l’ire des régimes autoritaires de la région.

Cette stratégie a pris un tournant nouveau dans l’opération de Libye visant à faire tomber Mouammar Kadhafi la même année. Pour la première fois, le Qatar a soutenu l’intervention menée par l’Otan (sous l’impulsion de la France) apportant 400 M$ aux rebelles libyens et surtout une caution arabe à une opération occidentale en Afrique du nord, ce qui a été vécu comme une trahison par une partie de l’opinion publique arabe. Sur le dossier syrien, le Qatar est clairement en faveur de la destitution de Bachar-El-Assad et soutien une partie de l’opposition armée.

Quid des Etats-Unis ?

Il n’est pas anodin que la mise au ban du Qatar intervienne à la suite de la visite du président américain au Moyen-Orient. En assurant son allié saoudien de son soutien, Donald Trump a donné à Ryad toutes les raisons de tenter de mater son petit voisin, qui a par ailleurs la mauvaise idée d’entretenir des relations cordiales avec l’Iran chiite, ennemi juré de l’Arabie Saoudite sunnite. « Les encouragements de Trump à adopter une politique ferme vis-à-vis du Qatar semblent assez contradictoires puisque les Etats-Unis y ont stationné leur plus importante base militaire du Moyen-Orient, indispensable aux opérations menées dans l’espace aérien irakien notamment », rappelle Denis Bauchard, conseiller pour le Moyen-Orient à l’Institut français de relations internationales (IFRI). Et de poursuivre : « Dans cette crise, il ne risque que d’y avoir que des perdants, notamment le Conseil de Coopération du Golfe qui a volé en éclat à cette occasion ».

Et la France ?

L’embarras est palpable dans la classe politique française sur le dossier qatari. Pour attirer les investissements du Royaume, la France a multiplié les visites diplomatiques et a même élaboré un régime fiscal spécifique, particulièrement favorable aux qataris, et désormais mis en question par le nouveau Garde des Sceaux, François Bayrou. Le Qatar a été prolixe dans l’Hexagone en rachetant des marques de prestige (Le Printemps, le Paris-Saint-Germain FC, Le Tanneur, Balmain), et en investissant dans  l’immobilier et dans l’hôtellerie haut de gamme. En contrepartie, le Qatar s’est engagé sur l’achat de 24 avions de combat Rafale.

Romain Chicheportiche

Ardediar : des meubles qui purifient l’air intérieur

Ces meubles dépolluants délivrent « une  bulle d’air » sain à leur proximité. Cela, grâce à des écoulements d’air maîtrisés. Sans colles, ils sont constitués de matériaux recyclés. Pour la petite histoire, ils ont été imaginés par l’ingénieur Arnaud Billard, pour créer une bulle d’air sain autour de son nourrisson en détresse respiratoire.

Des meubles design et dépolluants

La gamme comprend trois meubles : une table de chevet, un objet décoratif et un siège. Chaque meuble renferme une boîte à air, constituée de trois couches de filtres empilées. La première couche, composée de filtres grossiers G4, arrête jusqu’à 90% des poussières, le pollen… La deuxième est composée de filtres fins F7. Elle retient jusqu’à 90% des particules de 0,4 micromètres. La dernière s’occupe de filtrer les gaz et les odeurs par charbon actif : cigarettes, gaz d’échappements, COV, odeurs de cuisine… Le dispositif renferme aussi un ventilateur Sunon silencieux (moins de 22 dB), d’une puissance de 20 watts.

Selon les concepteurs, ces meubles dépolluent une pièce contaminée à la fumée de cigarette à 90%. Sans pollution particulière, l’épuration de l’air est effectuée en 30 minutes à moins d’un mètre de la sortie d’air. L’objectif est de commercialiser ces meubles dès cette année, entre 350 et 600 euros pièce.

Par Matthieu Combe, journaliste scientifique

Qui sera le maître d’école : les GAFAM ou les professeurs ?

Après le ministère de la Défense français, Microsoft va-t-il récidiver avec celui de l’Éducation ? En novembre 2015, ce ministère signe un accord avec cet éditeur. Ce dernier s’engage à assurer de l’accompagnement, de la formation des élèves et des enseignants, de l’initiation au code informatique, etc. En contrepartie, Microsoft en profite logiquement pour communiquer sur Office 365, Windows Azure, et ses autres produits.

Alertée il y a quelques mois par le collectif EduNathon, la CNIL (Commission nationale de l’informatique et des libertés) rappelle à l’ordre Microsoft. La fameuse charte de confiance qui devait encadrer cet accord ne satisfait pas cette instance. Elle réclame des données juridiques plus solides pour garantir la protection des données personnelles des élèves et enseignants. Interrogée en avril par le site EducPros, la présidente de la CNIL, Isabelle Falque-Pierrotin, avait en effet rappelé que les données scolaires étaient « particulièrement sensibles ». Non seulement elles en disent énormément sur les enfants, mais elles les suivent longtemps. « De ce fait, ces informations peuvent intéresser énormément d’acteurs et il faut faire preuve de vigilance ».

Officiellement, le ministre de l’Éducation interdit le recours aux services des GAFAM et prône notamment les solutions open source pour les ENT. Un créneau qui intéresse différents éditeurs français parmi lesquels Open Digital Education, Itslearning et d’Itop.

Mais les poids lourds américains du numérique accentuent leur pression pour s’immiscer dans les classes. Ils ont développé des produits spécialement dédiés à l’éducation, comme Office 365 éducation ou Google Classroom. Ces services sont mis gratuitement à disposition des enseignants. Mais comme tout service commercial accessible sans abonnement, toutes les informations qui transitent par ses logiciels peuvent être recueillies et exploitées : les noms et âges des élèves, leurs résultats scolaires, leurs historiques de navigation et de recherche…

C’est ce qui se passe aux États-Unis où Google a détrôné Apple (qui est 3e derrière Microsoft) dans les écoles ! En trois ans, Google a multiplié par 4 le nombre de Chromebooks installés dans les classes, soit environ 8 millions. Résultat, le moteur de recherche détient près de 58% de part de marché en 2016, suivi par Microsoft avec 22 % (ordinateurs portables/tablettes) et Apple qui est passé sous les 20 % (avec ses iPads et Mac).

Disponible à partir de 250 €, les Chromebooks ont convaincu de nombreuses écoles qui ont abandonné les appareils d’Apple jugés vraiment trop chers… Pour tenter de reprendre la main, Microsoft propose dorénavant sa tablette Surface Laptop et surtout Windows 10 S. Ce système d’exploitation allégé est disponible gratuitement. Mais il y a des restrictions importantes, en particulier, les utilisateurs ne peuvent installer et faire tourner que des applications provenant du Windows Store.

Par Philippe Richard

Protection des données personnelles : le retard des entreprises

Le GDPR fait trembler les entreprises ! L’acronyme anglais du Règlement Général sur la Protection des Données inquiète les professionnels car il impose la mise en place de nombreuses mesures complexes. Ce nouveau Règlement européen (RGPD) n° 2016/679 du 27 avril 2016 sur la protection des données est applicable à compter du 25 mai 2018.

Pour schématiser, il renforce la Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés en vigueur en France. Évolution majeure : la notification des attaques informatiques et des failles de sécurité entrainant des fuites d’informations à caractère personnel.

Avec le GDPR, toutes les entreprises (y compris les sites de e-commerce) auront l’obligation de notifier les violations de données personnelles, contrairement à la Loi de 1978 qui ne concerne que les fournisseurs de services de communications électroniques.

Selon l’article 33 du RGPD, cette notification doit intervenir dans les 72 heures à compter de sa connaissance auprès de l’autorité de contrôle (en l’occurrence, la CNIL) et lorsque la violation est susceptible d’engendrer un risque élevé pour les droits et libertés de la personne. L’entreprise, victime de cette fuite de données, doit également avertir par lettre recommandée avec AR tous ses clients et salariés.

En cas de non-application du RGPD, l’entreprise encourt des sanctions financières allant jusqu’à 4 % du chiffre d’affaires mondial annuel, limité à 20 M€. (Article 83.6 du Règlement).

Par ailleurs, ce règlement renforce la protection des citoyens. Les entreprises doivent obtenir un consentement explicite de la part de l’utilisateur final quant à l’utilisation ou au stockage de ses données privées. Elles doivent permettre la portabilité des données personnelles aux utilisateurs qui en feraient la demande. Ces derniers bénéficient d’un droit à la suppression de ses données personnelles par l’entreprise qui les traite.

Devant de telles contraintes, les entreprises doivent adopter des mesures techniques et organisationnelles appropriées pour garantir que, par défaut, seules les données nécessaires au regard de leurs besoins soient traitées (autrement appelé le « Privacy by Design »). Ces mesures techniques peuvent prendre plusieurs formes :

  • la pseudonymisation et le chiffrement des données ;
  • des moyens permettant de garantir la confidentialité, l’intégrité, la disponibilité et la résilience des systèmes et des services de traitement…

Elles doivent obligatoirement nommer un délégué à la protection des données (Data Privacy Officer-DPO). Celui-ci sera le référent et s’assurera de la bonne mise en œuvre et du contrôle des traitements par mandat des utilisateurs et de l’administration.

Pour des nombreuses entreprises, quelles que soient leur taille et activité, ce GDPR est très contraignant et complexe. Résultat, de nombreuses études indiquent qu’elles ne sont pas encore prêtes.

Cette situation, anxiogène pour de nombreux chefs d’entreprise de PME, devrait profiter aux sociétés spécialisées dans la sécurité informatique. D’après le cabinet d’études Canalys, les ventes de licences et d’équipements en protection des systèmes d’information devraient progresser de 16 % (à 11,5 Md$ l’an prochain sur le vieux continent.) l’année prochaine.

Cette même étude signale que de nombreuses PME se tourneront vers leur prestataire de services IT pour ne pas avoir à payer les amendes prévues.

Par Philippe Richard

Les 100 premiers acteurs français du digital pèsent 12Md€

Depuis 2008, PwC mène, en collaboration avec Tech In France et le syndicat national du jeu vidéo (SNJV) une étude annuelle sur le secteur digital qui décrypte les tendances et les progressions des entreprises de la French Tech à travers des analyses et les classements des principales entreprises de l’édition de logiciels, des services Internet et du jeu vidéo français.

Une croissance à deux chiffres

Les cent premiers acteurs français de ce classement représentent un revenu de 12,2 Md€ (hors services de conseil et d’intégration) en croissance de 11,8% par rapport à 2015. Et 18 entreprises enregistrent même une progression supérieure à 20% soulignent les auteurs de l’étude. Cette croissance est générale et le 100e du classement réalise désormais 16M€ de revenu en logiciels et services internet, contre 10 M€ en 2014.

Les éditeurs consolident leurs positions

Après deux années de croissance à plus de 10%, les éditeurs de logiciels (incluant les licences, la maintenance et le support et les abonnements SaaS) sont revenus à 6,5% et représentent toujours près de 50% en volume (6,8 Md€) du top 100 via 68 entreprises. C’est clairement le SaaS qui tire la croissance vers le haut mais le secteur reste très dynamique et attire les investissements internationaux. Outre les grands segments traditionnels que sont les RH, la banque-assurance ou l’offre PLM, la France se positionne bien en matière de logiciels d’infrastructure grâce à trois acteurs qui ont connu des croissances organiques supérieures à 15% (Scality, Mega International et Talend). Mais le marché français se distingue aussi par une offre très riche en matière de logiciels métiers sur des secteurs comme l’agriculture ou l’immobilier. On enregistre aussi de très fortes transformations dans l’offre et les entreprises sur le segment de la santé portées par la digitalisation de l’hôpital et la santé centrée sur le patient.

La publicité porte les services internet

Les services internet sont en très forte croissance (+26%), principalement grâce à la publicité digitale. Dans le top 100, 26 entreprises représentent ce secteur et pèsent 32% des 12,2Md€ de revenu. Sur le segment publicitaire, Criteo et Teads continuent leur croissance et restent dans le top 10. D’autres segments sont en cours de consolidation comme le streaming représenté par Deezer ou Believe Digital ou comme le e-paiement avec Ingenico ePayments ou Lyra Network. On note aussi la présence de services qui intègrent le quotidien des français sur le net comme Blablacar ou Doctolib.

Jeux vidéos : des industries innovantes

Six acteurs de jeux vidéos se partagent les 16% de revenus des 100 premières entreprises digitales françaises. Une part stable qui ne doit pas cacher des situations très différentes entre des entreprises qui réussissent à allier innovation technologique et attraction culturelle et d’autres qui peuvent être rapidement fragilisées (cinq des acteurs du top 30 de ces deux dernières années ont ainsi disparu). L’année 2016 est cependant positive puisque le top 20 des éditeurs de jeux vidéos connaît une progression de 6% par rapport à 2015 qui avait enregistré une stagnation.

Sophie Hoguin

Le glyphosate devant la Cour de Justice de l’Union Européenne !

Le combat des écologistes s’intensifie. Sur le banc des accusés se trouve le glyphosate, substance active utilisée notamment dans le fameux herbicide RoundUp de Monsanto. Le Centre International de Recherche sur le Cancer (CIRC), agence de l’OMS, l’avait classé comme cancérigène « probable » en mars 2015. Mais l’Efsa n’était pas de cet avis. En décembre 2015, elle considérait de son côté la cancérogénicité de la substance comme improbable pour l’homme. La Commission européenne a donc relancé en mai 2017, une procédure en vue de prolonger l’autorisation de l’herbicide pour dix ans. Cela est surprenant, puisque récemment, le sandale des Monsanto Papers a révélé que Monsanto connaissait la toxicité du glyphosate depuis 1999.

Les eurodéputés ont cherché à comprendre les raisons de ces divergences. C’est simple : le CIRC n’utilise que des études appartenant au domaine public. Mais l’Efsa se fonde aussi sur des études fournies par les industriels. Les eurodéputés ont donc demandé à l’Efsa l’accès aux études qui l’ont poussé à cette conclusion. Mais celles-ci sont couvertes par le secret industriel.

« Après une année de tractations intensives, l’EFSA ne nous a fourni qu’un accès partiel à ces études, omettant des informations clés comme la méthodologie ou les conditions d’expérimentations », fait savoir Michèle Rivasi, dans un communiqué. « Sans ces informations essentielles, il est impossible pour des experts indépendants de vérifier la validité des conclusions de l’EFSA », complète-t-elle.
Dans ces circonstances, les eurodéputés saisissent la Cour de Justice de l’Union Européenne. Ils veulent mettre fin « à une jurisprudence emblématique, qui à l’avenir incitera les agences européennes à privilégier la transparence au secret commercial dès qu’il s’agira d’évaluer scientifiquement des substances potentiellement néfastes pour la santé et l’environnement. » Mais le combat durera encore plusieurs années. Des années durant lesquelles le glyphosate pourrait continuer à polluer l’environnement. En attendant, les eurodéputés invitent les citoyens à signer l’Initiative Citoyenne Européenne « Stop glyphosate » pour faire interdire le glyphosate par la Commission Européenne.

Par Matthieu Combe, journaliste scientifique

Les briques essentielles à la vie présentes autour de proto-étoiles

C’est dans le proche environnement de proto-étoiles similaires à notre Soleil à ces premiers stades de formation qu’une équipe italo-espagnole (Centre d’astrobiologie de Madrid et Observatoire d’astrophysique de Florence) et une équipe anglo-néerlandaise (University College de Londres et Observatoire de Leiden) ont détecté pour la première fois des traces d’isocyanate de méthyle, un élément chimique précurseur de la vie. L’isocyanate de méthyle fait partie des molécules organiques impliquées dans la synthèse de peptides et d’acides aminés précurseurs des protéines. Il avait notamment déjà été détecté en 2015 sur la comète Tchouri étudiée par la sonde Rosetta.

Le système étudié, IRAS 16293-2422 est un système à plusieurs étoiles à quelques 400 années-lumières de la Terre dans la constellation d’Ophiuchus (aussi appelée Serpentaire), qui a déjà fait l’objet de nombreuses observations et avait dévoilé en 2012 la présence de molécules de glycolaldéhyde, un sucre simple, lui aussi brique essentielle de la vie.

Les astronomes se sont appuyés sur les données récoltées par le télescope Alma de l’Observatoire spatial européen (ESO) au Chili pour détecter la molécule à plusieurs longueurs d’ondes caractéristiques dans le spectre radio. Ils ont pu identifier l’empreinte spécifique de cette molécule à l’intérieur des régions chaudes et denses du nuage de poussières et de gaz qui entoure chacune des jeunes étoiles à leurs premiers stades d’évolution.

Par modélisation et expérimentation en laboratoire, les deux équipes ont montré que l’isocyanate de méthyle pouvait être créé à la surface des grains de poussières dans les conditions de froid et de vide spatial. Les prémices de la vie pourraient donc être présents autour de la plupart des étoiles du type de notre Soleil dès le début de leur formation.

L’étude de ce type d’étoile ressemblant à notre Soleil est une fenêtre ouverte sur notre passé, sur la formation de notre système solaire il y a plus de 4,5 milliards d’années et sur l’apparition de la vie sur Terre. D’autant qu’IRAS 16293-2422 présente les caractéristiques pour engendrer un système planétaire très similaire au nôtre.

Par Sophie Hoguin

Est-ce qu’un robot va vous piquer votre job ?

Parmi les études internationales sur les risques de computérisation des différents métiers (remplacement de la main d’oeuvre humaine par des machines, robots ou ordinateurs), celles des chercheurs britanniques Carl Bendikt Frey et Michael A.Osbourne, The future of employment : How susceptible are jobs to computerisation ?, qu’ils publient maintenant régulièrement depuis 2013, sont les plus fameuses et les plus commentées. Elles scannent quelque 700 métiers et les classent par ordre de risque de disparition dans les 20 ans à venir. Mais ces études révèlent aussi les limites de l’exercice : la transposition est souvent hasardeuse tant le marché du travail peut être différent entre les Etats-Unis et la France, elles ne dévoilent pas forcément de scoops (qui ne pourrait pas parier que les postes d’encaissement et de guichets sont menacés quand c’est déjà le cas depuis plusieurs années – caisses automatiques des supermarchés, guichets automatiques à la Poste, dans les gares, dans les banques etc.).

Le COE scanne le risque pour la France

Soulignant que le diagnostic réaliste est crucial pour établir des politiques publiques et qu’il convient de comprendre si “les changements vont être lents ou brutaux, mineurs, majeurs et concentrés ou non sur certaines compétences, certaines zones géographiques ou certaines catégories d’emploi”, le Conseil d’orientation pour l’emploi (COE) a commandité une étude dont le rapport est paru en janvier 2017.

Cette étude montre que :

  • « moins de 10% des emplois existants présentent un cumul de vulnérabilités susceptibles de menacer leur existence dans un contexte d’automatisation et de numérisation;
  • mais la moitié des emplois existants est susceptible d’évoluer, dans leur contenu, de façon significative à très importante;
  • le progrès technologique continuerait à favoriser plutôt l’emploi qualifié et très qualifié: parmi les emplois susceptibles d’être vulnérables, les métiers surreprésentés, en volume ou au regard de leur part dans l’emploi total, sont souvent des métiers pas ou peu qualifiés ».

L’essai ne vaut pas transformation

Beaucoup d’articles de presse s’emparent du sujet et mettent en avant des métiers comme étant amené à disparaître sous peu : que ce soit des camionneurs, des interprètes ou des comptables. Mais le COE insiste sur ce point : la possibilité d’automatiser ou de remplacer un travailleur par une machine ne signifie pas que cela va être le cas. Il y a d’autres paramètres qui entrent en ligne de compte : des freins économiques à l’investissement, des freins culturels et sociaux. Ensuite, la vitesse à laquelle se fera le changement est souvent imprévisible selon les évolutions technologiques. Aussi, l’impact réel sur le travail en volume, en localisation reste un exercice périlleux. La seule certitude c’est que les innovations en matière de robotisation et d’intelligence artificielle change la façon de produire et vont changer la place de l’homme. Ceci dit, c’est déjà le cas depuis les années 1980-1990.

Tâches vs. métiers

L’approche du COE s’est faite par un recueil d’études de postes avec une analyse du travail réel, plus le poste demande au travailleur de savoir s’adapter, d’être multitâches et moins il est vulnérable. Plus le poste consiste à suivre des tâches routinières, sans interruption et conformes aux prescriptions plus il est vulnérable. Les auteurs font remarquer qu’il est difficile de parler de “métier” car le contenu réel d’un poste de secrétaire par exemple est très différent d’une entreprise à l’autre, d’un secteur à l’autre et pourra selon les cas être plus ou moins automatisable. Il est donc plus pertinent d’analyser quelles tâches la computerisation peut concerner plus que les métiers en eux-mêmes. Reste que pour les sociétés et les individus, le plus grand défi est peut-être celui de la formation, car ce sont les métiers les moins qualifiés qui sont les plus menacés, c’est donc une population déjà vulnérable qui le devient encore plus.

Sophie Hoguin

Ruée vers les hydrates de méthane en cours !

Un hydrate de méthane est un mélange congelé d’eau et de méthane. On en trouve partout autour du globe, notamment dans les sédiments sous les fonds océaniques, aux abords des plateaux et sur les talus continentaux, ou sur terre, sous le permafrost. Ce composé stables sous des conditions de température et pression très particulières est facilement inflammable. Dès que ces conditions sont bouleversées, les hydrates se séparent en eau et méthane. Leur extraction est donc très difficile. Extrêmement difficile même, mais très convoitée. En effet, un mètre cube d’hydrate de méthane peut libérer 164 mètres cube de méthane. Cela en fait un combustible à forte intensité énergétique. Il y a encore mieux. Les réserves mondiales contiendraient plus de carbone que les gisements connus de pétrole, gaz et charbon réunis.

La Chine, en tête du cortège pour en extraire

Suite à la catastrophe de Fukushima, le Japon a été pionnier dans ce domaine pour trouver une nouvelle source d’énergie. Mais la Chine, les Etats-Unis, le Canada, l’Inde et la Corée du Sud veulent aussi avoir leur part du gâteau. Et la Chine semble aujourd’hui aussi bien avancée. Le 18 mai, le ministère chinois du territoire et des ressources a annoncé avoir extrait une quantité beaucoup plus importante que lors des tests pratiqués par les autres pays.

L’extraction a eu lieu à 1.266 mètres de profondeur dans un puits sous-marin de 200 mètres en mer de Chine méridionale. La presse chinoise a annoncé qu’en moyenne 16.000 mètres cubes de gaz avaient été extraits chaque jour, pendant 8 jours consécutifs. Les hydrates de méthane étaient purs, avec une teneur en méthane de 99,5%  Selon le site américain Ars Technica, la technique utilisée a impliqué des machines «  pour dépressuriser ou fondre [l’hydrate de méthane] sur le fond de la mer et canaliser le gaz vers la surface ». D’autres tests sont à venir pour étudier d’autres méthodes d’extraction.

Un cauchemar pour le climat ?

La route est encore longue avant une exploitation commerciale. Au plus tôt, celle-ci devrait voir le jour en 2025. Les défis sont encore nombreux pour arriver à une exploitation sans impact environnemental majeur. Le risque principal concerne des fuites de méthane, qui pourraient amplifier le réchauffement climatique. Le méthane a en effet un pouvoir de réchauffement global 23 fois supérieur au CO2. Par ailleurs, les scientifiques craignent que ce type d’exploitation cause d’importants glissements de terrain sous-marins sur le talus continental, entraînant des tsunamis majeurs.

Les hydrates de méthane sont une énergie fossile. Si leur extraction était compétitive, leur utilisation contribuerait à amplifier le réchauffement climatique. Néanmoins, ils pourraient être intéressants s’ils remplaçaient le charbon et le pétrole dans les pays émergents fortement consommateurs. On peut notamment penser à la Chine, à l’Inde. Mais s’ils faisaient baisser le prix mondiale de toutes les énergies fossiles et en absence d’une taxe carbone forte, ils pourraient surtout menacer le développement des énergies renouvelables.

Par Matthieu Combe, journaliste scientifique

De la culture de la peau 3D à l’injection directe sur les grands brûlés

En mai 2015, la filiale américaine de L’Oréal signait un partenariat de 5 ans avec Organovo, spécialiste américain de la bio-impression pour travailler sur la production en masse d’échantillons de peau à des fins de recherche cosmétologique. Moins de deux ans plus tard, au moins deux entreprises européennes se targuent de savoir fabriquer toutes les couches d’une peau humaine via une impression 3D basée sur la micro-extrusion : en France, LabSkin Creations en coopération avec l’ICBMS (institut de chimie et biochimie moléculaires et supramoléculaires de Lyon) et BioDan Group et l’Université de Madrid en Espagne. Dans les deux cas, l’imprimante injecte différents types de cellules (fibroblastes, kératynocites…) issus d’une biopsie animale ou humaine et différents composants utiles à la vie et au développement de ces cellules. Résultats: on recrée des échantillons de peau animale ou humaine complètement fonctionnels pour des tests pharmacologiques ou cosmétiques ou à terme pour des greffes sur les grands brûlés. Concernant les greffes, les essais en sont au stade préclinique, avec des expérimentations concluantes sur les animaux. Le procédé devrait pouvoir être validé sur les humains pour 2020. A ce jour, la bio-impression 3D pour la peau permet de passer d’un temps de culture de 45-50 jours à 21-25 jours et d’imprimer aussi des reliefs de la peau et des vaisseaux sanguins.

Des solutions qui collent à la peau

LabSkins Creations va d’ailleurs très loin dans ce qu’elle peut proproser aujourd’hui aux industriels en matière d’échantillon de peau pour la recherche. Les échantillons peuvent en effet présenter des caractéristiques variées reproduisant des critères d’âge ou d’exposition aux UV par exemple. Côté subvention, si la région Rhônes-Alpes soutient fortement le laboratoire lyonnais, la Direction générale des armées contribue désormais aussi au programme de recherche pour pour le développement de l’impression 3D directement sur les grands brûlés. Lyon étant évidemment la place idéale pour cela puisque l’hôpital Edouard Herriot accueil le centre de référence national de prise en charge des grands brûlés français.

Outre-Atlantique, des chercheurs de l’université de Wake Forest en Caroline du Nord, pionniers dans l’impression de cellules vivantes, ont conçu un prototype d’une bio-imprimante pour implanter des cellules capables de régénérer la peau directement sur les grands brûlés. Testé sur des animaux, la guérison est trois fois plus rapide.

De la 3D à la 4D

De son côté, une autre start-up de la bio-impression française, Poietis a développé une solution d’impression 3D de la peau non plus couche par couche, mais cellule par cellule : grâce à un laser, elle peut positionner les cellules de manière ultra précise (la taille des gouttes ne dépassant pas quelques microns) pour reconstruire un morceau de peau mais aussi tout autre tissu vivant. La start-up bordelaise créé en 2004 par Fabien Guillemot, un chercheur de l’Inserm vient d’ailleurs de présenter sa nouvelle bioimprimante, la NGB 17,03 et surtout le logiciel de CAO qui l’accompagne qui permet d’intégrer une dimension temps correspondant à l’évolution des cellules dans l’environnement où elles sont placées. Sa solution présente en outre un aspect reproductible à l’identique, ouvrant la voie de l’industrialisation de la bioimpression. Pour Poietis, ce n’est plus de l’impression 3D mais bien 4D car elle doit pouvoir contrôler la morphogénèse des tissus dans le temps de façon reproductible.

Par Sophie Hoguin

Le sel marin est aussi contaminé par les microplastiques !

On sait que les microplastiques contaminent la chaîne alimentaire dans les océans. En 2014, 60 millions de consammateurs dénonçait même la présence de microplastiques dans le miel. Aujourd’hui, des chercheurs maltais de l’université Putra Malaysia dénoncent leur présence dans le sel de table. Leurs résultats sont publiés dans la revue Scientific Reports.

Pour arriver à cette conclusion, les chercheurs ont analysé 17 marques de sels marins ou de lacs issues de 8 pays – Australie, Iran, Japon, Nouvelle-Zélande, Portugal, Afrique du Sud, Malaisie et France – par spectroscopie Raman. L’équipe n’a néanmoins pas révélé l’identité de ces marques. Mais leurs conclusions sont accablantes: seule une marque ne contient pas de microplastiques. Si cette marque est française, les cinq autres marques hexagonales n’échappent pas à cette contamination. Seule précision révélée : cette marque est vendue dans un contenant en verre.

De quels microplastiques parle-t-on ?

Les chercheurs ont extrait les microparticules supérieures à 149 micromètres (μm). En moyenne chaque kilogramme de sel contient entre 1 et 10 microparticules. Sur un total de 72 particules extraites, 41,6% étaient des polymères plastiques, 23,6% étaient des pigments (phtalocyanine, jaune de chrome,hostasol vert, bleu de phtalocyanine). 5,5% étaient du carbone amorphe et 29,1% restaient non identifiées. En moyenne, les particules mesuraient 515 μm.

Les polymères plastiques les plus courants sont le polypropylène (40%) et le polyéthylène (33,3%). 63,8% des microplastiques sont des fragments de plastique (63,8%). Puis on trouve 25,6% de filaments et 10,6% de films. Aucune microbille de plastique n’a été isolée de ces échantillons.

sel-microplastiques
Images de quelques particules extraites. (a) Polyisoprène/polystyrène, (b) Polyéthylène, (c) Pigment : phthalocyanine (d) Filament de nylon-6.

Une pollution plastique à surveiller !

Les chercheurs se veulent néanmoins rassurants. « Selon nos résultats, le faible niveau d’absorption de particules anthropiques dans les sels [37 particules maxium par individu par an] garantit des impacts négligeables sur la santé », préviennent-ils. On reste loin de l’ingestion qui peut s’élever jusqu’à 11.000 fragments de plastique chaque année pour les amateurs de fruits de mer.
Mais, la quantité de plastiques déchargés dans les océans étant en constante augmentation, ils recommandent de quantifier et identifier régulièrement les microplastiques présents dans divers produits de la mer. Il n’existe encore aucune norme spécifique fixant des seuils maximum de micro-plastiques dans le sel marin ou autres produits.

Par Matthieu Combe, journaliste scientifique

Le papier interactif, c’est pour bientôt !

Finis les QR Code, le papier connecté, c’est pour bientôt! Nom de code du projet : Papier nouvelle génération. Comme sur une page Internet, ce papier contiendra des hyperliens. En tournant une page ou en touchant la surface d’un document, d’une photographie, d’un poster ou d’un livre, les lecteurs pourront obtenir des informations complémentaires sur leurs appareils numériques connectés.

Le papier intégrera des capteurs électroniques et des puces. En appuyant sur un « bouton imprimé », les liens s’ouvriront automatiquement. Que cela soit sur un téléviseurs, un smartphone, une chaîne hi-fi, un ordinateur… Seule condition nécessaire : que le dispositif utilise la technologie du projet. Ces liens dirigeront ver des vidéos, des enregistrements sonores, de la musique… Toutes les possibilités sont ouvertes.

Un papier interactif qui révolutionnerait l’imprimerie

Dans un communiqué, le professeur David Frohlich, annonce une véritable révolution du papier. Avec son équipe, il compte lui donner « une toute nouvelle vie numérique ». Il espère « créer un marché de masse pour cette nouvelle génération de papier au 21e siècle». « Les éditeurs pourront ajouter de la valeur aux produits et aux services d’impression en les connectant au matériel numérique, tandis que les entreprises Web pourront utiliser le papier comme une interface tangible pour l’information en ligne», prévient-il.

Le chercheur imagine une multitude d’applications là où le papier continue d’être utilisé aux côtés de l’information numérique. C’est notamment le cas pour les journaux, magazines, brochures, manuels d’enseignement et livres. Mais aussi pour les particuliers qui pourraient créer des documents papier interactifs, comme des photobooks, associés à des vidéos ou des enregistrements sonores. En médecine, les dossiers des patients pourraient être reliés aux résultats des analyses. Enfin, dans le secteur du tourisme, ce papier pourrait faciliter le lien entre les brochures de voyage, les guides, la publicité et les applications pour smartphones.

Par Matthieu Combe, journaliste scientifique

Le rendez-vous de référence pour les matériaux composites, COMPOSITES MEETINGS se déroule les 8 et 9 novembre à Nantes

En 2015 :

  • Plus de 420 sociétés présentes
  • 5 200 rendez-vous d’affaires organisés
  • 21 pays représentés dont le Japon (pays à l’honneur ), Allemagne, Autriche, Belgique, Chine, Espagne, Etats-Unis, Finlande, France, Grande Bretagne, Inde, Italie, Pays-Bas, Portugal, République Tchèque, Russie, Suisse, Taiwan, Thaïlande, Turquie, Ukraine.

Des donneurs d’ordres leaders internationaux dans tous les secteurs d’activité :

ACITURRI AERONAUTICA S.L. • AIRBUS DEFENSE & SPACE • AIR LIQUIDE I LAB • AIRCELLE • ALENIA AERMACCHI SPA (TORINO) • ALSTOM TRANSPORT • ARMEE DE L’AIR FRANCAISE-SERVICE INDUSTRIEL DE LAERONAUTIQUE • BABOLAT VS • BAUDET SA • BOEING COMMERCIAL AIRPLANES • BOMBARDIER TRANSPORT FRANCE • CENTIGON FRANCE SAS • Cm DRONEs • CNG • CONTINENTAL STRUCTURAL PLASTICS • DAHER SOCATA • DECATHLON • DCNS • HUTCHINSON CENTRE DE RECHERCHE • IVCHENKO PROGRESS SE • LIEBHERR AEROSPACE & TRANSPORTATION SAS • NEXTER SYSTEMS, PSA PEUGEOT CITROEN • RENAULT SPORT F1 • SAGEM GROUPE SAFRAN • SALOMON SA • SNCF-CENTRE D’INGENIEURIE DU MATERIEL • STELIA AEROSPACE • SWATCH AG • THALES SYSTEMES AEROPORTES • TONY GAHERY…

Pays à l’honneur en 2017

A chaque édition de Composites Meetings, les entreprises ont l’opportunité d’améliorer leur connaissance des marchés des composites de certains pays. La 6e édition sera dédiée aux Etats-Unis. Un pavillon et des conférences spécifiques seront organisés dans le cadre de cette action.

Green Composites Village

Une exposition au cœur du salon pour mettre en avant toutes les initiatives «vertes» des industries de la filière.

 

Pour plus d’information et pour vous inscrire, rendez-vous sur le site http://france.compositesmeetings.com/

Quels impacts suite au retrait des Etats-Unis de l’Accord de Paris ?

Comme il l’avait promis durant sa campagne électorale, « les Etats-Unis vont se retirer de l’accord de Paris sur le climat », a annoncé le Président américain à Washington. Les Etats-Unis cessent « dès aujourd’hui » son application et se désengagent aussi des engagements financiers qui soutiennent l’accord. Le pays  projetait une réduction de 26 % à 28 % de leurs émissions de gaz à effet de serre (GES) d’ici 2025.

Pour justifier sa décision, Donald Trump reprend ses arguments de campagne auprès de l’électorat américain. « L’accord de Paris s’est fait sur le dos des travailleurs américains » et est « très injuste » pour son pays, juge-t-il. Car le respect des engagements obligerait les Etats-Unis à baisser leur production et « nous faire perdre 2,7 millions d’emplois d’ici 2075 », calcule-t-il. Pas un mot sur les emplois qui pourraient être créés par la croissance verte.

Un accord mauvais pour l’environnement ?

Surtout, Donald Trump serait très attaché à l’environnement. Il quitte l’accord car « non seulement l’accord de Paris soumet nos concitoyens à une pression économique sévère mais en plus n’est pas bénéfique à l’environnement ». En effet, recapitalisant sur ces thèmes de campagne, il souligne que cet accord a été conclu au détriment des Etats-Unis.

L’accord n’aurait pas d’impact sur les plus gros pollueurs. Il rappelle que la Chine s’est engagée sur un plafonnement de ses émissions, au plus tard en 2030, sans chiffrer la hauteur de ce pic. Avec des accents nationalistes, il estime que l’accord a été conclu pour avantager économiquement leurs concurrents, notamment la Chine et l’Inde, qui recevront « des milliards et des milliards de dollars ».

Loin d’être une mauvaise nouvelle pour la planète, les Etats-Unis continueront à être « le pays le plus propre, sans perdre d’emploi », prévient le Président américain. Un pays propre qui est pourtant le deuxième émetteur mondial de GES. Avec 4% de la population mondiale, les Etats-Unis émettent 17,89% des GES mondiaux. Si la Chine est bien le premier pays émetteur avec 20,09%, elle détient 18% de la population mondiale. Une première place qui reste donc à relativiser.

Renégocier l’accord? Qu’en pense Macron?

L’Accord de Paris a été négocié après de longues années de discussion, suite à l’échec de Copenhague en 2009. Mais Donald Trump veut négocier un nouvel accord ou renégocier l’accord existant. Il souhaiterait des termes qui soient « justes pour les Etats-Unis, leurs entreprises, leurs salariés, leur population, leurs contribuables ».« Nous ne renégocierons pas un accord moins ambitieux », lui a répondu dans la soirée Emmanuel Macron. Il a repris à son compte la célèbre formule de l’ex-secrétaire général des Nations unies Ban Ki-moon en rappelant qu’« Il n’y a pas de plan B car il n’y a pas de planète B » . L’Allemagne, la France et l’Italie ont affirmé que cet accord n’était « pas renégociable ».

Puis le Président français a précisé que la France se devait d’être dès aujourd’hui  plus ambitieuse dans la lutte contre le changement climatique. Il a appelé « tous les scientifiques, ingénieurs, entrepreneurs et citoyens engagés » à venir travailler en France sur des solutions concrètes pour le climat. « La France proposera un plan d’actions concret afin d’accroître son attractivité pour les chercheurs et les entreprises de la transition écologique et prendra des initiatives concrètes, notamment en Europe et en Afrique sur ce sujet », fait savoir le Président. Il a par ailleurs annoncé une rencontre le 3 juin à Paris, avec le premier ministre indien, Narendra Modi, ainsi que des « initiatives fortes » dans les jours à venir.

D’ores et déjà, plusieurs dizaines de villes et d’États américains ont promis qu’ils développeraient l’économie verte au niveau local. Plusieurs entreprises ont également dénoncé cette sortie, notamment Elon Musk, PDG de Tesla et de SpaceX.

Que devient l’Accord de Paris ?

À ce jour, 147 pays, représentant 83,59% des émissions mondiales de gaz à effet de serre ont ratifié l’Accord de Paris. La Russie et la Turquie manquent notamment toujours à l’appel. En se retirant, ce sont 17,89% des émissions qui sortent de l’accord. Le solde est donc désormais à 65,7% des émissions mondiales. Affaibli, l’accord reste toujours plus puissant que Kyoto II qui ne représentait au maximum que 15% des émissions mondiales de GES.

Pour se retirer de l’Accord de Paris, un pays doit notifier son intention au secrétariat de la Convention climat de l’ONU (CCNUCC). Cette disposition est prévue dans l’article 28 de l’accord. Il peut néanmoins le faire que trois ans après l’entrée en vigueur du texte, effective depuis le 4 novembre 2016. Il y a ensuite un préavis d’un an avant de réellement sortir de l’accord. Les Etats-Unis sortiront donc officiellement le 4 novembre 2020. À moins qu’ils se retirent totalement de la Convention climat de l’Onu. Il ne leur faudrait alors qu’un an après la notification. Cette option ne semble en revanche pas être la piste privilégiée par les Américains. Dans les faits, l’Accord n’étant pas juridiquement contraignant, rien n’empêche les Etats-Unis, tout simplement, de ne pas respecter leurs engagements d’ici là.

Un accord fragile et des objectifs difficiles à atteindre

  • Les contributions actuelles mettent la planète sur une trajectoire d’une hausse de plus de 3°C d’ici 2100. Sans les Etats-Unis, l’ensemble des pays qui ont ratifié l’accord vont devoir redoubler d’efforts pour limiter le réchauffement climatique à 2°C, voire 1,5°C en 2100. Cela semble impossible. Il reste de nombreuses règles à définir. Il s’agit notamment des mécanismes pour la révision des contributions et la transparence des politiques climatiques des pays.
  • Par ailleurs, les pays émergents ont signé l’Accord en échange d’un financement de 100 milliards de dollars par an dès 2020. En l’absence des Etats-Unis, le problème le plus dur à surmonter sera certainement celui du financement. Et avec cette annonce, la Convention climat de l’ONU se voit amputée de 23% de son financement. La Chine et Union européenne devraient désormais prendre la tête du combat climatique.

Par Matthieu Combe, journaliste scientifique

2,3 €/W : le coût du toit solaire sexy de Tesla

L’équipe de la route solaire française espère pouvoir atteindre un coût de 6 €/W (6,5 $/W) dans le futur, ce qui nécessitera une division d’environ un facteur 3 du coût actuel. Mais même un facteur 1,3, comme c’est le cas pour le prix de lancement du toit solaire de Tesla qui sort tout juste du laboratoire, n’a rien de négligeable et est problématique selon certains experts du solaire sensibles aux problématiques écologiques. Tesla a publié un billet de blog pour présenter son nouveau bébé.

« Et maintenant voici le test acide pour les toits solaires de Tesla. Jenny Chase est-elle impressionnée, bien qu’à contrecœur ? » a interrogé publiquement Michael Liebreich, fondateur de l’agence Bloomberg New Energy Finance. Jenny Chase, directrice des analyses solaires au sein de BNEF, a fait le calcul : « $42 par pied-carré correspondent à $452 par mètre-carré. Ou, avec une efficience de 18%, à $2,52 le Watt. Les systèmes résidentiels allemands sont aujourd’hui à un coût bien inférieur à $1,9 le Watt (1,7 €/W NDLR), frais d’installation compris. »

On objectera que le toit solaire de Tesla permet de faire des économies en tuiles et en ardoises mais pour Jenny Chase « le coût des bardeaux d’asphalte (très utilisés en Amérique du nord NDLR) est négligeable. Donc oui, construire le système photovoltaïque en même temps que le toit permet de réaliser des économies, mais on peut faire cela avec des modules solaires classiques aussi ».

En fait « si les toits solaires de Tesla semblent bon marché, c’est parce qu’aux USA le solaire classique est cher » comparativement à l’Allemagne a ajouté cette experte suisse.

Pour Joju Solar, l’un des leaders de l’installation de solaire en toiture au Royaume-Uni, de nombreuses tentatives d’installation de tuiles et ardoises solaires ont été effectuées dans le passé. Mais aucune n’a été concluante « à cause de coûts plus élevés et d’une efficience plus faible » expliquent ces spécialistes dans une note d’analyse. Les cellules solaires sont en effet sensibles à la température et les intégrer directement dans le toit limite la possibilité de ventilation.

« Quelque chose qui devient joli n’est pas un game-changer » tranche Jenny Chase, dans un tweet qu’elle a adressé à Elon Musk. « Des modules c-Si normaux permettent d’atteindre une meilleure NPV » a ajouté la scientifique. La valeur actuelle nette (Net Present Value, NPV) est une mesure de la rentabilité d’un investissement.

Cohérence éco-logique

« Quand le solaire devient sexy » titrait Techniques-ingénieur.fr le 21 novembre 2016 dans l’article le plus lu de l’histoire de ce média, toutes rubriques confondues. Mais l’approche esthétisante, parfois nuisible à la performance énergétique et économique et qui tel un miroir attire les alouettes, est-elle vraiment souhaitable ?

« Aucune grâce extérieure n’est complète si la beauté intérieure ne la vivifie » écrivait Victor Hugo. Dans un contexte de crise écologique planétaire (Eaux, sols, atmosphère, biodiversité) et d’urgence de sortir des combustibles fossiles, focaliser sur l’esthétique est-il vraiment prioritaire ? Et les panneaux classiques sont-ils vraiment laids ? Ce sont peut-être les paysages mentaux intérieurs qu’il conviendrait de changer.

Le toit solaire a été annoncé par Elon Musk dans un contexte où il tentait de sauver SolarCity en fusionnant cette entreprise avec Tesla. Ces toits permettent notamment d’alimenter les voitures électriques. Jouissant d’une  aura quasi-divine, l’entrepreneur aux multi-succès est parvenu à ses fins. Mais cela ne signifie pas que tout ce que propose Elon Musk est forcément génial.

Creuser (et donc dépenser beaucoup d’énergie) des tunnels sous Los Angeles pour propulser à 200 km/h des voitures montées sur des wagons et traverser toute la ville en 5 minutes, est-ce s’inscrire dans une trajectoire de développement vraiment durable et donc d’efficience énergétique ? C’est le projet de The Boring Company, une nouvelle entreprise fondée par Elon Musk. Ivan Illich se retourne dans sa tombe.

Envoyer des touristes prendre des photos autour de la Lune grâce aux fusées de SpaceX, qui brûlent de grandes quantités d’hydrogène dont la production via l’énergie photovoltaïque et éolienne est très inefficiente, conduit à poser la même question. « Même si les ressources renouvelables sont gigantesques, les dépenses en matières premières nécessaires pour fabriquer tous les convertisseurs pourraient contribuer à accroître significativement les dégâts environnementaux associés » souligne Bernard Multon, Professeur à l’Ecole Normale Supérieure de Rennes. L’ingénieur centralien Philippe Bihouix, auteur du livre « L’âge des Low-Techs » (Edition Seuil, 2014) et spécialiste des métaux, n’a cessé d’alerter à ce sujet.

Pourquoi vouloir construire des villes sur Mars, ceci après y avoir lancé des bombes nucléaires dans l’espoir de faire fondre l’eau des calottes polaires de la planète rouge ? Au cas où la situation tournerait mal sur Terre a expliqué Elon Musk. Ne vaudrait-il pas mieux faire le pari que tout ira bien si chacun parvient à intégrer le minimum vital d’éco-conscience ? L’idéologie « no limit » peut conduire au pire. L’électricité solaire, si elle tombe entre de mauvaises mains, peut alimenter des chars ou des avions de guerre électriques.

« Dans l’axe est son moteur, il décolle. Son accélérateur le console » chantent dans « Il roule (Les fleurs du bal) » Alain Souchon et Laurent Voulzy. « Les guitares qui jouent fort dans son cockpit lui sont d’un réconfort Amniotique. Il roule, il roule comme les larmes qui coulent laissant là, dans la salle sur le sol éparpillées les fleurs du bal ».

Charles Baudelaire, à l’occasion de l’exposition universelle de 1855, s’interrogeait déjà : « Je laisse de côté la question de savoir si, délicatisant l’humanité en proportion des jouissances nouvelles qu’il lui apporte, le progrès indéfini ne serait pas sa plus ingénieuse et sa plus cruelle torture ; si, procédant par une opiniâtre négation de lui-même, il ne serait pas un mode de suicide incessamment renouvelé, et si, enfermé dans le cercle de feu de la logique divine, il ne ressemblerait pas au scorpion qui se perce lui-même avec sa terrible queue, cet éternel desideratum qui fait son éternel désespoir ? ». Quelle est l’origine de la boulimie technologique d’Elon Musk ?

Un débat organisé par Le Mouton Numérique aura lieu le 9 juin 2017 à Paris dans le cadre de « Futur en Seine » avec Sophie Lacour, Docteur en Sciences de l’Information & Communication spécialisée en prospective touristique et Eric Vidalenc, expert au sein de l’ADEME et prospectiviste du think-tank Futuribles.

Son thème : « La mobilité du futur doit-elle refléter nos désirs ? ».

Olivier Daniélo

Véhicules électriques : des routes de recharge aux quatre coins du monde

Trois technologies principales sont actuellement en cours de test dans le monde pour réussir à recharger, à un prix compétitif, les véhicules électriques pendant qu’ils roulent.

  • La technologie par caténaire, comme sur les trolleybus, adaptée aux camions et qui s’illustre par l’eHighway développée par Siemens. Elle est actuellement en test en Californie sur un tronçon de route de 3km entre Los Angeles et Long Beach.
  • L’alimentation par le sol (APS) commercialisée par Alstom pour les tramway, elle a fait l’objet d’un pilote pour être adaptée aux camions et aux cars sur 300m en Suède en 2013 avec des premiers prototypes fournis par Volvo.
  • La technologie par induction électromagnétique qui semble avoir la faveur des constructeurs automobiles et d’infrastructures et dont les exemples se multiplient actuellement.

L’Europe autour du projet Fabric

Le programme de recherche européen Fabric, lancé en 2014, rassemble des partenaires publics et privés de 9 pays européens autour de la recherche appliquée pour trouver des solutions à la charge dynamique des véhicules électriques. Concernant l’induction, le premier site de test construit a été celui de Satory près de Versailles. Il compte plusieurs pistes avec des courbes et des déclivités afin de vraiment permettre de tester la faisabilité des solutions à induction sur des routes telles que le périphérique parisien. Il permet aussi de tester deux véhicules simultanément afin d’analyser le comportement des charges et des champs produits. C’est sur ce site que l’institut Vedecom, en collaboration avec Qualcomm a construit un pilote de 100m muni d’une bande centrale où est installé le système de charge dynamique, reprenant le concept Halo développé par Qualcomm pour la recharge sans fil des véhicules en stationnement. Le test, mené fin mai, a été réalisé avec deux Kangoo ZE de Renault pour des vitesses jusqu’à 100 km/h. Il a permis une charge jusqu’à 20kW. Le projet Fabric inclut un autre site de test des technologies à induction, à Susa, près de Turin, où l’institut Politecnico de Turin vient d’inaugurer ses premières installations fin mai pour tester sa solution à induction et où pourront être menée des expérimentations pour des situations plus urbaines.

L’induction hors de Fabric

Mais des solutions basée sur l’induction électromagnétique sont déjà testées dans le monde. Au niveau mondial, les coréens ont été les pionniers en concevant dès 2010 une solution pour les bus, baptisée Olev pour le Online electric vehicule. Elle a aboutit à la construction de quelque 23km de routes équipées à des points stratégiques de système de charge par induction dans la ville de Gumi. Depuis 2013 deux bus y circulent. En 2015, l’Institut supérieur coréen des sciences et technologies (KAIST) qui a mis au point ce système a annoncé avoir réussi à réduire le coût d’un bus de 30% (passant d’environ 470 000 euros à 300 000 euros), soit une fourchette de prix compétitive par rapport à un bus plus classique.

Fin 2015, les Britanniques ont lancé leur expérimentation pour des routes rechargeant les bus pendant qu’ils roulent. Cette expérimentation doit durer 18 mois avant de décider si l’option est envisageable à grande échelle. Pour le moment, le prix annoncé de 23 millions d’euros pour 1km de route équipée est plutôt prohibitif.

Tel-Aviv veut montrer l’exemple

Un des projets les plus aboutis pour l’instant est celui des israeliens d’ElectRoad. Cette start-up a développé une solution basée sur l’induction à un coût suffisamment attractif pour remporter une première subvention de 120 000 dollars du gouvernement israelien et l’autorisation pour équiper une partie de la ville de Tel-Aviv. Le premier tronçon d’environ 800m doit être mis en service en 2018. Si l’essai est concluant, le gouvernement a prévu de le déployer sur 17 km entre Eilat et l’aéroport international de Ramon. Sans pour autant annoncer le coût au kilomètre, ElectRoad se vante de son avance technologique, arguant que ces transformateurs sont moins coûteux et que l’installation sur l’infrastructure routière est rapide et efficace  et qu’elle ne nécessite que deux tracteurs. Un kilomètre peut ainsi être équipé en une seule nuit.

Comme on le voit, la technologie par induction n’en ait encore qu’à ses balbutiements et cela pourrait prendre une dizaine d’années avant qu’on ne dépasse tous les obstacles technologiques et financiers permettant son déploiement à grande échelle. Les batteries auront-elles d’ici là fait suffisamment de progrès pour que l’idée même d’équiper les routes soit devenue inutile ?

Sophie Hoguin

Techniques de l’Ingénieur vous permet d’accéder aux conférences de SMART ENERGIES 2017 à tarif réduit !

Rendez-vous B2B incontournable de la filière énergétique, SMART ENERGIES 2017 Expo & Summit se tiendra les 6&7 juin 2017 à l’espace Grande Arche, à Paris La Défense.

Techniques de l’Ingénieur est partenaire de l’évènement et vous permet de bénéficier de 30% de réduction sur votre accès aux conférences animées par les acteurs de la scène énergétique (FULL PASS 1 ou 2 jours).

Pour vous inscrire et profitez de la réduction cliquez ici.

Vous pouvez également saisir le code SE17-TECHNIQUES-INGENIEUR dans le champ prévu à cet effet lors de votre inscription sur www.smart-energies-expo.com.

GridMotion : Un projet très Smart 
pour les véhicules électriques

Imaginez 1 million d’automobilistes branchant la prise de leur véhicule électrique de retour chez eux vers 19h, heure de pointe de la consommation électrique en France. C’est ce qu’ont fait le constructeur automobile PSA, Direct Energie, Enel, Nuvve, Proxiserve et l’Université Technique du Danemark regroupés dans le projet GridMotion. « Intégrer le nombre grandissant de VE, sans que ces derniers aient un impact négatif sur le réseau électrique, tel était notre problématique », explique Nicolas Leclère, responsable de l’optimisation des solutions d’électrification chez PSA. Les membres du projet GridMotion souhaitent développer un modèle fiable d’intégration du véhicule électrique, voire plus encore, en faire un outil de flexibilité au service du réseau.

Cherche partenaire particulier

PSA recherche 75 utilisateurs de véhicules électriques de deux types pour participer à cette expérience qui durera deux ans. La première catégorie (50 VE) concerne les propriétaires particuliers de Peugeot iOn, Partner Electric, Citroën C-ZERO ou Berlingo sortis après le 1er janvier 2015. Ils testeront la recharge unidirectionnelle intelligente. Direct Energie proposera, grâce à des applications mobiles dédiées, aux utilisateurs de VE des offres de recharge plus ou moins économiques en fonction de l’heure pour orienter leurs choix vers les tranches nocturnes. Le fournisseur joue ainsi le rôle d’agrégateur avec le gestionnaire, Réseau de Transport d’Electricité (RTE), en lui offrant un service de flexibilité bien utile pour lisser la pointe électrique.

La seconde catégorie, 15 VE B2B de type Peugeot iOn ou Citroën C-ZERO, expérimentera la recharge bidirectionnelle (charge/décharge) apportée par Enel. Ces véhicules participeront à la phase la plus complexe de l’expérience. Ils fourniront des services d’équilibrage réseau grâce à de courts cycles de chargement et de déchargement. Les batteries des VE disséminés sur tout le réseau offrent une solution pour équilibrer sa fréquence. « L’innovation ne réside pas tant dans notre rôle d’opérateur de flexibilité car nous offrions déjà des services d’effacement et de réserves à RTE. Mais plutôt dans le potentiel que représenterait des millions de VE, comme autant de points diffus de stockage d’énergie, pour créer une chaîne robuste et flexible », indique Louis Duperry, directeur Innovation de Direct Energie. En fonction des besoins du réseau, le fournisseur indépendant peut ajuster du jour au lendemain à la baisse la puissance de ses clients, c’est l’effacement. Être opérateur de réserve primaire consiste à ajuster la consommation en temps réel pour aider RTE à équilibrer la fréquence.

Equilibre technico-économique

Au-delà de l’innovation technique, les partenaires du projet GridMotion souhaitent également valider le modèle économique car comme le rappelle Louis Duperry : « Rien ne pourra se faire sans le client. L’innovation économique résidera dans notre capacité à créer une relation client qui permette de manipuler les consommations d’énergie tout en donnant systématiquement la priorité au consommateur». Direct Energie a élaboré plusieurs modèles d’incitations, inspirés en partie de ses activités existantes d’effacement, pour restituer au client une partie de la valeur générée par les services réseau. « Notre d’expérience de l’effacement dans le chauffage résidentiel par exemple montre qu’une baisse de la facture est moins perçue par les consommateurs, en raison des prix bas de l’électricité en France, que la fourniture gratuite de services ou produits », détaille Louis Duperry.

Cette grande chaîne de valeur intégrée de l’électricité n’est pas sans rappeler la vision d’Elon Musk qui cherche à travers ses différentes compagnies à créer une offre tout électrique verticalement intégrée de la production d’électricité renouvelables (notamment photovoltaïque) à la voiture électrique (Tesla) le tout piloté par un réseau intelligent. Un écosystème viable uniquement à la condition de résoudre la double équation technico-économique.

Romain Chicheportiche

Le Plan THD avance… lentement

Le nouveau Président de la République connaît bien le dossier. En novembre 2015, alors ministre de l’Économie, il avait réuni les opérateurs pour s’enquérir de leur engagement à tenir les objectifs du plan France Très Haut Débit.  Après cette réunion, il avait déclaré : « nous sommes en ligne avec le plan de déploiement du très haut débit ».

Est-ce toujours le cas aujourd’hui ? L’Hexagone n’est pas le bon élève européen. Selon la dernière étude de l’IDATE, l’Europe au sens large (Russie et Biélorussie incluses) a vu le nombre de foyers raccordés en fibre bondir de 17 % sur un an à fin septembre 2016. En France, la progression n’est « que » de 11 % ! Il est toujours possible de se rassurer en constatant que l’Italie, l’Allemagne et le Royaume-Uni affichent un bonnet d’âne avec respectivement 1,9 % d’abonnés, 1,6 % et moins de 1 % ! Pour mémoire, toujours selon l’IDATE, les Émirats arabes unis sont le premier pays en termes de raccordements (93,7 % de foyers en FTTH/FTTB), suivis par le Qatar (87,9 %) et la Corée du Sud (79,8 %).

De son côté, « Le Baromètre exclusif » du site ZoneADSL confirme une progression très faible du THD. Son palmarès des villes indique que 48,3 % sont éligibles au Très Haut débit (>30 Mb/s) et 15,7 % au réseau de fibre optique. Lancé au printemps 2013, le Plan France Très Haut débit vise à couvrir l’intégralité du territoire d’ici 2022, c’est-à-dire à « proposer un accès à Internet performant à l’ensemble des logements, des entreprises et des administrations, même s’ils sont isolés ».

Le défi sera difficile à relever pour le nouveau gouvernement. Selon les projections de ZoneADSL, seule La Réunion sera couverte à 100 % en 2022. La Martinique, la Bourgogne-Franche-Comté et le Centre-Val de Loire, seront mieux lotis que les autres avec respectivement 94 %, 83 % et 80 %. À l’inverse, la Guyane et Mayotte seront très mal desservies avec respectivement 20 et 34 %. Plus surprenant, Île-de-France n’affichera que 74 %.

Cette faible progression a plusieurs explications dont la principale est le coût de l’investissement. Lors du récent colloque TRIP (Territoires et Réseaux d’Initiative Publique) printemps 2017 organisé par l’AVICCA (Association des Villes et Collectivités pour les Communications électroniques et l’Audiovisuel), le directeur de l’Agence du Numérique, Antoine Darodes a estimé qu’il « faudra entre 10 et 12 milliards d’euros d’investissements supplémentaires » pour le FTTH. Début 2017, un rapport de la Cour des Comptes avait évalué à 34,9 Md€ le coût total du Plan, estimé initialement à 20 Md€.

Autre explication à ce retard : l’existence de zones blanches c’est-à-dire mal ou pas desservies par des opérateurs. Dans ce cas, d’autres alternatives pourraient prendre le « relais » de la fibre optique et du câble : les réseaux hertziens terrestres (Wimax, Wi-fi) notamment avec l’utilisation de technologies LTE (« Long Term Evolution ») et l’internet par satellite (bande Ka).

Philippe Richard

Les terres agricoles disparaissent à nouveau sous le béton !

Le megaprojet EuropaCity est emblématique du combat contre l’artificialisation des terres agricoles. La fronde monte ces derniers jours contre ce projet de complexe voulant mêler commerces, loisirs et équipements culturels en 2024. Sur ce dossier, 80 hectares de terres agricoles sont menacées à Gonesse (Val-d’Oise). Mais les terres du triangle de Gonesse sont loin d’être les seules menacées par l’artificialisation.

Les sols agricoles sont la plupart du temps achetées dans le but d’y maintenir une exploitation agricole. Mais ils peuvent aussi être acquis pour être urbanisés. Les promoteurs immobiliers y construisent alors des logements, des zones commerciales, des routes et autres infrastructures… La FNSafer suit l’évolution de ces marchés fonciers ruraux.

Une artificialisation des terres qui repart à la hausse

Si le marché de l’artificialisation des sols a été divisé par 2 entre 2007 et 2014, la FNSafer s’alarme. Depuis 2015, il repart à la hausse. Pour l’année 2016, la fédération relève même une hausse de 22% du nombre de transactions, contre une faible reprise de 3,8 % en 2015 . En termes d’hectares, la hausse est de 20,2%. Le marché atteint 4,6 milliards d’euros.

L’artificialisation est particulièrement poussée par l’extension des grands pôles urbains, portée par la reprise économique. Ce sont ainsi 28.000 hectares de foncier agricole qui ont été cédés au marché de l’urbanisation en 2016. Au total, la FNSafer estime même que les surfaces urbanisées représentent entre 50 000 et 60 000 hectares par an. Un chiffre similaire à celui observé au début des années 2000.

Réagir pour protéger la production agricole

« Les politiques de préservation des espaces naturels et agricoles sont inefficaces pour contenir l’extension urbaine qui repart à la hausse », regrette la FNSafer. La Fédération appelle à protéger les sols agricoles, notamment ceux qui présentent le meilleur potentiel. «Cette protection est indispensable pour s’adapter au réchauffement climatique et réduire le déficit européen de terres agricoles – l’Europe importe déjà l’équivalent de 20 % de sa surface agricole », rappelle-t-elle.

Selon le ministère de l’agriculture et de l’alimentation, la surface agricole utile (SAU) française représentait environ 28 millions d’hectares en 2010. Entre 1960 et 2010, 2,5 millions d’hectares ont déjà été remplacés par le béton. Si la relance se poursuit, une quantité similaires de terres agricoles pourrait disparaitre d’ici 2060. Soit près de 9 % de la SAU française. En un siècle, la France pourrait ainsi perdre près d’un cinquième de ses terres occupées par des activités agricoles.

Par Matthieu Combe, journaliste scientifique

Les propriétés si particulières du niobate de strontium dévoilées

Le niobate de strontium (ou plus exactement la famille des oxydes de niobate de strontium) est un semi-conducteur capable de photocatalyse à la lumière solaire. Des chercheurs de l’Université nationale de Singapour, en collaboration avec des chercheurs de l’Université de Berkeley en Californie et du Lawrence Berkeley National Laboratory ont publié deux études dans lesquelles ils ont scruté les propriétés du niobate de strontium. A la clé deux découvertes étonnantes : un nouveau type de plasmon et une activité photocatalytique qui n’est pas liée à l’activité interbande. Pour le Dr. Wan Dongyang, chercheur à la NUS Nanoscience and Nanotechnology Institute, impliqué dans les deux études publiées, la clé du succès a été la capacité des équipes à produire des films cristallins de niobate de strontium de haute qualité, permettant ainsi son étude dans de très nombreuses conditions. Les films ont été préparé par dépôt laser pulsé (PLD) à différents pressions partielles d’oxygène sur des substrats isolants.

Une photocatalyse particulière

Récemment, une poudre d’oxyde métallique de niobate de strontium a montré des propriétés photocatalytiques compétitives sous la lumière visible. Ces propriétés ont été attribuées aux phénomènes de transition des électrons dans ce composé. Cette découverte majeure a ouvert de nouvelles perspectives pour trouver des photocatalyseurs peu chers et efficaces. Cependant, les chercheurs de l’université de Singapour ont montré que les propriétés photocatalytiques du niobate de strontium ne sont pas dues à la fréquence d’absorption de l’interbande. En effet, leurs travaux, publiés dans Nature Communications aboutissent à une mesure du gap (bande interdite) plutôt élevé de 4,1 électron-volts (eV). Leurs prédécesseurs l’avaient estimé à 2eV afin d’expliquer la capacité d’absorption des photons dans le spectre visible de ce composé (688 nm équivalent à peu près à 1,8eV). Par ailleurs, la vitesse de mobilité des électrons s’est avéré basse (seulement 2.47cm2V−1s−1) alors que la densité est plutôt élevée ( 1022cm−3). Pour les chercheurs, cette propriété photocatalytique dans le spectre visible et proche infra-rouge proviendrait alors de la résonance plasmon, née de la grande densité de ce matériau et non de la transition interbande. Un résultat qui pourrait amener à de nouvelles approches pour fabriquer des photocatalyseurs dans de nombreuses applications à commencer par l’extraction d’hydrogène à partir de l’eau.

Une nouvelle famille de plasmon

La deuxième étude publiée par l’université de Singapour dans Nature Communications a porté sur la caractérisation des plasmons de la famille des oxydes de niobate de strontium. Cette étude dévoile un nouveau type de plasmon: les chercheurs l’ont baptisé “correlated plasmons” en anglais ; Trouvé sur un oxyde qui se présente comme un isolant de Mott (composé isolant qui selon la théorie devrait être conducteur), c’est un plasmon qui réagit à de multiples fréquences et qui a une faible perte dans le visible ou les ultraviolets. Ce type de plasmons est en outre ajustable : il diminue par exemple quand la l’épaisseur du film diminue. « Cette découverte ouvre de nouveaux horizons pour la plasmonique et notamment en reconsidérant certains matériaux isolants ou fortement corrélés jusque-là inexploités », explique ainsi l’un des chercheurs.

Sophie Hoguin