L’Université de Bourgogne se chauffe en partie grâce à son datacenter

Les datacenters, ou fermes de serveurs informatiques, dissipent d’énormes quantités de chaleur finalement évacuées dans l’atmosphère donc perdues. La valorisation de cette chaleur dite «fatale» est au centre de multiples initiatives ces dernières années. A titre d’exemple, le datacenter du site du Val d’Europe, à Marne-la-Vallée, est «raccordé» au réseau de chaleur qui dessert le parc d’activités à proximité. Le même principe a été appliqué à l’Université de Bourgogne, sise à Dijon. Avec une distinction notable : le réseau de chaleur de cette université exploite une eau à haute température (90°C) et a donc requis une installation spécifique et inédite à cette échelle.

jerlaure2

Réparti sur quelque 300 m², le datacenter appartenant à cette université est opérationnel depuis septembre 2015. Il a été mis en oeuvre par la société Jerlaure, dont c’est le domaine d’activé. «La puissance actuelle des équipements informatiques s’élève à 400 kilowatts (kW) et la chaleur dégagée est du même ordre, précise Christophe Moucadeau, chef de projet chez Jerlaure. La valorisation de cette chaleur était inscrite à l’origine dans le cahier des charges au moment de l’appel d’offres. La chaufferie, utilisant des chaudières à gaz pour une puissance totale de 12 mégawatts, occupe en effet le bâtiment annexe.» Une configuration dont il fallait tirer profit.

Un amortissement sur deux ans

Cette chaufferie alimente toutefois le réseau de chaleur de l’université avec une eau à 90°C. Une situation rare, puisque d’ordinaire, l’eau circulant dans un tel réseau ne bénéficie que d’une température de 50°C environ. Les équipes de Jerlaure choisissent alors des groupes de récupération de chaleur de marque Ochsner, entreprise autrichienne, qui répondent à cette problématique. «Ces équipements comportent deux étages frigorifiques et ont la particularité de produire une eau à 90°C à la sortie du condenseur» explique Antony Moret, spécialiste en la matière chez Jerlaure. Qui décrit le cycle d’échange calorique entre la salle de serveurs et la chaufferie : «Les baies informatiques sont refroidies par des unités terminales à eau glacée. L’eau entre à 10°C et ressort à 15°C. Elle est ensuite acheminée vers les groupes Ochsner dans la chaufferie, lesquels renvoient l’eau à 10°C. » Et ainsi de suite…

jerlaure1

Pour quel résultat ? «La chaleur récupérée correspond à 5% des besoins de chauffage en hiver» annonce Antony Moret. Mais le système est aussi intéressant hors de la saison hivernale. «L’été, la chaufferie peut être arrêtée et la seule chaleur produite par le datacenter permet de faire face aux besoins des cuisines par exemple, observe Antony Moret. C’est un avantage pour l’exploitant. La valorisation est valable 365 jours par an et intégrale : elle implique la chaleur des serveurs et aussi la puissance électrique des compresseurs.» Si aucun budget n’est évoqué, le retour sur investissement est cependant rapide au regard du prix de l’énergie, conclut Christophe Moucadeau : «L’amortissement s’effectue au bout de deux ans seulement».

Par Frédéric Monflier

Présidentielles : le Syntec-Ingénierie expose ses propositions

Soulignant que les entreprises d’ingénierie interviennent sur l’ensemble des secteurs d’activité de l’économie française (industrie, bâtiment, infrastructures, environnement, transport, eau, énergie etc), qu’elles emploient 350 000 actifs, recrutent 30 000 personnes chaque année et génèrent près de 45 milliards d’euros de volume d’activité, le Syntec-Ingénierie émet des propositions pour asseoir la compétitivité de ses entreprises tout en rendant service aux citoyens et à l’économie française.

Compétitivité économique

Ainsi, le Syntec-Ingénierie propose d’assurer la pérennité des activités de ses entreprises tout en maintenant la France au rang des premières nations pour la qualité de ses infrastructures en concentrant les dotations de l’Etat aux collectivités locales sur le soutien aux investissements. Ceci afin de financer les projets de réhabilitation ou de constructions innovantes en intégrant les nouveaux outils digitaux. Le soutien à ses entreprises passerait aussi par la conversion du crédit d’impôt pour la compétitivité et l’emploi (CICE) en baisse de charges et en le rendant accessible aux entreprises sans limite de salaire.

Compétititivé technique

Afin de soutenir l’innovation, clef de voûte de la compétitivité de ses entreprises, l’organisation professionnelle propose notamment de mettre rapidement en oeuvre le BIM, à travers des mesures incitatives dans un premier temps puis par des obligations réglementaires dès 2020 pour l’ensemble des ouvrages publics. Le Syntec-Ingénierie propose aussi de revoir le crédit d’impôt recherche (CIR) pour que ses entreprises puissent y accéder plus facilement. Enfin, l’ingénierie aimerait élargir le droit à l’expérimentation (qui permet de déroger à certaines normes si les résultats restent conformes) pour tous les projets et pas seulement pour les Opérations d’Intérêt National.

Place de l’ingénierie

Afin de fluidifier le travail sur les projets de construction tout en assurant une meilleure qualité et contrôle des ouvrages, l’Ingénierie souhaiterait simplifier et rationaliser les processus de concertation et de décision en phase amont des projets publics et privés et renforcer, par voie réglementaire, le contenu des missions de supervision et de contrôle des travaux réalisés sous maîtrise d’ouvrage publique. Par ailleurs, le Syntec-Ingénierie propose aussi de lever les barrières actuelles entre architectes et ingénierie afin que les deux professions puissent coopérer via la création de sociétés de maîtrise d’oeuvre mixte par exemple.

Sophie Hoguin

Les news du graphène: supraconductivité et intégration dans des Oled

Depuis sa découverte en 2004, on suspecte le graphène d’avoir des propriétés de supraconduction, c’est-à-dire d’être capable de transporter le courant électrique sans résistance.

Mais jusqu’à maintenant on n’avait réussi à le rendre supraconducteur qu’en le dopant ou en le couplant à un autre supraconducteur, sans savoir si les propriétés supraconductrices observées provenaient réellement du graphène ou sans que cela n’affecte pas certaines autres de ses propriétés.

Isolation de la supraconduction du graphène

Des chercheurs de l’université de Cambridge (UK) en partenariat avec des chercheurs israéliens et norvégiens ont réussi à activer le potentiel dormant du graphène à la supraconduction. Leurs résultats publiés dans Nature Communications (DOI: 10.1038/NCOMMS14024), ont été obtenus en le couplant à un matériau appelé PCCO (praseodymium cerium copper oxide). Ce type de supraconducteur, appelé cuprates ou supraconducteurs à haute température critique, possède des propriétés électroniques bien connues. En utilisant un microscope à effet tunnel, les chercheurs ont pu distinguer la supraconduction provenant du PCCO de celle provenant du graphène.

Une supraconduction à symétrie p-wawe ?

La supraconduction se caractérise notamment par la formation de paires d’électrons. Les scientifiques distinguent différents types de supraconduction selon l’alignement du spin des deux électrons formant une paire. Dans le cas du PCCO les spins sont antiparallèles ce qui est caractéristique d’une symétrie dite “d-wawe”. Et ce que les chercheurs ont vu dans le graphène était très différent, ils pensent qu’il s’agirait d’une symétrie “p-wawe”. Ces résultats sont très importants à deux égards : d’une part, cela prouve que le graphène possède bien des propriétés supraconductrices intrinsèques et d’autre part cela lèverait une partie du voile sur l’existence, jusqu’à présent supposée, de cette supraconductivité à symétrie p-wawe que l’on n’arrive pas à vérifier depuis 20 ans.

S’il est confirmé que le graphène possède ce type de supraconduction, cela ouvre tout un champ pour la recherche théorique et appliquée. Tout d’abord pour comprendre cette nouvelle symétrie supraconductrice et ensuite pour inclure le graphène supraconducteur à des objets très variés comme des composants électroniques moléculaires.

Des électrodes d’Oled en graphène

Les chercheurs de l’institut allemand Fraunhofer, en partenariat avec des industriels (notamment l’espagnol Graphenea et le britannique Bristish Aixtron) au sein du projet de recherche européen “Gladiator”, ont réussi à produire des électrodes d’Oled à partir du graphène. Les électrodes produites font 2×1 cm².

Méthode de fabrication

La production de ces électrodes est opérée dans le vide. Dans une chambre en acier, une plaque (wafer) de cuivre de grande pureté est chauffée à 800°C. Les chercheurs injectent alors un mélange de méthane et d’hydrogène pour initier la réaction chimique.Le méthane se dissout dans le cuivre et forme des atomes de carbone à la surface de la plaque. Le procédé ne prend que quelques minutes. Après une phase de refroidissement, on transfert la couche de graphène sur un support polymère.

Préparation pour la commercialisation

Les chercheurs du projet, qui doit s’achever en avril 2017, travaillent aujourd’hui à améliorer le procédé pour retirer les impuretés ou défauts qui peuvent subsister lors du transfert de la couche de graphène de la plaque de cuivre vers un autre support. “Les premiers produits pourraient être lancés dans 2-3 ans”, prédit Béatrice Beyer, chef du projet, mais, les applications possibles sont pléthores : écrans tactiles (un film polymère remplacerait la plaque de verre), fenêtre intelligente régulant la lumière ou activant des filtres polarisant, cellules photovoltaïques, textiles high-tech, dispositifs médicaux…

Sophie Hoguin

Pourquoi Safran achète-t-il Zodiac ?

Le 18 janvier 2016, le groupe d’aéronautique et de défense, Safran, a lancé une OPA amicale de près de 10 milliards d’euros sur Zodiac Aerospace, équipementier de l’aéronautique. La fusion des deux entreprises donnera naissance à un groupe industriel de 21 Mds d’euros de chiffre d’affaires employant près de 92 000 personnes dans 60 pays dont plus de 45000 en France. Le groupe portera le nom de Safran, mais Zodiac sera préservé en tant que marque commerciale.

Une place de choix sur le marché mondial

Ainsi, si l’on excepte Boeing et Airbus, cette fusion placerait ainsi Safran juste derrière les deux groupes américains leaders mondiaux de l’aéronautique, UTC ( avec un CA de 25,4 milliards d’euros en 2015) et GE Aviation (22,2 milliards). Ce rapprochement est aussi cohérent avec le marché aéronautique dans lequel les deux avionneurs principaux (Boeing et Airbus) mettent toujours plus la pression pour faire baisser les prix.

Les activités des deux entreprises sont complémentaires et la nouvelle entité pourra ainsi répondre à l’intégralité de l’aménagement d’un avion: Safran apportant les trains d’atterrissage, les roues et freins, les nacelles, les systèmes électriques embarqués, les actionneurs et l’avionique pendant que Zodiac fournit sièges, aménagements de cabine, répartition de puissance, circuits d’éclairage, d’alimentation en carburant, d’oxygène et de fluides et équipements de sécurité.

En outre, explique Safran dans un communiqué de presse, “dans le secteur des systèmes électriques, [les complémentarités des deux entreprises] offriraient au groupe un positionnement idéal pour les développements futurs de l’”avion plus électrique”.

Une garantie pour l’avenir de Zodiac

Depuis deux ans, Zodiac a connu la tourmente : défauts de qualité, commandes en retard, chute de moitié du titre en bourse. Fragilisé, Zodiac espérait se sortir de ce mauvais pas grâce à un plan de transformation industrielle lancé l’année dernière. Mais dans un marché très concurrentiel, il est clair que son intégration à Safran garantit aussi, de manière plus sûre, son avenir et les emplois qui y sont liés. D’autant que contrairement à ce qui s’était passé en 2010, Safran, cette fois fait une offre amicale, issue d’une co-construction entre les dirigeants des deux entités.

Selon les estimations communiquées par Safran, la fusion devrait engendrer à terme 200M€ par an de synergies de coûts (achats, frais généraux, optimisation des implantations géographiques). La signature de l’accord définitif devant d’abord attendre l’avis des représentants du personnel des deux entreprises et l’obtention des autorisations réglementaires, “la finalisation de l’offre publique est attendue à la fin du 4ème trimestre 2017 et la réalisation de la fusion début 2018”, a précisé l’acheteur.

Sophie Hoguin

Vénus : d’une onde de gravité géante à la recherche de la vie

La formation en arc de cercle qui traverse la planète sur 10 000 km de pôle en pôle, dévoilée l’année dernière par les images prises dans l’infrarouge thermique et l’ultraviolet par la sonde japonaise Akatsuki (voir l’article sur l’atmosphère de Vénus), pourrait être une onde de gravité géante selon les analyses des chercheurs japonais de l’Agence d’exploration aérospatiale du Japon (Jaxa) qui ont publié leurs résultats dans Nature Geoscience. Mais loin d’être une réponse, leurs conclusions ne fait qu’apporter d’autres interrogations.

Des vents qui devraient tout balayer

Ce qui intrigue les chercheurs, c’est que l’atmosphère de Vénus, étudiée à 65km d’altitude, se déplace à plus de 300km/h et qu’elle fait donc le tour de la planète en 4 jours terrestres, alors que la formation, elle, se déplace à la même vitesse que la planète (qui met 234 jours à tourner sur elle-même). Les scientifiques ont découvert plusieurs phénomènes qui se déplacent légèrement plus vite ou plus lentement que les vents principaux. L’hypothèse la plus probable est celle de l’existence d’ondes de gravité liées aux reliefs de la planète et il en serait de même pour cette méga-formation. Les ondes de gravité atmosphériques sont des oscillations de masse d’air engendrées par la lutte entre la force de gravité et la force d’ascension. Pour soutenir cette hypothèse, les Japonais ont créé une simulation de l’effet d’une onde de gravité sur les mesures de température de l’atmosphère de Vénus. Le résultat  fournit une image très similaire à ce qui est observé. Mais, relèvent les scientifiques, la formation et la propagation de ces ondes de gravité liées à des montagnes restent difficile à réconcilier avec ce que l’on imagine des conditions atmosphériques plus proches de la surface. Ce qui pourrait suggérer disent-ils que les vents vénusiens sont beaucoup plus variables dans l’espace et dans le temps que ce que l’on pense aujourd’hui. D’autant que le phénomène s’il a duré a finit par disparaître et ne s’est pas représenté.

venus gravite simu
Copyright : Nature Geoscience Perturbation du champ des températures à 65 km d’altitude par la présence d’une onde de gravité stationnaire calculé par un modèle numérique

Une mission russo-américaine pour trouver de la vie ?

La mission Venera D est une mission russe vers Vénus qui pourrait renaître de ses cendres et se faire en collaboration avec la Nasa. Une équipe internationale a travaillé pour préciser les principaux objectifs visés et elle oit présenter son rapport final aux responsables américains et russes à la fin du mois a expliqué David Senske, du Jet Propulsion Laboratory de la Nasa à Pasadena en Californie, cité par le site space.com.

Venera D pourrait se composer d’un orbiteur qui travaillerait trois ans dans l’atmosphère de Vénus et d’un atterrisseur qui y travaillerait quelques heures. En ligne de mire: mieux comprendre et connaître la composition, la structure et la dynamique de l’atmosphère vénusienne, appréhender la composition et la morphologie de la surface de la planète et recherche des traces de vie dans l’atmosphère. En effet, si les températures et la pression semblent incompatibles avec la vie à la surface, les conditions à 50 km d’altitude pourraient être acceptables pour de la vie microbienne.

Par Sophie Hoguin

Trump donne le feu vert à deux pipelines

Pétrole, avortement, Obamacare et traité de libre-échange, telles ont été les premières décisions de Donald Trump comme président des Etats-Unis. Le feu vert aux pipelines Keystone XL et Dakota Access s’intègre dans le grand plan de construction d’infrastructures d’énergie et de transport promis par le président-élu.

Emplois Vs Environnement

Fidèle à sa stratégie de communication, Donald Trump prétend vouloir renégocier le contrat tout en donnant un feu vert de principe : « Nous aller renégocier certains des termes. Puis, s’ils le souhaitent, nous verrons si nous pouvons faire construire ce pipeline. Beaucoup d’emplois, 28 000. De super emplois de construction », s’est félicité le président des Etats-Unis. Keystone XL est un projet de pipeline reliant sur 1 900 km (dont 1 400 aux Etats-Unis) les sites d’extraction de sables bitumineux de l’Alberta (Canada) vers les raffineries texanes du golfe du Mexique. Cela revient à traverser les Etats-Unis du nord au sud sur six états. Il répond à un besoin canadien de traiter son pétrole lourd (nécessitant des processus de raffinage plus complexes) dont l’exploitation s’est accrue ces dernières années. Le projet atteindra à terme une capacité de transport de 830 000 barils de brut par jour.

Donald Trump ne risque pas de se fâcher avec sa majorité républicaine sur ce sujet, cette dernière étant largement acquise au lobby pétrolier. Mitch McConnell, le chef des Républicains au Sénat, a encensé le projet Keystone expliquant qu’il était pourvoyeur « d’emplois et d’indépendance énergétique pour notre nation ». Même son de cloche du côté canadien : « Dans les deux conversations que j’ai eues avec le président Trump, Keystone XL est tombé sur la table et j’ai réitéré mon soutien. Je suis le dossier et l’appui depuis de nombreuses années, car cela mène à la croissance économique et à de bons emplois pour les Albertains », s’est félicité Justin Trudeau, le Premier ministre canadien régulièrement attaqué par les associations environnementales sur ce sujet.

D’environnement, il en est également question concernant l’autre projet, Dakota Access. Le pipeline en question, à 90% construit selon la Maison Blanche, est un projet évalué à 3,8 milliards de dollars (3,4 mds €) qui doit permettre d’évacuer les productions d’huiles de schiste de l’énorme gisement de Bakken dans le Dakota du nord vers le hub pétrolier de Patoka (Illinois). Il aura une capacité de transport opérationnelle de 470 000 barils/jour. La réserve de Standing Rock Sioux près duquel passe le tracé craint des contaminations d’eau, ce que le promoteur du projet, Energy Transfer, s’est engagé à prévenir.

Enfin, Donald Trump a signé un troisième décret passé un peu plus inaperçu sur la construction des pipelines sur le territoire de l’oncle Sam. Il indique que le Secrétaire au Commerce devra soumettre un plan au Président dans le 180 jours visant à ce que : « tous les pipelines neufs, ainsi que les pipelines modernisés, réparés ou agrandis, à l’intérieur des frontières des États-Unis, y compris des portions de pipelines, utilisent des matériaux et équipements produits aux États-Unis, dans la mesure du possible et dans la mesure permise par la loi ». Une formulation vague, mais le décret vise officiellement les aciers de construction. Pour rappel le premier producteur mondial d’acier est, de loin, la Chine…

Par Romain Chicheportiche

Les drones vont-ils révolutionner l’agriculture ?

csm_ag-precision-agriculture_04e09cc7b6
Des drones pour une agriculture de précision / Sensefly (Parrot)

Selon un rapport du cabinet d’audit PwC, le marché potentiel pour les drones agricoles avoisine les 30,5 milliards d’euros. Pour Bank of America Merrill Lynch, l’agriculture pourrait représenter 80 % du marché des drones commerciaux dans un futur proche, jusqu’à générer 82 milliards de dollars d’activité économique aux Etats-Unis, entre 2015 et 2025.

Les “agridrones” sont devenus la spécialité de certains fabricants, comme AeroVironment, d’opérateurs comme Airinov, qui propose un service de cartographie des parcelles agricoles, ou de concepteurs d’appareils de précision, comme Raven Industries.

Et pour cause : les drones agricoles possèdent un potentiel colossal. Par exemple, le RX60 d’AgEagle et Raven, permet de prendre des photos aériennes d’une exploitation, et d’identifier des zones nécessitant d’être traitées, avec une grande précision – une aide précieuse à la décision, pour les agriculteurs, désireux de pulvériser leur engrais et leurs produits chimiques uniquement là où ils en ont besoin.

Une agriculture de haute précision

Pour les agriculteurs, qui sont confrontés à un climat de plus en plus détraqué (PwC parle de “phénomènes météorologiques extrêmes à la hausse”), mais qui conservent la mission de nourrir une population toujours plus nombreuse (9 milliards d’individus d’ici 2050), les drones agricoles constituent un outil permettant d’évaluer très vite l’état d’une récolte, d’estimer les rendements, de collecter des données et de les analyser bien plus vite et bien plus efficacement qu’autrefois.

Les drones permettent d’analyser les sols en produisant des cartographies en 3D, ainsi que des données pour améliorer la gestion des niveaux d’engrais azotés, ou encore la planification des semences. Munis de scanners lasers, ils permettent de réaliser des mesures à distance via la “télédétection par laser” (lidar), afin de mieux pulvériser des produits chimiques. “Les experts estiment que la pulvérisation aérienne peut être rendue 5 fois plus rapide avec des drones”, indique PwC.

14012085485_239fe5c66a_b
Farming / Lima Pix / Licence CC / Flickr

Selon Nesta, fondation britannique spécialiste en innovation, le suivi des récoltes est rendu bien plus efficace grâce aux drones agricoles qui, munis de caméras embarquées et pilotés par l’agriculteur, peuvent “prendre des images dans une résolution supérieure à l’imagerie par satellite”, et peuvent couvrir 400 hectares en une heure.

Des logiciels de traitement d’image permettent notamment de créer une carte des zones agricoles, et de détecter les zones où il est nécessaire, soit d’envoyer de l’engrais, soit de retirer des mauvaises herbes. Par exemple, en combinant des photographies en une “orthomosaïque”, et en appliquant les algorithmes de l’indice de végétation par différence normalisé NDVI (Normalized Difference Vegetation Index), il est possible de créer une carte de réflectance d’une zone agricole. Tout cela, “sans les coûts et les lourdes procédures engendrées par des services de vols habités”, indique SenseFly, la division de “drones professionnels” de Parrot.

Equipés de capteurs thermiques ou desystèmes d’imagerie hyperspectrale, les multirotors peuvent aussi  identifier les zones sèches d’un champ, afin d’aider à une meilleure irrigation. Enfin, grâce à des capteurs infrarouges, les aéronefs sans pilote (UAV) permettent de connaître “l’état de santé” de chaque plante, au moyen d’images multispectrales, et de repérer le début de propagation d’une maladie dans une parcelle.

Cette agriculture de précision permise par les drones permettrait à l’agriculteur, selon les experts, de diminuer le coût des intrants et d’optimiser les rendements – de 2 à 5% dans le cas du blé. D’après Nesta, les revenus d’une exploitation moyenne pourrait ainsi être augmentés de “près de 20%”.

Image-Capture
Le RX60 d’AgEagle / Raven Industries

Les agriculteurs français, fans des drones

Les drones semblent avoir largement séduit les agriculteurs, notamment en France. Depuis 2014, la Chambre d’agriculture de la Somme propose ainsi aux agriculteurs du département, un drone conçu par Sensefly et dédié à la cartographie, le “eBee”. Présenté comme autonome (il n’a pas besoin d’être piloté, puisqu’il suffit de définir la zone à cartographier sur une carte numérique, pour qu’il gère seul son “plan de vol”), ce multirotor testé avec succès dans les champs samariens, permet de mesurer le stress hydrique et la présence de maladies dans les cultures, de réaliser une analyse spectrale de la végétation, de calculer le volume de bois dans une forêt, ou encore de prendre des photos pour déterminer l’apport d’azote déjà reçu par les cultures. “Le drone se révèle plus précis que des mesures par satellite telles qu’il en existe déjà. Il est aussi plus flexible dans son utilisation, à la demande, et moins sensible à la météo”, selon Le Monde.

Depuis 2014, le viticulteur Bernard Magrez utilise des drones pour “identifier l’hétérogénéité au sein d’une parcelle, afin d’avoir des traitements différenciés” : les drones permettent de détecter des pieds malades ou en situation de stress hydrique. Le groupe bordelais espère pouvoir bientôt les utiliser pour détecter plus rapidement les attaques de mildiou.

De leur côté, les “agridrones” d’Airinov, là encore autonomes (ils suivent des plans de vol, programmés en fonction de la parcelle à survoler et à analyser) sont utilisés par de nombreux agriculteurs, du nord de la France à l’Eure-et-Loire, en passant par la Nouvelle-Aquitaine avec la coopérative Océalia – pour cartographier les champs, mesurer la lumière absorbée ou réfléchie par les plantes, et ainsi améliorer la fertilisation des sols, détecter des maladies, repérer les zones à désherber ou les besoins en engrais d’une exploitation. Pour Jean-Baptiste Bruggeman, agriculteur et pilote de drone, c’est clair : “d’ici 2018, la majorité des surfaces agricoles en France et la majorité des agriculteurs utiliseront des drones”. Selon Océalia, dont les agriculteurs utilisent les drones d’Airinov pour “optimiser leurs récoltes”, les rendements auraient augmenté de 10% en un an.

Les drones peuvent même être utilisés dans le cadre de la lutte biologique : les fabricants Agribird (spécialisé dans le matériel agricole high-tech) et Helipse (concepteur d’hélicoptères UAV), ont ainsi conçu le HE190, un drone capable de larguer, au plus près de zones à traiter, de façon autonome, une “charge utile”, le Trichospray – en fait, des capsules contenant des larves de trichogrammes, prédatrices du pyrale, insecte connu pour ravager les champs de maïs. Ce qui permet, indique Paul Guermonprez, ingénieur innovation chez Intel, “un traitement de précision”.

Par Fabien Soyez

Les drones, au service du BTP, des mines et des carrières

Selon SenseFly, le bâtiment, les mines et les carrières sont “le secteur le plus porteur” pour les drones. Idem selon Emmanuel de Maistre, CEO de Redbird, l’un des principaux opérateurs de drones civils en France, qui estime que “c’est dans la construction et l’industrie minérale que les solutions existantes sont les plus abouties”, soulignant “l’énorme valeur ajoutée” des drones pour les gestionnaires de chantiers.

Les drones vont-ils révolutionner le BTP, les mines et les carrières, tout comme ils semblent être en train de transformer le visage de l’agriculture ? Rodolphe Jobard, fondateur-directeur de Dronea, société de prestation de services de drones pour l’industrie, décline une liste intéressante d’avantages à utiliser les drones. “Ils permettent de vérifier l’état d’une installation industrielle, de prendre des mesures plus rapidement qu’en ayant recours à un géomètre ou un topographe (et dans des endroits difficilement accessibles)”, indique-t-il.

Une utilisation encore “marginale” en ville

Les drones permettent en outre de mesurer l’efficience énergétique des bâtiments (via, notamment, une inspection thermique, lorsque les appareils sont munis de capteurs), d’inspecter leurs toits, de les cartographier et de les modéliser.  “Les drones captent aussi des données très précises et utiles pour les études de terrain, les relevés topographiques et la cartographie. Ainsi, ils améliorent les rendements et font gagner un temps considérable à ceux qui gèrent des chantiers”, indique Rodolphe Jobard.

Mais si SenseFly et Redbird semblent aussi confiants dans la capacité des drones à investir le secteur du BTP, des mines et des carrières en raison de leur fort potentiel, il n’en reste pas moins que leur utilisation demeure” assez marginale” en ce qui concerne précisément le domaine du bâtiment, selon le directeur de Dronea.

“Les mines et les carrières n’ont pas vraiment de problème, car cela se déroule dans des zones peu peuplées… Mais le BTP se passe surtout en ville, où la réglementation actuelle restreint grandement l’utilisation des drones”, indique Rodolphe Jobard, qui n’estime qu’à 10% l’application industrielle actuelle des drones dans le domaine du bâtiment.

fotolia_53216578_subscription_monthly_m-crop-u828
Les drones, un fort potentiel dans le secteur du bâtiment / Dronea

Les drones pour améliorer la gestion des grands chantiers

Dans le domaine des grands chantiers, en revanche, les drones s’avèrent de plus en plus utilisés. Ainsi le groupe de travaux publics Monnoyeur utilise-t-il depuis 2014, les drones de Redbird pour inspecter des chantiers de Lignes Grande Vitesse (LGV), et améliorer leur gestion en modélisant en 2D ou en 3D les stocks de matière, ainsi que les volumes excavés. Un moyen, notamment, de réduire l’utilisation des engins de chantier, et donc d’économiser du carburant.

Pour “améliorer leur productivité”, Caterpillar fournit une flotte de drones (ainsi que le support de son partenaire Redbird) aux exploitants de grands chantiers. Ils leur permettent de suivre, en temps réel, l’avancement des travaux et les stocks de matériaux.

Idem chez Bouygues Construction et Colas, sa filiale de travaux publics, ou encore chez Lafarge, qui utilisent des drones pour cartographier et quantifier les réserves de matériaux lors de la construction d’infrastructures routières, ou de minerais extraits lors de l’exploitation de carrières – un travail long pour un géomètre (en raison notamment des risques d’éboulement, cela peut durer plusieurs jours), quand un drone peut survoler tout un site en à peine une heure.

 

Un gain de temps et d’argent pour la réalisation de topographies

Pour les exploitants de mines et carrières, les drones permettent de concevoir très facilement des orthophographies (images aériennes du sol rectifiées géométriquement et égalisées radiométriquement) géoréférencées des terrains, ainsi que des modèles numériques d’élévation (MNE). Ils fournissent aussi des données précieuses en hydrologie (détection thermique des entrées d’eau souterraine).

Sachant qu’il s’agit de terrains souvent difficiles d’accès pour les professionnels, “les drones civils constituent un gain de temps et  d’argent pour la réalisation rapide et efficace des données topographiques et de la modélisation des stocks – tout en préservant la sécurité des humains”, indique BM Drone, société de service spécialisée en acquisition de données géoréférencées par drone. Si ces engins volants ne révolutionnent pas encore totalement le domaine du BTP et des mines et carrières, ils en prennent clairement le chemin.

Par Fabien Soyez

Drones professionnels : faut-il revoir la réglementation ?

Nombreux sont les opérateurs et les industriels à rêver d’une révision de la réglementation établie par la DGAC (Direction générale de l’aviation civile), afin de faire voler leurs drones sur de plus longues distances, si possible hors-vue (hors de la vue du télépilote), avec des charges plus lourdes.

La France fait partie des 63 pays ayant déjà adopté une réglementation sur les drones, et fait figure de pionnière en la matière. Aujourd’hui, l’on dénombre dans l’hexagone quelque 2300 opérateurs, pour 4200 drones professionnels. A des fins de sécurité, une réglementation a été mise en place en 2012. “Elle instaurait une certaine lourdeur administrative, car il fallait déclarer les vols de drones aux aéroports, à la DGAC et aux entités de la défense. C’était très lourd”, se souvient François Legrand, chargé de la réglementation aérienne pour Airinov, premier opérateur français des drones agricoles.

Des scénarios de vol favorables aux drones agricoles

Plusieurs arrêtés ont considérablement allégé ces “lourdeurs” en 2015 et 2016. Désormais, les drones civils professionnels sont identifiés et leur utilisation est distinguée de celles des drones de loisirs. “Les procédures auprès des préfectures ont été simplifiées, et les délais des demandes d’autorisations de vols ont été raccourcis”, précise Stéphane Morelli, président de la Fédération professionnelle du drone civil (FPDC).

En zones non peuplées (scénario de vol S1), il est désormais possible de voler de nuit, avec un plafond de vol limité à 200 mètres d’éloignement du pilote, au lieu de 100 mètres avant 2016. Le vol peut être hors-vue : il s’agit du scénario de vol S2, dans lequel le drone peut évoluer dans un rayon de 1 kilomètre autour du télépilote, à une altitude inférieure à 150 mètres. “Dans le cas des drones agricoles, c’est amplement suffisant pour couvrir les parcelles d’exploitations allant de 30 à 40 hectares. La réglementation est donc favorable aux drones pour l’agriculture”, indique François Legrand.

13950908853_177c223196_b
Drone vs Cow / Lima Pix / Licence CC / Flickr

Un usage des drones professionnels en ville limité

En revanche, les vols S3, qui concernent le survol (à vue) de zones de population, restent très contrôlés, pour des raisons de sécurité. Comme en 2012, les drones ne peuvent s’éloigner plus de 100 mètres du télépilote. Il faut aussi faire une déclaration à la préfecture afin d’obtenir une autorisation, et déclarer les plans de vol à la DGAC. Dans le cas des drones agricoles, amenés parfois à survoler des villages ou des champs situés à côté d’aéroports ou d’aérodromes ( la réglementation interdit de survoler et de voler à proximité de ces lieux), les opérateurs passent des accords avec les aéroports et les aérodromes,. “Autrefois, il fallait passer par la préfecture ou la DGAC lorsqu’il s’agissait de voler au dessus d’exploitations agricoles proches de ces ‘no fly zones’ : désormais, c’est beaucoup plus simple”, précise le chargé de la réglementation d’Airinov.

Dans le cas des vols de drones professionnels utilisés pleinement en ville, par exemple dans le secteur (porteur) du bâtiment, “la réglementation reste très contraignante et limite clairement leur usage, quand ces appareils gagnent chaque année en durée de vol, en précision et en fiabilité”, regrette Rodolphe Jobard, directeur de l’opérateur Dronea, spécialisé dans le BTP. En ville, il réalise des cartographies, des modélisations et des inspections thermiques de bâtiments. “Mais la réglementation confine les drones sur des distances bien trop courtes. On peut monter à la verticale, prendre des photos et redescendre, mais si l’on veut faire de la photogrammétrie, il faut survoler ce que l’on veut scanner, et l’interdiction de survol de personnes et la limitation de distance à 100 mètres du pilote rendent cela très difficile”, ajoute-t-il. Résultat : “certaines entreprises trichent et volent plus loin que permis, pour distancer la concurrence, il ne faut pas le cacher”.

Rodolphe Jobard ne cache pas sa déception, car pour lui, c’est dans le survol des chantiers et des bâtiments en ville que le potentiel économique des drones est le plus grand. “Mais si vous voulez scanner une ville entière, afin de repérer les bâtiments mal isolés, vous ne pourrez pas parce que cela sera légalement impossible avec des drones. Survoler de grandes étendues reste l’apanage des avions, qui peuvent voler et scanner des dizaines de km2”, note-t-il.

drone-674238_960_720
Drone, Rc, Blade 180 Qx Hd, Quadrocopter / Fill / Licence CC / Pixabay

Le hors-vue en zones non-peuplées encore trop restreint ?

Dans le cas du survol de lignes électriques, le hors-vue n’est pas permis. Ce qui n’est pas le cas pour l’inspection des gazoducs, ou des voies ferrées, la SNCF et GRTgaz pouvant utiliser des drones certifiés S4. Ce scénario de vol concerne les vols longue distance, dans des zones non peuplées, qui peuvent se dérouler sans pilotes. “Mais même là, les drones ne peuvent pas voler plus loin que 1 kilomètre, alors qu’il s’agit de centaines de kilomètres d’installations. Résultat, il faut morceler son vol en plusieurs étapes… C’est la raison pour laquelle les drones ont encore du mal à s’imposer face aux hélicoptères pilotés par des humains, qui peuvent voler sur des centaines de kilomètres en une journée. Économiquement, ce n’est pas encore très rentable…”, estime Rodolphe Jobard.

Prendre exemple sur la simplification américaine

En attendant une révision de la réglementation, et pourquoi pas une harmonisation européenne des réglementations, les USA ont adopté durant l’été 2016, des règles qui encadrent l’utilisation des drones civils commerciaux. “De quoi faire exploser le marché américain qui devrait très vite se hisser au premier rang mondial”, selon Emmanuel de Maistre, co-fondateur de l’opérateur Redbird.

Parmi les mesures phares de la Federal Aviation Association (FAA) : la simplification des procédures à suivre pour faire voler un drone dans le cadre d’une activité commerciale, et la réduction des délais d’attente (qui pouvaient atteindre jusqu’à 6 mois auparavant) pour recevoir les autorisations de vol correspondantes. Selon Emmanuel de Maistre, la France, qui reste en “tête de file du secteur” des drones civils, risque de perdre du terrain si sa réglementation n’évolue pas et ne prend pas exemple sur la simplification américaine.

Pour le fondateur de Redbird, “des flous subsistent sur la définition des zones peuplées”, et le scénario S4 “n’est pas significativement modifié, alors qu’il représente une opportunité économique majeure” – en particulier pour les secteurs de la construction, des mines et des carrières.

Par Fabien Soyez

Les drones, un atout pour l’énergie et les énergies renouvelables

“Les drones ont un avenir prometteur dans le secteur de l’énergie et des énergies renouvelables”, si l’on en croit le cabinet de conseil SIA Partners. Leur potentiel s’avère en effet vaste, au point qu’ils représentent un véritable atout, permettant une inspection technique en zones à risque (plateformes offshore, méthaniers, centrales nucléaires, éoliennes), un examen des barrages, ou encore la maintenance des panneaux solaires.

Avec les drones, la mise en place des inspections et des évaluations des entreprises du secteur de l’énergie à des fins de maintenance prédictive et d’optimisation sont accélérées – en particulier dans des zones dangereuses. “Dans le nucléaire, par exemple, il est plus facile et moins cher d’utiliser des UAV, que d’envoyer des techniciens humains”, note Paul Guermonprez, ingénieur innovation chez Intel.

Entretenir les centrales solaires ou nucléaires

Dans le secteur des panneaux solaires, les drones constituent des outils révolutionnaires, qui permettent de détecter des défauts. “Les fermes solaires représentent une énorme surface. Les drones vont pouvoir prendre des photos, très bien cadrées, de tous les panneaux. Ces photos seront toujours analysées par des humains, mais cela permet de gagner beaucoup de temps”, explique Paul Guermonprez. “S’il y a de la poussière sur les panneaux, des drones permettent même de les nettoyer”, ajoute-t-il, citant les drones d’Ecoppia, fabriquant israélien.

Dans le cadre de la maintenance et de la supervision de ses générateurs solaires, EDF Énergies Nouvelles (ENR) utilise de son côté des drones thermographiques : déployés autour des centrales photovoltaïques, ils analysent les toitures, analysant de possibles anomalies, mesurant la température des panneaux, et repérant d’éventuels “points chauds”.

EDF utilise aussi des drones pour inspecter la structure extérieure des installations de ses centrales nucléaires – ce qui permet d’éviter de mettre en œuvre de trop importants moyens humains et matériels. Là encore grâce à des caméras thermiques haute résolution, le drone détecte des défauts invisibles à l’oeil nu. Les images collectées peuvent être utilisées par EDF ENR pour déclencher, si besoin, des opérations de maintenance ciblées et rapides. Bouygues Energies et Services s’est également équipée de drones, afin d’inspecter les panneaux photovoltaïques de ses centrales solaires. Là aussi, grâce à des caméras thermiques, les cellules photovoltaïques défectueuses sont détectées très rapidement, et d’une manière très précise.

Sur ce drone à 6 moteurs, la caméra est stabilisée sur une nacelle 2 axes. Tant que le vent ne dépasse pas les 50km/h, le drone reste stable. La capuchon orange est une protection en cas de
Équipés de caméras thermiques, les drones survolent les panneaux solaires / Bouygues

Inspecter les pales des éoliennes, au plus près

Enfin, EDF ENR utilise des drones pour inspecter les pales des éoliennes (en particulier ceux situés en mer) – une activité traditionnellement coûteuse et surtout très périlleuse pour les techniciens humains, qui évaluent visuellement l’état des pales en étant tractés par des cordes.

“Les inspections par prise de vues suppriment ces inconvénients et permettent l’utilisation de capteurs en dehors du spectre visuel (inspection thermique à l’infrarouge, en profondeur avec des ondes sonores…). Elles permettent aussi d’automatiser certains traitements d’images (reconnaissance automatique de défauts) et de conserver un historique pour chaque pale”, indique André Moura, CEO de la startup Pro-Drone. Mais le plus grand intérêt du drone reste de pouvoir s’approcher très près des pales, afin d’offrir une très grande résolution, de l’ordre du millimètre, tout en faisant des économies. “L’inspection humaine coûte environ 1500 $. Avec un drone, cela coûte deux fois moins cher”, selon SkySpecs, startup qui fournit des inspections par drones pour les gestionnaires d’infrastructure.

Stirling-Alberta-Canada-by-Aero-Retina-Optics-1024x683
Eoliennes à Stirling, Alberta, Canada (photo prise par un drone) / Aero Retina Optics / Licence CC / Dronestagram

Détecter des hydrocarbures, inspecter les barrages

Pour protéger l’environnement, mais aussi les techniciens humains, Total utilise des drones pour détecter la présence de fuites de gaz ou d’hydrocarbures sur ses plateformes pétrolières. Le drone “Helper” est ainsi capable de repérer une fuite d’huile, et de l’analyser. Il peut aussi déposer une “balise” géolocalisée, qui permettra ensuite de suivre les déplacements de la nappe de pétrole, en temps réel, afin d’optimiser les opérations de dépollution.

Helper est aussi un “sauveteur” en mer, et est capable de localiser une personne tombée à l’eau, ainsi que de lui envoyer une bouée géolocalisée et autogonflable.

A noter que Veolia a également recours aux drones pour l’observation et la maintenance des barrages – difficilement accessibles pour des humains. La SARP, filiale de Veolia spécialisée dans l’assainissement, utilise ainsi des “octocoptères” de Drone Volt, les “Drone Spray”, pour inspecter et nettoyer des ouvrages pouvant atteindre jusqu’à 40 mètres de haut.

Par Fabien Soyez

Des drones pour surveiller les réseaux

Le gros de l’utilisation actuelle des drones dans l’industrie a lieu dans le cadre d’activités risquées et coûteuses, comme l’inspection de lignes à hautes tension et de réseaux électriques. Automatisés, les UAV permettent aux grands opérateurs français de réseaux d’inspecter des milliers de kilomètres d’installations sans arrêter leur exploitation, tout en réduisant les risques d’accidents, ainsi que le coût de leurs opérations de surveillance.

En embarquant une caméra et des capteurs, les drones permettent de capturer de nombreuses données, et de prendre des clichés haute résolution, afin de réaliser des cartographies ou des modélisations 3D – en toute sécurité. “Travailler sur un pylône haute-tension, c’est dangereux. Utiliser des drones, cela signifie une sécurité améliorée, en plus de pouvoir voler en permanence et d’analyser rapidement des milliers de kilomètres de câbles électriques”, indique Paul Guermonprez, ingénieur innovation chez Intel. Jusqu’ici, pour inspecter les lignes électriques d’une installation industrielle ou des réseaux de lignes à haute tension, “il fallait avoir recours à des hélicoptères, qui coûtaient chers, avec le risque d’un accident”, ajoute-t-il.

Inspecter… ou poser des câbles haute tension

Chez ERDF comme chez Bouygues Energies et Services, des drones permettent ainsi d’inspecter les pylônes ou lignes à haute tension à des fins de maintenance – plutôt que des avions ou des hélicoptères, qui coûtent cher. Idem chez EDF Énergies Nouvelles (ENR), qui utilise des aéronefs non habités pour surveiller des postes de transformation et contrôler les isolateurs défectueux.

Des drones peuvent même être utilisés, non plus pour simplement analyser, mais aussi pour poser des câbles haute-tension. “Au lieu d’utiliser un hélicoptère, qui coûte là encore très cher et qui pollue, on a recours à un drone, simple à utiliser, moins coûteux et avec un impact écologique moindre”, indique Paul Guermonprez. Ainsi, Bouygues Energies et Services, tout comme Engie IneoRHT, utilisent des drones pour dérouler des câbles en haut des pylônes haute tension.

Concernant l’analyse des milliers de kilomètres de câbles électriques, Rodolphe Jobard, directeur de l’opérateur Dronea, constate : “il y a un potentiel colossal, mais pour l’instant, la réglementation ne permet pas d’utiliser des drones de façon vraiment régulière, car ils ne peuvent voler en hors-vue pour des raisons de sécurité”. En outre, pour lui, les constructeurs d’hélicoptère, concurrencés, risque de contre-attaquer. “Mais peut-être se mettront ils eux-mêmes aux drones pour l’industrie, pourquoi pas ?”, questionne-t-il.

517480870
Pylônes éléctriques photographiés par drone / Simonskafar / Licence CC / Pixabay

 

Des drones pour l’observation des voies ferrées et du trafic autoroutier

Depuis 2015, la SNCF a aussi recours aux drones (achetés ou construits sur mesure, et supervisés par un “pôle” dédié), pour inspecter les installations de son réseau ferré (rails, maintenance végétation, parois rocheuses menaçant de s’ébouler le long des voies, toitures de train ou de gares), effectuer des relevés topographiques pour le renouvellement des voies, et détecter des actes de malveillance (notamment le vol de câbles) – en soutien des équipes au sol. La compagnie ferroviaire envisage en outre d’utiliser des UAV pour les inventaires de ses entrepôts.

A noter que pour surveiller son réseau de voies ferrées et réaliser des cartographies, la SNCF bénéficie, contrairement à ERDF, d’une dérogation unique de la DGAC (direction générale de l’aviation civile), qui lui permet de faire voler certains drones (conçus par Delair-Tech) hors de portée de vue du pilote, jusqu’à 100 kilomètres. Il est ainsi possible de faire réaliser aux drones de longues missions, et ainsi de réaliser des inspections moins coûteuses, plus rapides et plus efficaces.

Les drones sont aussi utilisés pour surveiller un autre type de réseau : le trafic autoroutier. Ainsi, Vinci Autoroutes, qui gère plus de 4000 kilomètres d’autoroutes en France, a-t-il recours (pour le moment, ponctuellement) aux drones pour informer les usagers des conditions de circulation – via des prises de vues à visualiser “en direct et en continu”. Nom du service : “Drones Info Trafic”.

Observer les réseaux de gazoducs

Reste les réseaux de transport de gaz. Depuis 2014, GRTgaz, filiale d’Engie (ex-GDF Suez), expérimente l’utilisation de drones fabriqués par Delair-Tech, pour surveiller ses 30.000 kilomètres de gazoducs et de pipelines. Là encore, comme pour la SNCF, il s’agit de drones bénéficiant d’une dérogation, qui leur permet de survoler les réseaux en hors-vue.

Par Fabien Soyez

“Avec les drones, l’industrie entre dans une nouvelle ère”

Paul Guermonprez, ingénieur innovation chez Intel, travaille avec les universités et les entreprises, autour de l’usage scientifique et industriel des drones. Il est l’auteur du livre “Les drones débarquent”.

curved viaduct1
L’albris, un “multirotor intelligent pour une inspection rapprochée” / Airinov

Pour les deux spécialistes, le potentiel des drones pour l’industrie est colossal. Encore faut-il l’exploiter.

Techniques de l’ingénieur : Que viennent changer les drones dans l’industrie ?

Paul Guermonprez : « Avec les robots, et les drones en particulier, l’industrie entre dans une nouvelle ère. Le marché des drones professionnels représente déjà en France, 5000 emplois, 2300 opérateurs, 4200 appareils, et plusieurs de dizaines de millions d’euros de chiffre d’affaires. Les drones sont avant tout un atout considérable dans les domaines de la maintenance des infrastructures et de l’expertise industrielle. Ils permettent d’accéder plus facilement à des zones difficiles ou dangereuses (barrages, câbles électriques, cavités, éoliennes, infrastructures situées en montagne ou en mer…) afin de détecter des défauts potentiels. En cela, les drones représentent un gain de temps, d’argent et d’efficacité.

Il s’agit d’un changement de mentalité, d’une manière de travailler différente : on passe d’une inspection ponctuelle réalisée par un humain à une analyse permanente, qui permet de détecter des choses plus tôt, et mieux.

Les drones constituent aussi un outil précieux pour l’agriculture, où ils permettent d’analyser et de traiter, d’une façon très précise, des parcelles de champs. Les agriculteurs, qui ont déjà modernisé leur équipement, ajoutent des drones pour optimiser leur travail, utiliser moins d’engrais, au bon moment et au bon endroit. Ainsi, ils obtiennent de meilleurs rendements, tout en polluant moins.

De leur côté, les mines et carrières utilisent déjà beaucoup de drones : des scanners lasers analysent par exemple en temps réel l’état d’une mine, afin d’étudier l’origine d’un éboulement, ou pour connaître la quantité de minerais extraits à un endroit précis.

Enfin, le potentiel est grand dans le BTP, pour suivre l’avancement d’un chantier par exemple. »

 

Rodolphe Jobard : « Le bâtiment, l’énergie et l’agriculture sont les trois secteurs qui ont le plus de potentiel. Et c’est surtout en ville que ce potentiel est grand, en ce qui concerne les bâtiments, la construction, la voirie, l’inspection d’ouvrages et l’analyse du déroulement des chantiers.

Pour autant, il ne s’agit pas pour le moment d’une révolution : les drones viennent juste compléter des méthodes d’analyse déjà existantes (par exemple, les prises de mesures au sol réalisées par les géomètres et les topographes), sans les remplacer. Il y a du potentiel, mais il n’a pas encore été consommé entièrement : pour l’instant, les drones, encore au stade de l’expérimentation, sont loin d’être plus compétitifs que les méthodes traditionnelles, en particulier dans le cas d’une utilisation en ville. »

csm_mining-drone-barick_df63fc9ec4
Des drones pour inspecter les mines et les carrières / Sensefly (Parrot)

Techniques de l’ingénieur : Quels sont les obstacles à une utilisation généralisée des drones en ville ?

RJ : « Les freins sont d’abord techniques et commerciaux. D’un point de vue technique, le problème, c’est l’interprétation des données. Celles fournies par les drones sont trop nombreuses, en particulier pour la construction de bâtiments. Il faudrait pouvoir les trier, afin de rendre les fichiers plus légers, et plus facilement exploitables par le client. Les géomètres conçoivent des fichiers très légers, car ils font leurs propres interprétations de ce qu’ils voient sur le terrain, mais un drone prend tout ce qui passe et numérise tout en surface ! Il reste donc des logiciels à créer, ainsi que des équipes d’ingénieurs spécialisés et de data scientists à former, afin de simplifier l’usage des données collectées, et in fine, d’automatiser le process.

Il faut aussi noter que les drones restent chers, car encore peu utilisés, et que se pose la question, pour les entreprises, de faire appel à des opérateurs (qui assurent le pilotage des drones, la collecte des données et la restitution avec des logiciels) – dans ce cas, ce sont des donneurs d’ordres et ils se tournent alors vers des opérateurs qui sont surtout des TPE exerçant leur activité en parallèle d’autres et qui sont encore dans le flou -, ou d’opter pour un service en interne. Des sociétés, comme la SNCF, commencent à utiliser leurs propres drones, sur leurs propres installations, mais elles sont encore rares. »

Techniques de l’ingénieur : Les freins sont aussi réglementaires…

RJ : « L’agriculture n’a pas ce problème, car les drones peuvent voler plus loin qu’en ville (200 mètres en zones rurales, contre 100 en zones urbaines), par rapport au télépilote. En utilisant des drones qui leur permettent d’augmenter la précision de leurs actions, les agriculteurs espèrent faire 7% de gains en engrais et en rendement. Mais cela n’est théoriquement possible que parce qu’il s’agit de zones peu peuplées. Les autorisations de vol sont donc plus faciles à obtenir.

En ville, par contre, la réglementation est très contraignante, car il est interdit de survoler des individus. Quand on la respecte stricto sensus, on se retrouve à n’utiliser de drones que sur de petits sites, quelques bâtiments, en bloquant la rue, sans pouvoir survoler de véhicules, d’animaux ou de personnes…

De son côté, l’administration met peu de moyens en face. La DGAC n’a pas assez de personnel pour répondre rapidement aux demandes de dérogation. Si vous voulez par exemple voler la nuit, vous pouvez attente parfois plusieurs semaines avant d’obtenir l’autorisation.

Depuis 5 ans, nous poussons, au sein de la Fédération Professionnelle du Drone Civil (FPDC), pour obtenir la reconnaissance, dans un arrêté, du métier de télépilote – avec une vraie formation, un vrai examen et un vrai diplôme. »

StrawBales_1-1-1200x720
Agricultural landscape / SkySpirit / Dronestagram

Techniques de l’ingénieur : A quelles évolutions technologiques s’attendre ?

PG : « L’enjeu principal sera demain de concevoir des drones véritablement autonomes. Les industriels rêvent en effet d’un système automatisé, avec des drones autonomes, qui n’auraient pas besoin de pilotes humains. Le recours à des drones pilotés de manière manuelle est un progrès par rapport à une inspection “classique”, mais cela mobilise quand même un pilote humain, et la précision ne sera jamais aussi grande qu’avec un drone autonome.

L’offre commence à s’étoffer et des centaines de startups, à travers le monde, essaient depuis deux ans de concevoir des drones autonomes. A terme, l’on pourrait imaginer que les pilotes de drones finiront par disparaître. Ce genre de système automatique fonctionne déjà bien pour surveiller des lignes électriques, pour analyser les avions d’Airbus sur le tarmac des aéroports, ou encore pour effectuer des traitements de précision dans les champs. Mais si à la vue des tests, cela semble techniquement réalisable, les startups qui vendent les drones ne sont pas encore assez matures ou organisées pour offrir tout un service clé en main. »

RJ : « Avant que la révolution des drones se diffuse, il faudra attendre un certain temps. Mais les investissements tendront à les rendre plus intelligents, et à développer leur usage dans l’industrie. Des logiciels sont en ce moment même conçus pour mieux trier les informations récoltées. Des fabricants comme Parrot et DJI conçoivent des antennes qui devraient permettre une liaison de données plus vaste, et donc un contrôle à distance des drones plus important. Tout un travail est aussi en cours autour de l’identification des multirotors (grâce à des puces, afin de dissocier les drones des industriels des drones de particuliers) et d’un système de geofencing (limitation dans l’espace), afin de s’assurer qu’un appareil ne puisse pas accéder à des endroits interdits ou définis par le client. Tous ces travaux, qui devraient aboutir d’ici 2020, pourront peut-être débloquer la réglementation, et permettre d’augmenter les distances de vol ainsi que la taille du marché des drones pour l’industrie. »

Propos recueillis par Fabien Soyez

Revue de presse anglophone #5 : Elon Musk, Donald Trump, Mark Zuckerberg, voiture connectée…

Zuckerberg président ?

zuckerberg-250Une rumeur persistante aux Etats-Unis veut que le fondateur de Facebook se soit donné comme objectif de devenir président des Etats-Unis. Mark Zuckerberg y a répondu lui-même.

Source : Techcrunch

Une application vous prévient si Donald Trump tweete à propos d’une société dans laquelle vous avez investi

tweet-trump-250Suite à ses multiples frasques sur le réseau social star Twitter, une application a vu le jour pour venir en aide aux investisseurs qui ont peur que certaines sorties du nouveau Président ne leur fassent perdre de l’argent…

Source : Washington Post

 

Pourquoi les orques sont-elles ménopausées ?

orque-250une étude suggère que les orques passent par la ménopause en raison du conflit mère-fille apparaissant lors de la reproduction…

Source : New York Times

Retour sur l’accident d’une Tesla en Floride

tesla-accident-250Il y a quelques mois le premier accident grave impliquant une voiture Tesla faisait la Une de l’actualité. Retour sur cet événement et l’analyse des données liées à cet incident.

Source : Popular Science

 

Réalité virtuelle

rv-200La tendance « réalité virtuelle » pousse les fabricants à innover pour proposer toujours plus d’application… en oubliant parfois quelles sont les spécificités de la réalité virtuelle, pour proposer du tout virtuel… grave erreur !

Source : https://techcrunch.com/2017/01/24/its-called-virtual-reality-for-a-reason/

Elon Musk parle de l’hydrogène

Une vidéo datant de 2013, mais dont le contenu est très actuel.

 

Le potentiel commercial de la voiture connectée

voiture-connectee-250Focus sur les signaux qui font de la voiture connectée dans son ensemble un marché gigantesque pour les années qui viennent.

Source : Techcrunch

 

Trump ou le retour en arrière

trump250Ce n’est pas la première analyse mettant en avant le climato-scepticisme de Donald Trump, mais depuis son élection le nouveau Président américain met ses promesses à exécution…

Source : Science Blogs

La science peut-elle prouver l’existence de Dieu ?

dieu-des-savants-250LA question qu’on se pose tout… et à laquelle la science apporte aujourd’hui de nouvelles réponses…

Source : Science Blogs

Un collège de Los Angeles paie en bitcoins une rançon suite à une cyber-attaque

bitcoin-stock-250Pour la première fois un collège vient de payer une rançon en bitcoins… une première mondiale !

Source : Washington Post

Revue du web #99 : les innovations technologiques les plus étonnantes du mois

Une montre connectée qui se recharge grâce à la chaleur corporelle

Aller racheter des piles pour votre montre ? N’y pensez plus ! Bientôt, les montres pourront se recharger grâce à la chaleur dégagée par votre corps. En tout cas, les inventeurs de la montre Matrix PowerWatch y croient dur comme fer.

Pour financer leur projet, ils avaient besoin de 100 000 $. Leur compteur affiche déjà 700 000 $ sur le site de financement participatif Indiegogo.

Sa commercialisation est prévue entre septembre et novembre 2017. A suivre.

 

Un détecteur de radioactivité dans votre smartphone

Un jeune physicien lyonnais a eu l’idée de créer un petit boîtier connecté qui permet de réaliser une cartographie des émissions radioactives autour de soi.

Rium est capable de déterminer la nature (Uranium 235, Césium 137, etc. ) et la source du rayonnement (environnement naturel ou dispositif médical par exemple).

Déjà disponible en pré-commande sur le site de financement participatif Indiegogo, il devrait être commercialisé dès 2017 au prix de 400€.

 

Un robot qui ne parle qu’en GIFs

Peeqo n’est pas qu’un petit robot peu loquace.
Mais celui qui en parle le mieux, c’est son constructeur, Abhishek Singh :

«Il a une caméra qui peut être activée par la voix, a un haut-parleur sur la tête et des micros dans ses oreilles. […] Peeqo est activé pour écouter quand il entend son nom, comme Alexa. Mais Peeqo peut aussi se redresser et cligner des yeux sur son écran. Il possède un exosquelette mou et bouge légèrement pour montrer qu’il écoute. »

Mais, surtout, Peeqo sera bientôt open source, ce qui vous permettra de fabriquer le vôtre !

 

Une voiture volante testée par Airbus

Airbus souhaite tester un premier prototype de voiture autonome volante avant la fin de l’année.

Lors de la conférence DLD (Digital Life Design) organisée en Allemagne, Tom Enders, le PDG d’Airbus, a déclaré « Il y a une centaine d’années, les transports urbains sont passés sous terre. À présent, nous avons les moyens technologiques pour nous élever dans les airs ».

Le but : proposer un service de taxis (comme dans le film Le Cinquième élément).

 

Après la voiture, le sous-marin volant !

Une université américaine développe actuellement un prototype de sous-marin capable également de voler, une double compétence qui intéresserait particulièrement le département américain de la Défense…

 

Avion du futur : les cockpits connectés

L’interface homme-machine doit évoluer selon Thalès.  Le programme Avionics 2020 engagé en 2013 fait la part belle à l’écran tactile. Mais surtout : Internet débarque dans le cockpit !

Le but : une meilleure circulation de l’information.

 

Energy Observer, le premier bateau électrique à hydrogène

Solar Impulse a volé, Energy Observer va voguer !

Comme son aîné, il fera le tour du monde propulsé par des moteurs électriques. L’énergie sera produite par des panneaux solaires et des hydrogénérateurs qui alimenteront les batteries ainsi qu’une unité de production d’hydrogène.

Le catamaran du futur s’apprête à partir ! Son voyage devrait durer six ans.

Par Iris T.

La France manque d’experts en sécurité informatique

Le chômage est encore élevé en France, mais il y a des secteurs qui ne demandent qu’à embaucher ! C’est le cas de la sécurité informatique. Selon l’ANSSI (Agence nationale de la sécurité des systèmes d’information), le secteur représente 40 000 emplois en France, tous métiers confondus. Mais ce n’est pas suffisant. La multiplication des attaques et des réglementations toujours plus contraignantes et complexes obligent les entreprises à recruter à tour de bras des professionnels. Les offres sont émises par les grands comptes comme EADS, Thales, Orange, Sogeti, Alcatel-Lucent, Cassidian, Capgemini, etc. Dans le public, l’ANSSI est le principal recruteur.

« Mais la tendance au recrutement de responsables de la sécurité des systèmes d’information est très forte dans les entreprises de taille moyenne », précise Alain Bouillé, le président du Cesin (Club des experts de la sécurité de l’information et du numérique).

Résultat, les étudiants qui sortent de ces écoles n’ont aucune difficulté à trouver une entreprise pour les accueillir. Tous les profils sont recherchés, mais ils sont généralement très techniques. Si un bac+3 peut suffire, les entreprises misent principalement sur des jeunes diplômés de niveau bac+ 5. « Les diplômes d’ingénieurs sont particulièrement appréciés, surtout lorsqu’ils sont colorés d’une spécialité “sécurité et systèmes d’information” », précise Martine Tertulliani, responsable des ressources humaines chez Thalès.  Il existe près de 50 formations aux différents métiers de la cybersécurité en France. Elles vont du niveau bac+2 aux Mastères spécialisés comme c’est le cas à l’ESIEA à Laval.

Avec un tel bagage en poche, les étudiants pourront à terme occuper différents postes selon leurs affinités et compétences : testeurs d’intrusion, auditeurs, techniciens, développeurs, mais également Responsables de la sécurité et des systèmes d’informations (RSSI), analystes, enquêteurs « post mortem » qui analysent les attaques après coup. Sans oublier des architectes, des juristes et des formateurs.

« Mais la pénurie continuera pendant au moins 5 ans », estime David Majorel, directeur Audit & Conseil, IS&T, Digital et Cybersécurité au sein du cabinet de recrutement Michael Page. Cette pénurie explique les salaires assez élevés : un technicien support de niveau 1 dans un Security Operations Center (SOC) peut toucher autour de 40 000 euros, un analyste de niveau 3 peut prétendre à 65 000 euros, tandis que le responsable du SOC n’aura pas de mal à trouver un poste autour de 80 000 euros.

Philippe Richard

Des déchets alimentaires pour produire du graphite et de l’hydrogène

Le projet de recherche européen PlasCarb a tenu ses promesses en validant le process permettant de transformer des déchets alimentaires en graphite et en hydrogène. Le process est constitué de plusieurs étapes. “La première, bien maîtrisée est celle qui permet de transformer des déchets alimentaires en biogaz (méthane et dioxyde de carbone) dans un digesteur anaérobie. Ensuite, après une étape de purification, ce biogaz est passé dans un réacteur à plasma micro-ondes à basse température, le GasPlas, pour produire le graphite (que les chercheurs ont baptisé PlasCarbon renouvelable) et l’hydrogène”, explique Neville Slack, le coordinateur du projet au UK’s Center for Process Innovation (CPI).

Des perspectives intéressantes

Le pilote, fabriqué pendant le projet, a fonctionné pendant cinq semaines à l’été 2016. Il a permis de valider la technologie et de montrer que le graphite ainsi produit est de bonne qualité.

Le projet qui s’est officiellement achevé en novembre 2016 se poursuit néanmoins par des partenariats permettant de démontrer les applications possibles du PlasCarb (notamment via son utilisation sous forme de nanoparticules) et par la caractérisation plus précise de ses propriétés et de sa structure 3D. A ce jour, le PlasCarb a été testé avec succès dans des encres conductrices à base de nanoparticules égalant celles fabriquées avec des nanocarbones d’origine fossile et prouvant qu’il pouvait être une alternative à cet approvisionnement. Il a aussi été intégré dans des composites pour la reconstruction osseuse dont il améliore un certain nombre de propriétés et a fait l’objet d’une étude de marché pour remplacer du carbone traditionnel dans les batteries.

Sophie Hoguin

Treize grands groupes industriels s’unissent autour de l’hydrogène

La première réunion de ce “Conseil de l’hydrogène” (Hydrogen Council) a donc accueilli les réprésentants d’Air Liquide, Alstom, AngloAmerican, BMW, Daimler, Engie, Honda, Hyundai, Kawasaki, Shell, Linde Group, Total, et Toyota. Des multinationales couvrant donc toute la filière d’exploitation potentielle de l’hydrogène : mines, gaz industriels, automobile, énergie.
Objectifs: favoriser la recherche sur l’hydrogène pour en faire une réelle filière viable pour la transition énergétique. Et pour cela les entreprises participantes ont annoncé qu’elles investiraient 1,4 Md d’euros cumulés par an dans la recherche et la commercialisation de l’hydrogène. Elles souhaitent établir un cadre réglementaire favorable et créer des standards internationaux. Mais elles attendent aussi que les pouvoirs publics les soutiennent dans cette initiative et c’est là aussi l’objectif de ce conseil: établir un lobby fort et visible pour la filière hydrogène.

Les débouchés de l’hydrogène ne sont pas seulement ceux d’une alternative aux carburants actuels pour les voiture mais aussi une moyen possible de stocker les énergies renouvelables produites mais non utilisées. Reste à relever les défis de l’utilisation de masse et de la baisse des coûts encore nécessaire à la viabilité d’une telle filière.

Sophie Hoguin

Une nouvelle thérapie pour réparer et consolider les os

Osteogrow est un projet européen collaboratif coordonné par une équipe de cliniciens croates à Zagreb dont l’objectif était de mettre en place des essais cliniques pour une nouvelle thérapie régénératrice à faible coût. Il s’agit notamment d’utiliser à peu près 10 cl de sang du patient pour créer des caillots. Ces caillots sont ensuite injectés comme dispositifs autologues pour apporter une protéine morphogénétique osseuse (BMP6) au point où l’os neuf doit être fabriqué lorsque le patient est au bloc opératoire. En utilisant le sang du patient lui-même on diminue les réactions inflammatoires courantes qui apparaissent avec les autres dispositifs actuels.

Des essais cliniques de phase 2

Après des tests sur des lapins et des moutons qui ont donné d’excellents résultats, le traitement Osteogrow a été suivi avec succès par dix patients à l’Hôpital des Sœurs de la Charité à Zagreb pour des formes sévères de fracture du radius et des fractures du tibia non consolidées à répétition. Aucune complication, ni effet secondaire n’ont été enregistré. À Vienne, des chirurgiens utilisent la nouvelle thérapie pour traiter des patients atteints de pathologies dégénératives de la colonne vertébrale. Les essais cliniques se poursuivent et au total, 75 patients auront suivi ce nouveau traitement.

Devant les résultats très prometteurs, l’équipe de recherche cherche à présent des débouchés commerciaux pour son traitement qui pourrait arriver sur le marché dans les deux ou trois ans.

Un marché prometteur puisque les chercheurs estiment que le nombre de fractures osseuses éligibles à cette technique devrait passer de près de 2 millions de cas par à an à 5 millions dans les 20 ans.

Sophie Hoguin

L’ESA résolue à élargir ses partenariats en 2017

Globalement reconduite dans ses budgets à l’occasion de la réunion ministérielle de ses membres à Lucerne début décembre 2016, l’agence spatiale européenne (Esa) a toujours de nombreux programmes en cours dont certains devraient faire l’actualité tout au long de l’année 2017. Que ce soit dans le domaine de l’observation de la Terre, des télécommunications ou de l’exploration spatiale. Mais, d’un point de vue stratégique, l’Esa vise surtout à s’intégrer dans le nouvel environnement du secteur spatial qui s’annonce: un nouveau terrain de jeu où les acteurs se multiplient et se diversifient (entreprises privées, nouvelles puissances économiques, participation des citoyens etc.) au sein d’un espace digitalisé et global. Un nouvel âge que l’Esa qualifie de Space 4.0 en résonance avec le concept en vogue d’industrie 4.0.

space

Les PPP ont une place au soleil

Au centre de ce nouvel axe de développement stratégique,un encouragement fort aux partenariats publics-privés (PPP) a expliqué Jan Woermer, le directeur général de l’Esa. Mais aussi une ouverture à des coopérations plus larges et plus diverses: pays hors UE, universités, acteurs privés ou institutionnels du secteur spatial ou non auprès desquels l’Esa pourrait jouer des rôles différents selon les projets (coordination, organisation, financement ou simple facilitateur ou soutien technique etc.).

Pour assurer son entrée dans l’ère Space 4.0, l’Esa travaille aussi sur la gestion de ses données : stockage, conservation, mode de partage, ergonomie d’accès… Objectif: offrir un espace de Big Data contenant des informations commercialisables.

De Galileo à SmallGEO

Depuis mi-décembre 2016, le système de navigation européen Galileo est officiellement opérationnel. Malgré des dysfonctionnements apparus sur une dizaine d’horloge équipant certains satellites, la bonne marche du système est garantie a assuré le directeur général. Selon ce que révèlera l’enquête en cours, des changements pourraient intervenir dans la suite du programme.

En matière de télécommunication, le premier événement marquant interviendra dès le 28 janvier prochain avec le lancement d’Hispasat 36W-1. Ce satellite commercial de télécommunication espagnol sera le premier à utiliser la plateforme européenne polyvalente géostationnaire SmallGEO. Issu d’un partenariat public-privé entre l’Esa, Hispasat, OHB System, et le DLR (centre aérospatial allemand), cette mise en service doit prouver que l’Europe peut jouer un rôle significatif sur ce marché compétitif.

Par ailleurs, même si le programme GlobeNet (extension du programme de relais de données utilisant le laser – EDRS) n’a pas réussi à boucler la totalité de son budget, le deuxième noeud EDRS devrait être lancé par Ariane 5 au dernier trimestre 2017 (voir cet article http://www.techniques-ingenieur.fr/actualite/articles/le-laser-sinstalle-dans-les-communications-par-satellite-31618/).

La Terre, scrutée sous tous les vents

2017 verra plusieurs lancement de satellites Sentinelle (2B, 5P, 3B) qui viendront compléter la constellation du programme Copernicus d’observation de la Terre. Premier lancement prévu le 7 mars. En fin d’année, le lancement attendu est celui d’ADM Aeolus. Ce satellite sera le premier au monde à fournir quotidiennement des profils de vent à l’échelle du globe. Des données utiles pour le climat et pour le suivi de la pollution.

Exploration: de la Lune à Mercure

L’Esa devrait logiquement poursuivre sa coopération avec la Nasa sur la station spatiale internationale d’où reviendra le français Thomas Pesquet et où sera envoyé l’italien Paolo Nesposi. Côté exploration, une conférence internationale présentera BepiColombo, la mission conjointe avec les japonais à destination de Mercure (lancement programmé pour fin 2018) et un centre de simulation de l’environnement lunaire devrait être inauguré à Cologne au deuxième semestre. Il s’inscrit dans le concept de “village lunaire” développé par l’Esa. Jan Woermer a ainsi expliqué que ce concept recouvre aujourd’hui le regroupement de plusieurs intérêts (activités minières, astronomie, transport de charges…) mais ne s’inscrit dans aucun programme. Il s’agit plutôt d’une initiative ouverte à toutes les parties prenantes intéressées et pour laquelle l’Esa se place en coordonnateur et facilitateur.

Sophie Hoguin

En Chine, les énergies renouvelables produisent moins que prévu

La Chine a marqué les esprits en 2015 en installant, sur cette seule année, 30 GW éoliens devenant ainsi le premier parc mondial avec 145 GW, sur les 432 GW au total dans le monde. Une performance d’autant plus grande que les objectifs du pays n’étaient « que » de 100 GW en 2015. Le parc photovoltaïque est plus modeste (54 GW), mais reste le plus puissant au monde devant l’Allemagne (près de 40 GW).

20% de pertes

Malgré ces capacités installées importantes, la Chine ne tire pas le meilleur parti de ses énergies renouvelables. Selon une étude de la National Energy Administration (NEA), près de 21% de la capacité de production éolienne du pays n’a pu être utilisée sur les six  premiers mois de l’année 2016. Le photovoltaïque ne fait pas bien mieux : 19,7% de pertes en moyenne sur la même période dans les provinces de Gansu et du Xinjiang. L’institution publique explique cette sous-utilisation par un déficit manifeste d’échanges physiques entre les différents gestionnaires de réseaux de ce vaste pays. Une situation certes liée à l’insuffisance des lignes haute tension, mais pas seulement.

« De plus en plus, vous voyez des gouvernements locaux essayer de protéger leurs intérêts, ce qui signifie qu’ils ont tendance à acheter de l’énergie renouvelable produite sur leur territoire au lieu de l’importer », explique Patrick Dai, analyste chez Macquarie, à RechargeNews. Une logique clientéliste qui va jusqu’à faire démarrer des centrales thermique au charbon plutôt que de faire venir d’autres provinces de l’électricité propre cherchant un débouché. Une situation qui a poussé les autorités centrales à réagir.

Verticalité

Le gouvernement chinois est résolu à développer les échanges d’électricité verte entre provinces, quitte à redonner de la verticalité dans la politique énergétique. Une première directive impose aux GRT de contracter des volumes définis d’énergies renouvelables dans leur mix électrique. Une mesure qui devrait précéder une série d’autres. Ainsi, les gouvernements locaux devront faire le point annuellement sur leurs efforts à intégrer davantage d’Enr. Ils seront notés par Pékin et pourront faire l’objet de sanctions financières en cas d’échec. Concernant le volet technique des interconnexions, un mécanisme d’échange de certificats verts est actuellement à l’étude pour offrir un cadre réglementaire unique aux gestionnaires de réseau.

Le cas chinois montre qu’en matière de transition énergétique, les capacités installées ne sont qu’une brique, nécessaire mais pas suffisante, de l’édifice. La gestion des réseaux prend une place cruciale dans l’équation énergétique. Une problématique qui s’accentue à mesure que les Enr représentent une part toujours plus importante du mix électrique.

Romain Chicheportiche

La pêche en eau profonde mieux encadrée

Voté en juin 2016, le réglement européen n°2016/2336 encadrant le chalutage en eau profonde est entré en vigueur le 12 janvier 2017. Il répond au cadre légal mis en place par les Nations Unies pour la pêche profonde en eaux internationales.

Ce réglement n’interdit pas l’intégralité de la pêche dans les eaux profondes. Il interdit néanmoins le chalutage de fond, au-delà de 800 mètres de profondeur. Cette interdiction était attendue depuis des années par les ONG du secteur, pour empêcher une destruction des fonds marins, qui s’opère jusqu’à 2.000 mètres. Par ailleurs, les zones abritant ou susceptibles d’abriter des écosystèmes marins vulnérables devront être fermées à la pêche de fond à moins que la pêche puisse être gérée sans générer d’impacts négatifs importants.

Des fonds marins mieux protégés

Les navires, à l’exception des chaluts de fonds, pourront continuer à pêcher en eaux profondes, dans les zones historiquement pêchées. Des études d’impact environnemental seront nécessaires pour pouvoir pêcher en dehors de la zone de pêche historique, mais uniquement pour les navires classés comme « ciblant » les espèces profondes. Les autres pourront pêcher sans faire d’étude d’impact préalable.

Tout navire pratiquant la pêche à des profondeurs supérieures à 400 mètres et rencontrant des écosystèmes marins vulnérables devra s’éloigner des zones concernées d’au moins 5 miles nautiques. Son devoir sera de les signaler aux autorités en vue de leur fermeture.

Ces dispositifs de protection s’accompagnent de mesures renforcées sur le contrôle des activités de pêche, la collecte de données et l’observation scientifique à bord des navires.Des observateurs scientifiques seront notamment obligatoires sur 20% des navires ciblant les espèces profondes.

Un succès en demi-teinte

Les espèces profondes vivent longtemps, grandissent lentement et atteignent tardivement la maturité sexuelle. Leur biologie les rend donc plus vulnérables à la pêche que les espèces de surface. Le réglement ne prend finalement aucune mesure concernant la gestion des stocks de poissons. Pas plus que sur les « prises accessoires » d’espèces profondes, comme les requins.@

Notons que le texte se limite aux seules eaux européennes et aux eaux internationales de l’Atlantique Centre-Est. Selon l’association Bloom, cette disposition a été mise en place sous la pression de l’Espagne pour que ses navires, pêchant principalement en eaux internationales, ne soient pas impactés par le règlement.

Les chalutiers sont des bateaux allant de 6  à plus de 50 mètres et qui pêchent grâce à un filet conique (chalut) qu’ils traînent dans l’eau. Le chalut de fond ne pénètre pas le sédiment, mais il détériore les habitats et les organismes posés sur le fond.

Par Matthieu Combe, journaliste scientifique

La Marine américaine teste un projet off-grid

Micro-réseau

Le projet consiste à mettre en place un mode d’alimentation en électricité et en chaleur fiable pour les 121 bâtiments de l’île de Parris, en Caroline du sud, où réside le Marine Corps Recruit Depot (MCRD). Il reposera sur un parc photovoltaïque de 6,7 MW, couplé à un système de stockage par batteries d’une capacité de 8 MWh. La centrale à gaz existante sera modernisée pour la transformer en une unité de cogénération (électricité/chaleur) de 3,5 MW. Enfin, des générateurs diesel de secours seront installés en cas d’urgence. Le contrat, valorisé à 91,1 millions de dollars, prévoit l’intégration d’un système de contrôle du réseau pour optimiser la production renouvelable.

L’énergie la moins chère et la plus propre étant celle que l’on ne consomme pas, de nombreuses initiatives d’efficacité énergétique seront entreprises : remplacement de 29 000 éclairages par LED, domotique, modernisation du système de climatisation, etc. « Ce projet fournira au MCRD une source fiable de chaleur et d’énergie combinée à des contrôles avancés et à une technologie de stockage d’énergie pour permettre au site de fonctionner de manière autonome en cas de perte de connexion avec le réseau assurant le fonctionnement des systèmes critiques. Par-dessus tout, le projet vise à revitaliser l’infrastructure énergétique existante de Parris Island », s’est félicitée la compagnie. Les travaux doivent débuter ce printemps pour s’achever à l’été 2019.

Enjeu stratégique

L’armée américaine s’intéresse de près à la technologie dite « off-grid », soit hors-réseau. L’alimentation énergétique est historiquement un enjeu majeur de toutes les  forces armées, surtout lorsqu’elles se projettent hors de leurs frontières. L’organisation et les ressources qu’elle nécessite sont non négligeables incitant à la recherche de solutions alternatives. Cette expérience n’est pas une première pour l’armée américaine qui multiplie les recherches et prototypes. Dès 2014, l’US Navy a fait un test de micro-réseau à Port Hueneme, en Californie. En 2016, elle a lancé pour la première fois 4 navires propulsés par des biocarburants, Techniques de l’Ingénieur s’en était fait l’écho. L’US Air Force n’est pas en reste et étudie quant à elle les technologies de micro-grid mobiles et déployables rapidement en environnement hostile. Un essai est en cours de réalisation avec des installations encore de faible capacité (8 kW), couplées à un système de stockage. La solution n’est pas encore compétitive face aux groupes électrogènes, mais la baisse des coûts est déjà amorcée dans ce secteur de niche.

Romain Chicheportiche

Les trains hollandais carburent à l’éolien !

En 2014, le producteur d’électricité néerlandais Eneco remportait l’appel d’offres lancé par la société nationale des chemins de fer des Pays-Bas (NS) et les transporteurs ferroviaires regroupés au sein de la coopérative VIVENS. D’ici 2018, 100% des trains électriques des Pays-Bas devaient être alimentés par de l’électricité d’origine éolienne, avec des points d’étapes à 70 % en 2016 et 95 % en 2017. Le 10 janvier dernier, la NS a annoncé avoir atteint l’objectif  avec un an d’avance.

Pour transporter chaque jour plus de 600.000 passagers, le contrat comprend la fourniture de 1,4 terawattheures (Twh) par an, dont 1,2 pour le leader NS et 0,2 pour les autres transporteurs ferroviaires. Cela correspond à 1% de la consommation électrique nationale ou encore à la consommation annuelle des habitants d’Amsterdam.

De nouvelles fermes éoliennes

Pour rendre cela possible, Eneco a investi dans de nouveaux parcs éoliens aux Pays-Bas, mais se fournit aussi auprès de producteurs voisins. La moitié de l’électricité nécessaire est ainsi produite par de nouveaux parcs aux Pays-Bas. L’autre moitié est importée de Belgique, de Norvège et de Suède.

Eneco trace l’électricité à la source grâce à l’achat de garanties d’origine. Il garantit ainsi aux entreprises ferroviaires que le volume d’électricité utilisé par leurs trains chaque année est bien couvert par la production annuelle des parcs éoliens partenaires. Selon Eneco, une éolienne fonctionnant pendant une heure permet de faire avancer un train sur 200 kilomètres.

Les transporteurs ferroviaires viennent également de conclure un contrat avec le fournisseur de gaz Essent. Ce nouveau contrat devrait permettre de chauffer les locaux de la NS, mais aussi une grande partie des 400 gares du pays, avec du biométhane issu de la fermentation de déchets. Cela pourrait-il donner des idées à la SNCF et aux autres sociétés de réseaux de transport en commun?

Par Matthieu Combe, journaliste scientifique

Pourquoi parlons-nous “bébé” aux chiens ?

Le visage attendrissant d’un chiot pourrait expliquer notre comportement, cependant une étude vient de montrer que nous continuons de parler “bébé” à des chiens adultes. De plus, alors que les chiots sont très réactifs au “parler bébé”, les chiens plus âgés n’y prêtent pas plus attention qu’au langage normal. Ces résultats, auxquels ont contribués des chercheurs de l’Institut des neurosciences Paris-Saclay (CNRS/Université Paris-Sud) basés à l’Université Jean Monnet de Saint-Étienne, sont publiés dans la revue Proceedings of the Royal Society B. Ils suggèrent que le “parler bébé” est utilisé pour interagir avec un être vivant ne maîtrisant pas la parole. Si nous parlons ainsi à notre chien, c’est parce que nous aimerions qu’un jour il nous réponde… en parlant ! (photo: M.Gallego-Abenza)

Lorsqu’ils parlent à leurs bébés, les adultes humains utilisent un registre de parole particulier, caractérisé par un ton plus aigu et plus variable, un tempo plus lent et une articulation plus claire des voyelles. Les raisons pour lesquelles les adultes utilisent ce « parler bébé » ne sont pas clairement établies. L’émotion provoquée par les caractéristiques du visage du bébé (face ronde, petit nez…) peut être à l’origine de ce comportement. Une autre hypothèse suggère que les adultes facilitent ainsi l’apprentissage du langage et cessent d’employer ce registre quand le bébé devient capable de parler. En étudiant la manière dont les humains parlent à leurs chiens et la réponse des chiens, la présente étude apporte des éléments de réponse.

Voici des milliers d’années que le chien est devenu le meilleur ami de l’Homme et cette intimité se reflète à travers de multiples aspects de compréhension mutuelle et d’empathie. Lorsque nous parlons à nos chiens, nous utilisons souvent un registre de langage proche du « parler bébé ». De même que pour les bébés, ce « parler chien » pourrait constituer une réponse spontanée à des caractéristiques juvéniles ou représenter une tentative pour engager une interaction avec un être vivant non doué de langage. Dans le premier cas, nous devrions restreindre l’utilisation du « parler bébé » aux chiots. Tandis que dans le second, nous devrions continuer de parler ainsi aux chiens adultes. Ce sont ces hypothèses que des scientifiques américains, britanniques et français viennent de tester.

Dans une première expérience, les chercheur(e)s ont présenté des photographies de chiens d’âges divers à des adultes humains qui avaient pour consigne de dire les phrases suivantes : « Alors le chien ! Comment ça va le doudou ? C’est qui le bon chien ? Viens ici mon chien ! Ah il est gentil le chien. Ça c’est un gentil chien ! ». Les personnes devaient ensuite prononcer ces mêmes phrases sur un ton neutre. L’analyse de la structure acoustique des enregistrements montre que notre manière de parler face à des chiots est très semblable au « parler bébé »… et que nous continuons d’utiliser ce registre quel que soit l’âge du chien !

Dans une seconde expérience, les scientifiques ont fait écouter ces enregistrements à des chiens, chiots et adultes. Le chien était placé dans une pièce confortable, en présence du chercheur placé face au mur pour ne pas attirer son attention. Un haut-parleur posé sur le sol émettait successivement la phrase prononcée en « parler chien » et la même phrase en langage normal. La réponse du chien a été filmée pour être analysée.

Les résultats des expériences sont clairs : lorsque la phrase émise par le haut-parleur est prononcée de manière normale, aucun des chiens testés ne manifeste d’intérêt pour l’enregistrement. Au contraire, lorsqu’ils entendent du « parler chien », les chiots deviennent très excités, aboient et s’approchent du haut-parleur, tandis que les chiens adultes… ignorent l’enregistrement, continuant de vaquer à leurs occupations !

En montrant que les humains utilisent le « parler chien » pour communiquer avec des chiens de tous âges, cette étude suggère que ce registre particulier est utilisé pour engager des interactions avec un individu non doué de langage. Il est donc fort probable que le « parler bébé » utilisé avec notre progéniture soit motivé par notre désir de rendre notre communication plus efficace avec un être qui ne maîtrise pas encore le langage et/ou dont on pense qu’il a des difficultés à nous comprendre. Si le « parler bébé » accélère effectivement l’apprentissage du langage chez les nouveau-nés, nous aurions donc tort de nous en priver !

Du côté des chiens, les résultats montrent que le « parler chien » est très efficace pour engager une interaction avec un chiot, mais perd de son intérêt avec des chiens plus âgés. Ceux-ci attendent probablement d’autres signaux de notre part, par exemple gestuels, et/ou ne répondent qu’à des voix familières. Nous continuons pourtant de leur parler comme à des bébés, car de manière consciente ou non, nous ressentons que le chien risque de ne pas bien comprendre et nous espérons qu’il fasse des progrès… en devenant capable de nous parler !

Référence : Ben-Aderet T., Gallego-Abenza M, Reby D, Mathevon N. in press. Dog-directed speech: why do we use it and do dogs pay attention to it? Proceedings of the Royal Society of London, series B. (Une copie pdf de cet article peut être demandée par email à [email protected])

Source : cnrs

Les restrictions contre le bisphénol A se confirment

Un règlement de l’Union européenne adopté au titre de Reach fixe une restriction pour la mise sur le marché des papiers thermiques contenant du bisphénol A (BPA). Cette interdiction, qui entre en vigueur le 2 janvier 2020 concernera les papiers thermiques contenant cette substance dans une concentration égale ou supérieure à 0.02% en poids. C’est la France qui est à l’origine de cette proposition via une demande déposée en mai 2014. La France a d’ailleurs aussi fait une demande afin de classer le bisphénol A comme substance extrêmement préoccupante (SVHC). Demande à laquelle l’Echa a fait suite en classant le BPA (CAS 80-05-7) sur la liste des substances candidates à cette appellation et à la réglementation qui y est liée début janvier 2017.

D’autres bisphénols sont susceptibles d’être sur la sellette à l’avenir. En particulier le bisphénol S (BPS), envisagé comme substitut pour le bisphénol A par certains industriels. En effet, la Commission européenne a déjà demandé à l’Echa de déterminer si le BPS dans les papiers thermiques pouvait présenter des risques pour la santé en juin 2016. Les résultats sont attendus courant de l’année 2017.

Un label sans phénols ajoutés

Dans le cadre de cette suspicion envers les bisphénols et les phénols en général, l’Ineris a de son côté développé un label “sans phénol ajouté” à destination des fabricants et utilisateurs de papiers thermiques. Ce label garantit l’absence de quinze phénols dont les bisphénols A, S et F. Il vient compléter le label “tickets sans BPA” qui avait été développé dans le cadre de la stratégie nationale contre les perturbateurs endocriniens. Ce nouveau label s’appuie sur un référentiel mis au point par l’Ineris. Les mesures permettant de garantir l’absence des composés dans le papier sont effectuées “à partir de techniques d’analyses chimiques reconnues et largement pratiquées par les laboratoires”, précise l’Ineris. Les premiers labels viennent d’être attribués à Carrefour, Lidl, Système U et au fabricant de papier Koelher.

Plastics Europe contre DGCCRF : match nul ?

Côté justice, l’association Plastics Europe avait déposé une requête auprès du Conseil d’Etat pour faire annuler une note de la DGCCRF (direction générale de la concurrence, de la consommation et de la répression des fraudes) du 8 décembre 2014. Cette note fournissait des précisions concernant certaines dispositions de la loi de juin 2010 modifié en décembre 2012 suspendant la commercialisation de tout conditionnement comportant du bpa et destiné à recevoir des produits alimentaires pour les enfants en bas âge et les nourrissons.

Le Conseil d’Etat a rendu son verdict le 7 décembre 2016: il approuve la mesure de sauvegarde, estimant que cette restriction “ n’apparaît ni disproportionnée ni incohérente” mais il a tout de même annulé une partie de la note de la DGCCRF concernant les conditions d’application de la loi aux matériaux plastique fabriqués à partir de matières recyclées car la DGCCRF excède ses pouvoirs en fixant de nouvelles règles au lieu de seulement interpréter celles édictées dans la loi.

Sophie Hoguin

L’Arctique connait de lourds bouleversements

L’Arctique connait un nouveau record. En novembre et décembre 2016, l’étendue de la banquise arctique a connu quotidiennement ses niveaux les plus bas depuis le début des observations par satellites en 1979. Mi-novembre, la banquise a peiné à se reformer. La glace de la mer arctique a même diminué pendant plusieurs jours, au lieu de croître.

Selon le Centre américain de données sur la glace et la neige (NSIDC), en décembre, la glace de mer gagnait 90.000 kilomètres carrés (km2) par jour. Une vitesse de croissance beaucoup plus rapide que la moyenne à long terme (64.100 km2). Ainsi, après un gel tardif de la saison et des niveaux exceptionnellement bas en novembre, la vitesse avec laquelle la glace s’est étendue a permis d’éviter un record d’étendue moyenne mensuelle.

De nouveaux records en Arctique

Pour le NSIDC, l’étendue moyenne mensuelle des glaces de mer dépend non seulement de la moyenne quotidienne du mois, mais aussi de la vitesse de croissance des glaces. Bien que les niveaux quotidiens pour décembre 2016 aient atteint un minimum record, l’étendue moyenne mensuelle s’est élevée à 12,1 millions de km2. C’est tout juste 20.000 km2 de plus que le minimum historique atteint sur le mois de décembre 2010. Mais c’est surtout 1,03 million de km2 en dessous de la moyenne à long terme de décembre entre 1981 et 2010. Depuis décembre 1978, la glace de mer a perdu 3,4% par décennie, soit 44.500 km2.

Sur l’année 2016, une vague de nouveaux creux historiques ont été atteints en Arctique, que cela concerne l’étendue des glaces de mer, en moyenne quotidienne ou mensuelle. De nouveaux records pour janvier, février, avril, mai, juin, octobre et novembre ! Par ailleurs, l’étendue minimale de la glace de mer en fin d’été, enregistrée le 10 septembre, est au coude-à-coude avec 2007 pour être le deuxième niveau le plus bas enregistré (4,14 millions de km2). Le triste record de 2012 reste pour le moment inégalé avec ses 3,38 millions de km2.

banquise-arctique
Etendue de la glace de mer entre le 1er novembre et le 31 décembre. Ligne rouge: 2016. Ligne bleue : 2010. Ligne pointillée: 2012. La ligne grise indique l’étendue moyenne de 1981 à 2010 pour la journée indiquée,+/- 2 écart-types. Source : NSIDC.

Des températures de plus en plus chaudes

L’Arctique est la région du monde qui subit le plus rapidement le réchauffement climatique : la région se réchauffe deux fois plus vite que le reste de la planète. L’Agence américaine océanique et atmosphérique (NOAA) a annoncé courant décembre que l’Arctique venait de connaître ses 12 mois les plus chauds depuis le début des relevés de températures dans cette région.

D‘octobre 2015 à septembre 2016, la température annuelle moyenne de l’air au-dessus du sol  était ainsi supérieure de 3,5°C à celle de 1900. Dans certaines zones de l’Arctique, l’air extérieur a même atteint des températures de -5°C, au lieu de -25°C, en novembre et décembre.

arctique-temperature
Températures moyennes quotidiennes (en Kelvin) dans la région de l’Arctique au-dessus du 80e parallèle nord en 2016 (rouge), comparées aux températures moyennes sur la période 1958-2002 (vert). L’axe horizontale correspond aux jours de l’année.  Source : DMI

Par Matthieu Combe, journaliste scientifique

Oled flexibles : en route pour l’intégration industrielle

Pi-Scale est un projet européen qui intègre des infrastructures de recherches et des partenaires industriels de toute la chaîne de valeur des Oled flexibles. A travers Pi-Scale, ce consortium vise à fournir aux PME et industriels un accès libre à des chaînes pilotes de production pour tester la faisabilité de leurs projets et intensifier la commercialisation des produits intégrant cette technologie.

Premiers démonstrateurs, premières productions

Les premiers démonstrateurs ont été présentés en fin d’année 2016 à l’occasion de plusieurs forums ou conférences dont le 23e International Display Workshops au Japon. Il s’agissait en l’occurrence de bandes d’Oled en verre ultra-fin de 15m avec une performance de 30lm/W et un rendement proche de 100% qui avaient été produites par un procédé de dépôt d’anode R2R (roll-to-roll).

Mais, Pi-Scale offre beaucoup d’autres possibilités aux entreprises intéressées: fabrication feuille-à-feuille S2S (sheet-to-sheet) et R2R sur support verre ou plastique, barrières spéciales conditions extrêmes (haute et basse température, immersion… [voir vidéo]), toutes formes et tous design, toutes couleurs (rouge, bleu, vert, cyan, jaune, blanc…), encapsulation flexible, intégration à des produits, haute flexibilité (rayon de courbure 10mm), très faible épaisseur (0,2 mm) etc. pour des tests de production pré-industrielle de l’ordre de 5000m2 d’Oled/an.

Bientôt les premières commercialisations

Si les différentes lignes pilotes seront disponibles à partir de juillet 2017 pour tous, quatre industriels, parties prenantes du projet testent déjà leurs produits sur les démonstrateurs. Il s’agit d’Audi, de Rehau pour toutes applications à base de polymères, de Pilkington pour les applications à base de verre et de Emdedesign pour le secteur des l’éclairage des bâtiments. L’architecture, l’aéronautique et l’automobile devraient donc être les premiers secteurs à bénéficier des infrastructures issues du projet Pi-Scale mais bien d’autres secteurs sont susceptibles de s’intéresser aux Oled flexibles : télécommunications, dispositifs de santé, objets de grande consommation…

Par Sophie Hoguin

Droit de réponse

Cité plusieurs fois dans un article du 17 octobre 2016 (100% d’énergie renouvelable en France : un projet «délirant» ?), Philippe Hansen a souhaité bénéficier d’un droit de réponse.

Le voici :

Peu à peu, depuis quarante ans, la communication sur l’approvisionnement énergétique de la France a été confisquée aux ingénieurs pour se trouver partiellement, si ce n’est pas totalement aux mains d’une mouvance politique.

Pour défendre une politique énergétique qui puisse éviter à notre pays une future crise pétrolière et qui lui permette de réduire ses émissions de CO2 en conservant la croissance économique nécessaire à la cohésion sociale,  je me suis attelé sur mon site énergie-crise.fr (initialement énergie-gouv.fr) à une comparaison qui se veut objective des sources d’énergie. Une lecture critique m’a ainsi permis de démonter les principales impostures de la mouvance antinucléaire. N’étant pas professionnel du secteur, une telle publication ne peut reposer  que sur des erreurs logiques, physiques ou économiques fondamentales et non sur des points spécialisés. Seules des critiques sur la forme ont pu être opposées aux arguments avancés. Mes principaux adversaires n’ont pas répondu à mes propositions de débats en école d’ingénieurs.

Mark Jacobson propose un scénario de déploiement mondial de l’éolien et du solaire, et comme il le répète lui-même, sans système de stockage de l’électricité (autre que le solaire thermodynamique et l’hydraulique de barrage). Ce scénario repose sur une surproduction électrique et une gestion de la demande, dont il prétend ainsi pouvoir en effacer les 2/3 ! Est-ce vraiment possible pour une durée assez longue ? Testé à l’échelle des 48 états connexes des Etats-Unis, le scénario a été approuvé comme une étude théorique. Compte-tenu de la taille du pays considéré qui bénéficie d’une large variété de conditions météorologiques, l’étude pourrait être réaliste techniquement si ce n’est économiquement. Maintenant, Mark Jacobson en déduit un modèle énergétique pour 139 pays de la planète.

jacobson_hiver_2013

Testé sur la France à partir des productions éoliennes et solaires mesurées par RTE entre 2012 et mars 2016, ce mix énergétique n’assure même pas l’approvisionnement électrique hors transport pendant 23% du temps (2000 heures par an). Les simulations sur deux mois ont été publiées. Une telle constatation est en accord avec les études parues sur l’éolien ; Aucune puissance éolienne n’est garantie (Nifenecker, Techniques de l’ingénieur ! 2014), la production éolienne décroît avec la température (Flocard, 2012), la distribution de la production éolien-solaire et celle de la consommation ne peuvent coïncider (Wagner 2013). Faut-il aller chercher aussi un auteur à Stanford pour affirmer que le photovoltaïque produit, dans notre pays, quatre fois moins en hiver qu’en été et que la demande de chaleur en Europe y est maximale à cette période-là ? Pourquoi nier que la somme d’une fonction aléatoire et d’une fonction périodique ne donne pas une fonction à peu près constante ?

Il est assez curieux, dans une revue technique, de voir opposer à des mesures en accord avec la littérature théorique une publication non encore validée au seul motif que l’auteur appartient à une université réputée et partage les opinions de la rédaction.

D’autant plus que Mark Jacobson a modifié son mix énergétique, le jour même où il a pris connaissance de la simulation pour la France en introduisant 130 TWh de solaire thermodynamique à concentration. Ainsi les sources modulables passent de 3 à 14 %, un aveu de la faiblesse de son plan ? Une telle production représenterait une surface de 2000 km2 de miroirs dans le sud de la France et un surcoût annuel de 35 milliards d’euros . Mais en restant dans des puissances et des stockages raisonnables, le CSP (Concentrating Solar Power ) ne peut combler les failles du scénario : un déficit de 80 GW pendant 15 jours, durée de référence pour les périodes sans vent en Europe de l’Ouest. La situation serait pire dans les grands pays comme l’Allemagne, le Royaume-Uni et la Pologne, qui ne reposent que sur des sources électriques fluctuantes.

Il est étrange de faire appel au scénario ADEME pour justifier Jacobson. En effet, cette étude exploratoire en montre plutôt les limites. Elle se donne un objectif deux fois plus faible de production électrique, pour profiter d’une plus grande part d’hydraulique. Elle utilise le report de consommation, le stockage et, malgré tout, nécessite encore des importations d’électricité de centrales  thermiques.

Un travail d’ingénieur ne se limite pas à utiliser des densités surfaciques, sur un coin de table. Il existe un territoire sur lequel il y a d’autres activités, un patrimoine immobilier et naturel. Les études d’impact vont bien au-delà de la zone des 500 mètres, utilisée pour déterminer la surface consommée par les parcs éoliens. Le potentiel éolien calculé par l’ADEME consiste en 17 000 parcs. En considérant les lumières clignotantes la nuit aux sommets des mâts, il y a de quoi transformer un pays millénaire en sapin de Noël. L’ADEME est partie, elle, de 10 000 parcs éoliens dans le scénario de référence, puis s’est replié sur 6000 (dans un le cas d’une acceptabilité modérée), puis sur 4000 (dans le cas d’une acceptabilité très contrainte). Lorsque les autorités régionales ont voulu déterminer leur potentiel éolien, elles ne trouvent que 1700 à 3000 parcs possibles. Que de contradictions avec une étude qui s’affranchit du stockage et envisage un déploiement éolien délirant. Il ne faut pas lire que le titre des études.

Pour poursuivre sur cette dernière remarque, dans la seule publication (Scénario Message Supply–N) qui décrit un scénario énergétique mondial  permettant de stopper le réchauffement climatique, nous ne proposons pas « de construire 7000 GW entre 2060 et 2100 », ce qui est la description du scénario IIASA mais 17 000 à 20 000 GW entre 2020 et 2100, ainsi que 1500 centrales solaires de 100 km2 et 2 millions d’éoliennes.

Il est étonnant de lire, dans le pays qui a recyclé plus de trois fois le plutonium dans le réacteur Phénix, que le nucléaire ne serait pas renouvelable. C’est le cas politiquement, mais physiquement, le caractère renouvelable du nucléaire a été démontré dès 1983 par Cohen (publication téléchargeable sur le site de l’université de Stanford !) : il s’agit d’extraire une partie de l’uranium apporté par les fleuves dans la mer. Aujourd’hui les études américaines, japonaises et chinoises sur l’extraction de l’uranium de l’eau de mer se poursuivent et on arrive à des retours énergétiques entre 20 et 1000, alors que les publications récentes de Hall, Pietro et Weissbach  ramènent celui du solaire en Europe à un intervalle 4-6 à partir des seuls facteurs physiques. Bien sûr, on peut contester ces études, mais alors il faut expliquer pourquoi.

Enfin comme la production solaire est en opposition de phase avec la consommation énergétique, il est faux de prétendre qu’il est possible de répondre à une demande énergétique par la même quantité d’électricité solaire produite annuellement par un autre mix énergétique. Il faudrait investir dans 1600 GW solaires tous les vingt-ans. Pour sortir des fossiles le compte est vite fait : 3200 milliards d’euros jusqu’en 2050 sans les batteries ; au lieu de 300 pour le nucléaire. On peut se demander pourquoi sacrifier des milliers de kilomètres carrés contre le risque d’en perdre quelques centaines par une fusion de cœur sur un réacteur nucléaire.

La faible performance de l’éolien-photovoltaïque n’est pas due à des contraintes techniques, mais à des facteurs physiques immuables : la hauteur du soleil en hiver ou en été, la pente des toits, le rendement maximal des transitions électroniques, la puissance en fonction de la vitesse du vent, etc… La vérité est donc qu’un pays à notre latitude et notre densité de population ne peut reposer très majoritairement que sur l’atome pour produire une électricité sans  carbone. L’intérêt du solaire et de l’éolien est faible pour le réseau électrique, c’est ce qui fait  la faillite du système électrique de Jacobson, qui ne résisterait pas à des hivers exceptionnellement froids.

En France, le photovoltaïque et l’éolien coûtent plus de 5 milliards d’euros par an à la collectivité, bien plus que les ratés du nucléaire, dont le bilan est globalement très positif. Les éoliennes et le photovoltaïque sont importés, et il nous restera des éoliennes et des panneaux usés sur les bras lors de leur fin de vie. Avec le nucléaire nous accumulons de la matière fissile réutilisable chaque année et des platinoïdes pour nos descendants dans les colis vitrifiés. Lors de l’accident de Fukushima, il n’y a pas eu d’impact des radiations sur la population civile, alors que les réacteurs étaient beaucoup moins sûrs que les nôtres. Ils n’avaient pas de recombineurs passifs d’hydrogène, qui auraient évité l’explosion, ni de filtres à sable qui auraient limité les rejets. L’accident n’aurait pas eu cet impact avec nos réacteurs. En parallèle, on ne montre pas les techniciens brulés au sommet des éoliennes ou les installateurs de photovoltaïque qui tombent des toits. Lorsque des journalistes indépendants, comme ceux de Forbes récemment, reprennent des études scientifiques, le nucléaire dépasse les autres énergies, mêmes dans les bilans sanitaires. Nous pouvons donc continuer dans le nucléaire sans regretter qu’une meilleure alternative ne soit disponible et il n’est pas normal d’être mis publiquement en cause pour l’avoir défendu.

L’article à l’origine de ce droit de réponse est disponible ICI.

Philippe Hansen

Dans les Droits de réponse, les auteurs expriment un point de vue propre, qui n’est pas nécessairement celui de la rédaction.

Des leviers d’actions gagnants pour les démarches qualité des TPE PME

L’existant est-il optimisé ?

On constate souvent deux angles morts dans la conduite des démarches qualité, notamment dans les TPE PME :

  • La place de l’humain et du champ social, question escamotée comme si la dimension sociale de l’entreprise n’était pas légitime dans une démarche qualité ;
  • La compréhension systémique de l’entreprise, souvent sommaire ou simpliste et donc peu opérante pour aider l’entreprise face à ses enjeux.

Ces deux angles morts sont d’ailleurs liés par la même croyance malheureusement largement partagée dans l’entreprise, que la performance est avant tout question de technique et d’outils bien utilisés ! Cette croyance s’accompagne souvent d’une certaine méfiance vis-à-vis de ce qui n’est pas tangible et quantifiable.

Ce ne serait pas grave si le tabou dont semblent frappés ces sujets n’avait des conséquences dommageables pour les performances des entreprises :

  • Inefficacité relative de la démarche qualité par faiblesse du modèle de fonctionnement (faiblesse d’analyse systémique) ;
  • Faible implication du personnel faute de prise en compte réaliste de l’humain (faiblesse du champ social).

Et pourtant nombreux sont ceux qui ont alerté sur la question. Déjà dans les années 1970 Joseph JURAN avait alerté sur la double dimension du changement, technique et culturel, et sur la nécessité de prendre en compte les répercussions sociales si l’on veut que le changement technique soit accepté.

Quarante-cinq ans plus tard, Philippe Lorino redit presque la même chose, comme si aucun progrès n’avait été fait sur cette question : « A la philosophie de base, qui date des années 30, on peut tout à fait ajouter une dimension qui prenne en compte le dialogue social et les organisations représentatives des salariés. C’est en effet le principal angle mort de la méthode Lean historique » (Cf. article de Philippe LORINO (Professeur Eminent ESSEC) dans l’article donné à l’Usine Nouvelle en octobre 2014).

Ne pourrait-on pas mieux prendre en compte la réalité de l’entreprise et sa complexité dans les démarches qualité et élargir le modèle techniciste qui prévaut encore ?

Peut-on s’extraire du modèle classique ?

L’évolution du référentiel ISO 9001 en 2015 offre des ouvertures à explorer.

Ainsi par exemple, dans l’ISO 9000, la définition de système de management de la qualité (« SMQ » dans la suite ou simplement « système » pour ne pas alourdir la lecture) s’enrichit et précise sa relation avec les processus.

§ 3.5.3 – Système de management : ensemble d’éléments corrélés ou en interaction d’un organisme, utilisés pour établir des politiques, des objectifs et des processus de façon à atteindre lesdits objectifs. (rappel : SMQ = partie d’un SM relatif à la qualité).

Cette définition suggère que les processus sont établis et déterminés par des éléments du système de management. Que sont ces éléments constitutifs du système de management ?

Monsieur Nigel CROFT, chef du comité technique de l’ISO en charge de la rédaction des référentiels ISO 9000, 9001 et 9004, a répondu à cette question lors d’une de ses conférences de présentation de l’ISO 9001 en regroupant ces éléments en trois catégories désignées par :

  • « Hardware » : équipements, installations, réseaux …,
  • « Software » : connaissances formelles, brevets, procédures …,
  • « Humanware » : humains, valeurs, expériences, savoirs, comportements …

Ces trois éléments se rencontrant et interagissant notamment lors de la mise en œuvre des processus d’une l’entreprise.

En France, une pratique largement répandue consiste à considérer qu’un système de management de la qualité est composé uniquement d’un ensemble de processus. Pour cela, les tenants de cette approche n’hésitent pas à tordre la définition de l’ISO 9000, pour aboutir à ce que les éléments du système, qui créent et établissent les processus, soient finalement phagocytés par ces derniers, à l’instar de la figure de l’humanoïde de Science-Fiction qui se retourne contre son créateur !

Pour s’en convaincre, citons la note 2 de la définition de système de management qui précise :

« Les éléments du système de management comprennent la structure, les rôles et responsabilités, la planification, le fonctionnement de l’organisme, les politiques, les pratiques, les règles, les convictions, les objectifs et les processus permettant d’atteindre ces objectifs. »

Ne serait-il pas alors possible et utile de considérer que le système de management de la qualité est composé d’autres éléments que les seuls processus dont les finalités opérationnelles et économiques, pour importantes qu’elles soient, ne recouvrent pas la totalité des enjeux des parties intéressées de l’entreprise ?

Une entreprise est un système qui créé de la valeur pour les parties intéressées. Selon les parties intéressées considérées on sera enclin à considérer l’entreprise de différents points de vues :

  • d’un point de vue économique : clients, activités, produits et services, chiffre d’affaires, rentabilité, investissement …,
  • d’un point de vue social : emplois, rémunérations, conditions de travail, relations sociales …,
  • d’un point de vue stratégique : compétition, changement, alliances, pouvoir, décisions …

Nous avons beaucoup agit dans les démarches qualité, s’appuyant sur les finalités satisfaction clients et conformité des produits et services du SMQ, comme s’il suffisait de prendre en compte la dimension économique de l’entreprise, siège des activités productives de biens et de services fournis aux clients, pour obtenir un fonctionnement optimisé.

De plus, il a souvent été considéré que les deux autres dimensions de l’entreprise devaient finalement se mettre au service du champ économique pour l’intérêt de tous !

Le modèle largement répandu de système de management de la qualité fondé sur des processus (champ économique) peut se lire de cette façon, comme un modèle réducteur, éclipsant et bridant les deux autres dimensions de l’entreprise :

  • La dimension stratégique, en la réduisant aux principes de leadership et de prise de décision fondée sur les preuves comme si les affects, les essais-erreurs, la chance, les égos … n’entraient pas dans la compétition économique et les prises de décision ;
  • Le social, en le réduisant aux principes d’implication du personnel et à la gestion des « ressources humaines », appellation souvent mal acceptée par ceux qu’elle désigne, comme si les personnes appartenaient à l’entreprise et n’avaient pas, individuellement, un parcours professionnel à construire, à entretenir et à valoriser.

C’est un peu comme si pour obliger un véhicule à aller le plus loin possible en avant, on limitait son rayon de braquage pour l’empêcher de dévier à droite ou à gauche et qu’on supprimait la marche arrière et le frein pour l’obliger à avancer coûte que coûte. Cela ne serait pas efficace n’est-ce pas ?

Et bien, toutes choses égales par ailleurs, c’est pourtant ce que l’on peut voir dans de nombreuses entreprises pour ses dimensions bridées.

Comment faire évoluer le modèle classique ?

Nous savons pourtant depuis longtemps, grâce à la théorie des systèmes élaborée dans les années 1950-60 que « la régulation d’un système n’est efficace que si elle s’appuie sur un système de contrôle aussi complexe que le système lui-même » (in. « Le Macroscope » J. de Rosnay – 1975). Cela est connu sous le nom de « loi de la variété requise » proposée par Ross Ashby en 1958 et jamais démentie depuis, à ma connaissance.

Il ne paraît donc pas déraisonnable de s’interroger sur la variété requise des modèles de systèmes de management de la qualité associés aux démarches qualité dans les entreprises !

Le SMQ, par définition outil permettant d’orienter et diriger un organisme en matière de qualité, peut-il s’acquitter efficacement de sa tâche sans prendre en compte les trois champs d’actions principaux existant dans l’entreprise : économique, stratégique et social ?

Notre réponse est non ! Et c’est cette prise en compte systémique que nous proposons dans notre méta-modèle de système de management de la qualité illustré par la figure associée à cet article :

iso9001

Ce modèle s’est construit progressivement dans la confrontation de l’expérience pratique dans les entreprises et la réflexion à partir des approches existantes des démarches qualité, incluant la perception des angles morts présentés au début de cet article.

La plus grande difficulté a été d’identifier, à côté de l’élément « processus » – représentant la projection du champ « Economique » sur le SMQ –, les éléments qui pourraient représenter efficacement les champs Stratégique et Social de l’entreprise tout en faisant partie du SMQ. Autrement dit, trouver une projection pertinente des champs Stratégique et Social dans le SMQ.

Un résultat possible, testé avec succès dans plusieurs TPE – PME, propose les éléments concrets suivants :

  • Les instances de pilotage et de décisions, représentant le champ Stratégique projeté au niveau du SMQ ;
  • Les métiers, représentant une projection du champ Social sur le SMQ.

Dans la pratique, ce modèle s’est avéré opérant car il traduit des réalités et permet de rendre compte de l’existence de champs d’actions et de logiques spécifiques aux acteurs de l’entreprise, logiques qui ne sont pas naturellement convergentes et qui interagissent en permanence dans une succession temporelle de compromis et d’équilibres à établir.

S’il est compréhensible que d’un point de vue Economique on puisse souhaiter que les décisions prises et les compétences des acteurs soient entièrement consacrées à la performance des processus, la réalité du terrain nous montre quotidiennement que c’est un tout petit peu différent et plus complexe. Continuer à faire semblant n’est pas un crime mais ça n’est probablement pas la voie optimale !

Comment introduire ce modèle dans l’entreprise ?

En pratique, dans entreprise, les rappels théoriques ne sont pas indispensables, et nous posons directement la question suivante aux acteurs : « De quoi dépend la performance de votre entreprise ? »

Ce brainstorming conduit généralement aux réponses suivantes :

  • de la réussite commerciale,
  • de la qualité des prestations et produits,
  • des personnes,
  • des moyens matériels mis à disposition
  • de la direction,
  • de la bonne circulation des informations,
  • des moyens financiers,
  • du climat social,
  • etc.

Nous leur disons : « Vous avez raison ! Et ce que l’on va faire ensemble va intégrer tout cela autour de trois domaines ou leviers d’actions :

  • les processus pour développer l’esprit d’équipe et l’efficacité des activités (commerciales, techniques, administratives) au service des clients ;
  • les métiers pour développer d’une part les savoir-faire et les compétences nécessaires aux processus et d’autre part votre capital-emploi ;
  • le pilotage et les décisions parce que sans cela il n’y a pas de réussite possible ! ».

Pour conclure, c’est grâce à ces trois leviers de notre modèle et à ses déclinaisons et variations opérationnelles, intégrant notamment mais pas uniquement l’approche risques et le principe d’action PDCA, que nous construisons des systèmes de management de la qualité partagés par les acteurs de l’entreprise, contribuant efficacement aux performances et aux objectifs stratégiques des TPE – PME qui nous font confiance.

Par Olec Kovalevsky, Consultant en organisation et démarches qualité Pilote du groupement Performance Qualité TPE PME

 

Postface pour les sceptiques

Terminons, à l’attention de ceux qui pourraient douter de la pertinence de distinguer les éléments « Instances de pilotage et de décisions », « Processus » et « Métiers », par deux extraits de Michel Crozier et Erhard Friedberg dans « L’acteur et le système ».

« Le décideur ne cherche pas l’optimum, la meilleure solution dans l’absolu, qui est de toute façon hors de sa portée, mais il cherche pourtant toujours une solution « rationnelle ». Qu’elle sera-t-elle ? La première solution qui répond aux critères de rationalité qui sont les siens. L’homme n’est pas un animal qui cherche l’optimisation mais la satisfaction. » (cf. modèle de rationalité limitée introduit par Herbert Simon).

« Accepter de penser que c’est au niveau des capacités seulement que l’action sur les hommes ou pour les hommes a un sens pratique permet d’éviter ce piège de la morale éternelle : faire le bien des hommes sans leur demander leur avis. Agir sur les motivations, quelles que soient les intentions, entraîne à toutes les complaisances. Aider les hommes à développer des capacités nouvelles dont on accepte qu’elles puissent s’exercer contre vous offre un pari plus difficile mais raisonnable, et d’autant plus raisonnable qu’il est moins dangereux moralement. Ce pari est associé naturellement à la vision de rationalité limitée, de coopération impossible sans conflit et de relations de pouvoir universelles et inévitables. »

 

Références :

  • « Le Macroscope » Joël de Rosnay – 1975 – Editions du Seuil
  • « L’acteur et le système » Michel Crozier et Erhard Friedberg – 1977 – Editions du Seuil
  • « Réconcilier la stratégie et l’opérationnel – l’approche « processus – compétences » René Demeestere, Vincent Genestet et Philippe Lorino – 2006 – Editions ANACT
  • « Règles, Métier et Processus – trois explorations » Laurent Chiozzotto, Dominique Fauconnier, Michel Raquin – Editions L’Harmattan – 2013
  • « Mettre à niveau son système de management de la qualité avec l’ISO 9001 : 2015 » Olec Kovalevsky – 2016 – Techniques de l’Ingénieur (Livre blanc téléchargeable)

Présidentielles 2017 : les acteurs du numérique veulent faire entendre leurs voix

L’ACSEL, Cap Digital, la FEVAD, France Digitale, Renaissance Numérique, le SNJV, Syntec Numérique, Systematic Paris-Region et Tech In France ont créé en décembre 2016 le collectif France Numérique 2017. Cette action vise à sensibiliser les partis politiques et les candidats a l’élection présidentielle de 2017 aux enjeux du numérique, et au levier qu’il représente pour l’emploi et la croissance économique en France.

Comparer les programmes en ligne

Sur leur plateforme internet, un questionnaire permet de recueillir les propositions des candidats sur sur cinq thématiques liées au numérique : Financement de l’innovation et croissance numérique ; Juridique-Régulation-Réglementation ; Économie de plateforme et modèles collaboratifs ; Éducation et formation ; Numérique et volet social. A terme, les réponses au questionnaire permettront de comparer les programmes de chacun sur la question du numérique. Le collectif annonce par ailleurs l’organisation de débats au cours de la campagne qui seront retransmis sur cette plateforme. En attendant, le Think Tank Renaissance Numérique recueille les propositions et petites phrases des candidats dans une tribune hebdomadaire publié sur l’Usine Digitale.

Revoir le financement de la Tech

Le financement est au coeur des enjeux pour les sociétés du numérique française. Tech In France (ex Afdel) qui veut rassembler les éditeurs et les sociétés d’internet, a présenté son recueil de propositions pour “renforcer l’écosystème du numérique en France”. Elles visent notamment à favoriser l’investissement des particuliers dans le PME innovantes via les FCPI (fonds Professionnels de Capital-Investissement), à orienter l’épargne existante vers les PME innovantes et à développer le corporate venture en le rendant plus attractifs pour les entreprises qui s’y investissent.

Pour Bertrand Diard, président de Tech In France, “notre chaîne de financement comporte des maillons faibles […] et il manque encore des acteurs de l’investissement susceptibles d’accompagner jusqu’à la phase de maturité les prochaines licornes”.

Des propositions qui sont aujourd’hui largement partagées par d’autres acteurs de l’innovation comme France Biotech par exemple (voir cet article).

Par Sophie Hoguin