EDF EN confirme son intérêt pour l’éolien offshore

Fondée en 2014, la société OWS assure l’exploitation et la maintenance du parc éolien en mer de BARD Offshore 1, situé à 95 km des côtes allemandes, en mer du Nord. Ce parc est constitué de 80 éoliennes de 5 MW. L’acquisition d’OWS s’accompagne du renouvellement du contrat de maintenance, pour une durée de 10 ans, avec son propriétaire Ocean Breeze Energy. OWS dispose par ailleurs d’un centre de supervision et de commande pour l’éolien en mer localisé à Emden, ville pionnière de l’éolien en mer en Allemagne, située à proximité directe des nombreux parcs éoliens de mer du Nord.

EDF à double-face

EDF Energies Nouvelles est désormais un groupe incontournable dans les énergies renouvelables. Il opère dans 11 pays, sur près de 14 GW d’installations renouvelables, pour son compte propre et le compte de tiers. EDF EN explique vouloir poursuivre son développement en prenant position sur de nouveaux marchés prometteurs et dans de nouveaux pays tels que l’Afrique du Sud, le Brésil, le Chili, la Chine ou l’Inde.

La réussite de sa filiale Enr contraste avec les difficultés de sa maison-mère : EDF SA. Augmentation de capital, financement du grand carénage (estimé à 100 Mds € par la Cour des comptes), ou encore absorption de la division réacteurs d’Areva, les défis ne manquent pas pour EDF qui continue à faire du nucléaire la pierre angulaire de sa stratégie à long terme. Dernière mauvaise nouvelle en date, l’annonce par EDF lui même du premier surcoût du projet anglais Hinkley Point C estimé désormais à 19,6 milliards de livres sterling (24,2 Mds €) en augmentation de 1,5 milliard £ (1,9 Mds €) par rapport aux évaluations précédentes. EDF explique que ces surcoûts résultent « essentiellement d’une meilleure appréhension du design, adapté aux demandes des régulateurs, du volume et du séquencement des travaux sur site et de la mise en place progressive des contrats fournisseurs ».

Par Romain Chicheportiche

Trump rejoue l’Age d’or du pétrole

Le pic pétrolier à l’envers

Donald Trump théorise sa politique par la révolution des hydrocarbures de schiste qui ont « montré que la théorie du pic pétrolier, qui imposait des mesures draconiennes et une modification de notre mode de vie, était une fake news. Notre pays est béni d’une abondance extraordinaire d’énergie. Nous avons près de 100 ans de gaz naturel et plus de 250 ans de charbon propre et beau », s’est enflammé le milliardaire au Department of Energy (DoE). Donald Trump a annoncé l’ouverture de la quasi-totalité (94%) des zones fédérales en mer à l’exploitation d’hydrocarbures. Le Président semble miser sur une augmentation de la production pour maintenir des prix bas de l’énergie, favorisant ainsi les industries énergivores, tout en augmentant les exportations. Sans oublier l’argument de l’indépendance énergétique, toujours présent dans la rhétorique trumpienne.

Annonces chocs

Donald Trump a profité de l’occasion pour annoncer quelques mesures chocs, mais attendues, telles que la suppression de toutes les barrières administratives et environnementales imposées aux mines de charbon. Un accord d’exportation de houille serait actuellement en négociation avec l’Ukraine selon le Président. De contrat, il en serait également question avec la Corée du sud à qui le président américain souhaiterait vendre son gaz naturel cette fois-ci. Pour cela, les États-Unis qui avaient déjà commencé à dévier de leur stratégie historique (pas d’exportation de pétrole et gaz brut) accélère la dynamique en autorisant le terminal de liquéfaction de Lake Charles LNG en Louisiane à exporter davantage. Enfin, Donald Trump a annoncé la construction d’un grand pipeline vers le Mexique, qui « passerait juste sous le mur », s’est amusé le Président de la première puissance mondiale. Reste à savoir si le Mexique, également producteur de pétrole, appréciera la boutade, et le projet…

Pari historique

Contraste saisissant que les discours à quelques jours d’intervalle des présidents français et américain. Alors qu’Emmanuel Macron annonce qu’aucun permis d’exploration d’hydrocarbures ne sera attribué en France, Donald Trump ouvre grand le domaine fédéral et confirme sa sortie de l’Accord de Paris. Il compte de fait devenir un producteur majeur d’énergies fossiles dont les autres veulent s’émanciper. Un mot enfin sur le nucléaire, en réalité le premier point aborder par Trump, et qui va faire l’objet d’une revue complète « pour trouver de nouvelles manières de revitaliser cette ressource énergétique cruciale et propre », a promis le Président. En effet, les centrales nucléaires américaines n’ont jamais été dans une situation aussi critiques. Plusieurs ont dû fermer leurs portes faute de rentabilité en raison de la concurrence impitoyable du… gaz de schiste ! Les centrales à gaz étant devenues bien plus compétitives que l’atome. Bref un véritable casse-tête en perspective.

Par Romain Chicheportiche

Nicolas Hulot dévoile son plan climat

Jusqu’à présent, l’objectif était de réduire les émissions de gaz à effet de serre françaises de 75% en 2050 par rapport à 1990. La grande nouveauté est désormais de viser la neutralité carbone à cet horizon. Pour rendre cela possible, plusieurs pistes sont lancées. Nicolas Hulot entend ainsi « faire de la France le n°1 de l’économie verte » pour réconcilier économie et écologie et « faire de Paris la capitale de la finance verte ».

Ce plan vise notamment à rendre « irréversible » l’Accord de Paris. Et accompagner les citoyens dans la transition. Ainsi, la prime à la conversion prévue lors de la mise à la casse d’un véhicule diesel sera étendue. « Le gouvernement proposera à chaque Français une prime pour remplacer leur voiture diesel d’avant 1997 ou essence d’avant 2001 par un véhicule neuf ou d’occasion », a dévoilé Nicolas Hulot. Reste à en révéler le montant. Par ailleurs, 4 milliards d’euros du plan d’investissement seront réservés à la lutte contre la précarité énergétique.

Énergies fossiles, contre renouvelables

Exit les énergies fossiles. Nicolas Hulot a annoncé la fin de la vente de voitures à essence et diesel dès 2040. Par ailleurs, il n’y aura plus de production d’électricité à partir de charbon dès 2022. Et une loi sera adoptée pour mettre fin aux permis d’exploitation de pétrole et de gaz.

Du côté des énergies renouvelables, rien de bien neuf. L’objectif est toujours de 32% d’énergies renouvelables dans la consommation d’énergie primaire en 2030. Simplement, Nicolas Hulot a annoncé vouloir continuer à simplifier le cadre et accélérer leur développement. Et la programmation des différents appels d’offres sur la durée du quinquennat sera publiée au plus tard d’ici un an. Dans le cadre de la mise à jour de la Programmation Pluriannuelle de l’Energie (PPE).

L’agriculture au service de l’adaptation au changement climatique

Nicolas Hulot entend mobiliser le potentiel des écosystèmes et de l’agriculture pour lutter contre le changement climatique. Il espère ainsi transformer le modèle agricole. « C’est l’esprit des états généraux de l’alimentation », rappelle-t-il.

Dans ce cadre, il compte mettre « définitivement fin à la déforestation importée en France ». Qu’elle provienne notamment des principaux bassins à protéger, soit en Amazonie, Asie du Sud-est ou Bassin du Congo. Cela empêchera par exemple d’incorporer du biocarburant à base d’huile de palme ou d’importer du soja issu de la déforestation pour nourrir le bétail français.

Enfin, le plan Climat renforcera la mobilisation internationale autour de la lutte contre le changement climatique. Il soutiendra notamment les acteurs non gouvernementaux qui agissent pour le climat, à savoir les différentes coalitions telles que le R20 ou le C40.

Par Matthieu Combe, journaliste scientifique

El Hierro : Un phare de l’énergie pour les îles

Isolé sur l’océan Atlantique, au large de la Mauritanie, El Hierro appartient à l’archipel espagnol des Canaries. Battu par les vents, l’îlot volcanique n’abritait selon le dernier recensement que 11 000 personnes, alimentées depuis des années en électricité par une centrale thermique fonctionnant au diesel et opérée par l’électricien historique Endesa. C’est cela que les autorités ont décidé de changer.

Solution éolien/hydro

IMG
crédits : Romain Chicheportiche

La Société Gorona del Viento a été créée en 2007, détenue à 77% par des acteurs locaux (Cabildo, région, ITC) et 23% par Endesa, pour créer un parc éolien et un barrage hydroélectrique. Le parc éolien comprend 5 aérogénérateurs de 2,3 MW, soit 11,5 MW au total. Il est couplé à une centrale hydroélectrique (6 MW) qui tire profit du dénivelé rapide de l’île volcanique. En effet, deux bassins de rétention d’eau ont été creusés (380 000 m3 et 150 000 m3) pour alimenter la centrale hydro. Le réservoir amont est rempli grâce à des pompes qui remontent l’eau de l’aval. C’est un système de Station de transfert d’énergie par pompage (STEP), bien connu en France.

L’innovation de Gorona del Viento réside dans le couplage des systèmes éoliens et hydroélectriques. « Les deux installations s’équilibrent mutuellement. Nous surveillons en permanence la production du parc éolien, par définition variable, et adaptons l’activité de pompage en fonction », explique José, ingénieur en salle de contrôle. Et pour cause, totalement isolée dans l’Atlantique, l‘île ne bénéficie d’aucune interconnexion électrique pour compenser une baisse de la production électrique locale. El Hierro ne peut compter que sur elle-même. « Le réseau a été depuis le début notre principale préoccupation », se remémore Juan Pedro Sanchez, ingénieur en chef des études. Celui qui est également vice-président du Cabildo (autorité publique de l’île) poursuit : « Notre objectif est d’élever autant que possible la part de l’éolien dans notre mix électrique tout en assurant la stabilité du réseau, notre priorité ».

Optimisation du système

Mise en service en 2014 pour test, puis en opération commerciale il y a seulement 2 ans, la contribution de Gorona del Viento a atteint 42% en 2016 et vise les 70% cette année. L’île n’est donc pas 100% renouvelable comme il a pu être lu ici ou là, mais y avance à grand pas. En juin 2017, pour la première fois depuis sa mise en fonctionnement, la centrale de Gorona del Viento a alimenté à elle seule en électricité toute l’île pendant 6 jours consécutifs. Une performance que les équipes d’ingénieurs souhaitent surpasser.Dans l’ordre de priorité, l’éolien arrive toujours le premier. C’est sa production et surtout sa variation qui sont scrutées en temps réel par les équipes de la salle de contrôle. La fréquence sur le réseau, mise à mal par les variations inhérentes à l’éolien, est équilibrée grâce aux pompes (6×500 kW et 2x 1 500 kW) de la STEP qui remontent l’eau du bassin aval vers l’amont. Là encore, plusieurs systèmes complémentaires sont à l’œuvre : les pompes peuvent être mises en marche/à l’arrêt en cas de hausse ou de baisse sensible de la production du parc éolien. En cas de variations plus fines (les plus fréquentes) chaque pompe est équipée d’un volant d’inertie, opérationnel en quelques secondes.

im3
crédit : Romain Chicheportiche

Depuis la mise en service de la centrale, Juan Pedro Sanchez cherche à optimiser l’apport de l’éolien. Sa production est aujourd’hui injectée à hauteur de 60% directement sur le réseau, le solde (40%) faisant fonctionner les pompes. « Notre but est de consommer directement le plus d’électricité éolienne possible ». Pour cela, les autorités locales ont développé une approche globale de l’équilibre offre/demande.

Vision globale

Si Gorona del Viento répond à la problématique de la production d’électricité sur l’île, la question de la demande a également été étudiée. Une partie sensible de la consommation électrique de l’île est dédiée à l’usine de dessalement qui alimente en eau potable la population. Une activité importante puisqu’elle représente à elle seule près de 45% de la consommation totale ! L’usine s’est mise au diapason du réseau électrique et grâce aux modèles de prévisions fournis par Red Electrica de Espana, le gestionnaire du réseau, son activité est coordonnée avec les épisodes les plus venteux et se concentre la nuit. Cela permet de réduire considérablement la pointe électrique et de flexibiliser un peu plus le réseau.

im4
crédit : Romain Chicheportiche

La vision d’El Hierro ne s’arrête pas pour autant là. Décidées à bannir pour de bon les hydrocarbures, les autorités locales veulent désormais remplacer tous les véhicules thermiques de l’île par une version électrique. Un appel d’offres a été lancé pour l’installation d’une centaine de bornes de recharges publiques d’ici la fin de l’année. Un premier véhicule électrique est déjà opérationnel sur l’île.

Interrogé sur l’objectif d’atteindre 100% d’énergies renouvelables, Juan Pedro Sanchez admet qu’il sera difficile à atteindre dans les conditions actuelles, car il y a des périodes de l’année, notamment avril-mai où les vents sont faibles, très faibles, et la centrale thermique indispensable. Le bassin amont n’offre en effet qu’une autonomie de 3 jours à la centrale hydroélectrique. « Une solution pourrait consister à creuser un second bassin de stockage en amont. Mais il ne s’agit là que d’un projet », indique le vice-président. Un investissement important pour une île qui affronte un autre défi d’envergure : la baisse de sa population. De 11 000 habitants, El Hierro serait passé aujourd’hui à 8 000 âmes. Une baisse liée à la faible activité économique et au manque de perspectives pour la jeunesse. Un paradoxe pour cette île qui attire des délégations du monde entier, sans pour autant parvenir à retenir les siens…

Romain Chicheportiche

La France cède à Bruxelles sur les perturbateurs endocriniens

Les critères de définition des perturbateurs endocriniens proposés par la Commission européenne ont finalement été acceptés par les États membres, dont la France. « Nous progressons dans la voie de l’établissement du premier système réglementaire au monde qui comporte des critères juridiquement contraignants pour définir ce qu’est un perturbateur endocrinien », s’est félicité Vytenis Andriukaitis, commissaire pour la santé et la sécurité alimentaire. Le texte peut désormais être adressé au Parlement européen et au Conseil pour la suite du processus législatif.

Les critères s’appliqueront à l’issue d’une période de transition de six mois. Mais ils seront immédiatement appliqués « aux substances pour lesquelles une évaluation ou une réévaluation est en cours ou pour lesquelles des informations confirmatives quant à leurs propriétés endocriniennes ont été demandées », fait savoir la Commission.

Les mêmes critères devraient être adoptés pour les biocides, car « les propriétés qui font d’une substance un perturbateur endocrinien ne sont pas fonction de l’utilisation qui est faite de cette substance », précise la Commission.  Ensuite, les critères ainsi définis serviront de base aux législations d’autres secteurs, par exemple, les jouets, les produits cosmétiques et les emballages alimentaires. Par ailleurs, près de 50 millions d’euros seront alloués à une dizaine de projets en 2018 dans le prochain programme de travail Horizon 2020.

Des dérogations finalement maintenues

Les critères sont basés sur la définition de l’OMS. Ils prennent en compte « toutes les données scientifiques pertinentes, y compris les études menées sur les animaux et les études in vitro ou in silico », fait savoir la Commission. Mais ils ne visent que les « perturbateurs endocriniens avérés » et « présumés ». Rien sur les perturbateurs endocriniens « suspectés ». En l’état, selon les scientifiques et les associations, le niveau de preuve demandé pour identifier une substance comme perturbateur endocrinien reste trop élevé pour être efficace.

Le texte maintient aussi des dérogations pour des invertébrés, les arthropodes. Ces dérogations étaient pourtant une ligne rouge pour les associations environnementales. Nicolas Hulot avait également estimé que le texte proposé par la Commission européenne était insuffisant et « loin d’être parfait » le 23 juin dernier sur RMC. Il s’était notamment prononcé contre ces dérogations.Il a finalement reculé devant la pression de l’Allemagne. La France a ainsi voté cette résolution, abandonnant sa position de fermeté. La Suède et le Danemark  l’ont maintenu et ont voté contre, rejoints par la République Tchèque.

Les associations dénoncent des critères insuffisants

L’appel de trois sociétés scientifiques internationales d’endocrinologie demandant aux Etats membres de rejeter ces critères n’aura pas suffi. Pas plus que les 458.000 signataires d’une pétition dans toute l’Europe. L’association Générations Futures, très engagée sur ce dossier, appelle désormais le Parlement européen à rejeter ces critères. La coalition EDC Free Europe, représentant 70 organisations de la société civile européenne, l’appelle à faire de même.

Par Matthieu Combe, journaliste scientifique

Une nouvelle technique expérimentale pour des matériaux plus résistants aux déformations extrêmes

La compréhension du phénomène de fracture d’un matériau soumis à un taux de déformation intense est un problème crucial pour nombre de travaux de recherche. En dépit de son intérêt, son étude repose sur une description fine multi-échelle, entre l’échelle atomique et les processus macroscopiques qui sont seulement réalisables par des simulations atomiques. L’étude de ce type de phénomène, au niveau atomique et avec des résolutions temporelles très petites (de l’ordre de la picoseconde, 10-12 s) était jusqu’à présent hors de portée des techniques expérimentales.

Bruno Albertazzi, chercheur au Laboratoire d’utilisation des lasers intenses (LULI), s’est intéressé à développer une nouvelle plateforme expérimentale permettant de mesurer à l’échelle atomique une propriété fondamentale d’un matériau : sa pression de spallation (ou de fracture), en se concentrant plus particulièrement sur le cas du tantale. Ses travaux viennent de faire l’objet d’une publication dans Science Advances le 3 juin.

Afin de déterminer la pression de spallation à taux de déformation extrême d’un matériau, le chercheur du LULI et ses collègues ont menés une expérience sur SACLA au Japon permettant de coupler un laser optique de puissance avec un laser X (Xray free électron laser, XFEL). Le premier génère une onde de choc dans l’échantillon (qui simule la collision de débris, particules, etc… avec un matériau par exemple), et le second, un faisceau de rayon X, permet de sonder la matière au niveau atomique et d’en déterminer le niveau de fracture.

Les chercheurs se sont intéressés plus particulièrement à la pression de spallation (de fracture) du tantale, utilisé notamment dans la production de superalliages employés par exemple dans l’aéronautique pour la construction des aubes de turbines des réacteurs d’avion ou dans l’industrie nucléaire pour la construction de centrales de type ITER. Cette expérience a montré qu’il était possible de comparer directement les résultats expérimentaux avec des simulations atomiques de large échelle et de contraindre ainsi le potentiel interatomique du tantale.

Des applications industrielles innovantes

Connaître la pression négative à partir de laquelle un matériau se fracture à taux de déformation donné revêt un intérêt particulier dans de nombreux domaines, et notamment pour l’aérospatial. A titre d’exemple, les débris spatiaux, dont la vélocité moyenne est de l’ordre de 10 km/s, peuvent gravement endommager les satellites et les navettes. Si la pression de fracture des matériaux utilisés dans la construction de ces différents éléments aérospatiaux est connue, il devient alors possible de tester et de développer des matériaux innovants plus résistants.

Par Bruno Albertazzi
Diplômé de l’Université de Metz-Nancy et de l’Université de Lund (Suède), Bruno Albertazzi est docteur en physique de l’École polytechnique et de l’INRS-Energies, Matériaux et Télécommunications (Institut national de la recherche scientifique du Canada).

Source : cnrs

Manager les risques professionnels de façon collaborative avec RiskEV

RiskEV, logiciel d’évaluation et de gestion des risques professionnels, est conçu pour que chacun puisse y renseigner ou y trouver les informations dont il a besoin. Grâce à une gestion des accès fine et entièrement paramétrable, et à des versions spécifiques (lecteur, accès aux FDS…), RiskEV permet :

  • Au responsable HSE de gérer toutes les évaluations des risques, en passant par la pénibilité et le risque chimique, de réaliser le Document Unique et assurer la traçabilité des expositions,
  • Au directeur de site, au responsable industriel d’accéder aux données de son site et au suivi des actions en cours,
  • Aux ressources humaines d’accéder au décompte des points de pénibilité par salarié et par facteur de risque, de suivre l’exposition des salariés aux risques professionnels,
  • A tout salarié dans l’entreprise d’accéder aux fiches de données de sécurité et aux fiches de sécurité simplifiées qui le concernent.

La confidentialité des données reste bien sûr protégée grâce à la mise en place de droits d’accès différenciés selon les profils.

Important : le logiciel RiskEV n’est plus commercialisé
par Techniques de l’Ingénieur.

EPR de Flamanville : la cuve serait conforme !

« L’ASN considère que les caractéristiques mécaniques du fond et du couvercle de la cuve sont suffisantes au regard des sollicitations auxquelles ces pièces sont soumises, y compris en cas d’accident », fait finalement savoir l’ASN sur ce dossier rendu public en avril 2015. Soit neuf ans après la fabrication des pièces incriminées.

Areva, constructeur de la cuve, et EDF, exploitant de la centrale, peuvent être soulagés suite à cette première étape. La cuve serait donc suffisamment résistante malgré ses défauts de fabrication. Pour arriver à cette position, le gendarme du nucléaire s’est appuyé sur l’analyse des dossiers transmis par Areva et EDF, le rapport technique rédigé par l’Institut de radioprotection et de sûreté nucléaire (IRSN), et  l’avis de son groupe permanent d’experts pour les équipements sous pression nucléaire (GP-ESPN). Ce dernier groupe avait réuni lundi et mardi ses 31 experts.

Un fond à surveiller, un couvercle à changer d’ici 2024

L’ASN relève néanmoins « une diminution des marges vis-à-vis du risque de rupture brutale ». Elle somme donc EDF d’appliquer « des contrôles périodiques » sur le fond de la cuve « afin de s’assurer de l’absence d’apparition ultérieure de défauts ».

Mais ces contrôles seraient plus compliqués sur le couvercle, en raison des centaines de trous et conduits qui l’équipent. Dans ces conditions, l’ASN n’impose pas de contrôles complémentaires à EDF sur le couvercle. En revanche, elle somme EDF de le changer d’ici fin 2024. Pourquoi un tel délai ? Est-ce pour des raisons de sûreté ? Non. Il s’agit tout simplement de laisser le temps à l’énergéticien de commander un nouveau couvercle, puisque l’ASN estime que « la fabrication d’un nouveau couvercle  prendrait de l’ordre de sept ans ». Une décision qui va donc dans l’intérêt économique d’EDF qui pourra exploiter son réacteur de 1650 mégawatts en attendant.

Et maintenant ?

Le projet d’avis de l’ASN sera mis à la consultation du public dans les prochains jours jusqu’en septembre 2017. L’agence fait savoir qu’elle consultera aussi le Conseil supérieur de la prévention des risques technologiques. Son avis final sera rendu à l’issue de ces consultations en octobre 2017. Le débat sur la conformité de l’acier de la cuve n’est pas donc pas terminé.

Si son avis final est favorable, il restera à la cuve une ultime étape à franchir. Son circuit primaire principal devra en effet subir une épreuve hydraulique d’ensemble. Si tout est en ordre, EDF pourra démarrer son réacteur, comme prévu, fin 2018 pour une mise en service commerciale en 2019. Mais surtout, EDF pourra finaliser le rachat du groupe Areva NP, l’activité réacteurs du géant du nucléaire. La Commission européenne avait conditionné cette opération au feu vert de l’ASN sur la conformité de la cuve.

Par Matthieu Combe, journaliste scientifique

90% de solaire + éolien est possible avec seulement 10 heures de stockage batterie (étude australienne)

L’étude montre que le stockage batterie n’est nécessaire que quand le niveau d’EnR variables dépasse 40-50% explique le média spécialisé RenewEconomy, et qu’il est possible d’atteindre 90% de solaire + éolien quand on fait appel au stockage batterie.

En France le service presse de RTE parvient à des conclusions similaires : « des solutions ont été identifiées pour intégrer jusqu’à 40% d’énergie renouvelable à un coût raisonnable, sans nécessairement avoir besoin de stockage. RTE étudie avec ses partenaires européens des solutions pour aller au-delà de ce seuil. » C’est ce que rapporte le journaliste spécialisé Vincent Boulanger dans un article intitulé « Variabilité: le réseau sait gérer » et publié dans le numéro d’avril-mai 2017 du Journal des Energies Renouvelables.

Selon Boris Shucht, PDG de l’opérateur allemand 50 Hertz (équivalent de RTE) « il y a quelques mythes qui courent dans le monde de l’énergie. On peut prendre l’exemple de la considération voulant que l’intégration des énergies renouvelables exige tout de suite plus de flexibilité du système. C’est à dire du stockage, des capacités d’effacement ou davantage de centrales en back-up. C’est un mythe, nous avons plus de flexibilité dans le système que nécessaire ».

0,75 pour 1

Au niveau de l’architecture énergétique il faut pour chaque GW solaro-éolien une batterie (ou une STEP, qui est une « batterie gravitaire ») d’une puissance de 0,75 GW et d’un volume de 2,6 GWh. Ce qui correspond à 10 heures avec une puissance moyenne de 0,26 GW, soit le quart de la puissance solaro-éolienne installée.

Sur l’île de Kauai (Hawaï) 28 MW de solaire PV sont accompagnés d’une batterie Tesla de 20 MW / 100 MWh. Le prix du solaire + batterie est alors de seulement 11 US cents / kWh (environ 10 c€/kWh). Le rapport puissance solaire / puissance batterie est de 0,71 pour 1, ce qui est très proche du dimensionnement de l’étude australienne (0,75 pour 1). Les 100 MWh correspondent à environ 20 heures de stockage à la puissance moyenne. Plus on augmente le volume d’heures et plus le taux de pénétration EnR augmente. Il est probable que plus de 95% de l’électricité de cette île tropicale sera d’origine solaire à l’échelle annuelle. Les moins de 5% restants seront comblés par du back-up thermique classique.

Sur l’île de Tau 6 MW de solaire PV accompagnés de 6 MWh de batteries ont été installés par l’entreprise SolarCity (Tesla) pour rendre l’île autonome.  Ce territoire des Samoas américaines est à présent appelé « l’île de Tesla ».

Sur l’île portugaise de Graciosa l’architecture énergétique proposée par Younicos est de 4 MW / 3,5 MWh de batterie Lithium pour un total de 5,5 MW de solaro-éolien. Le ratio puissance est ainsi de 0,72 pour 1. La durée de stockage est en revanche assez limitée, d’environ 4 heures à la puissance moyenne, ce qui permet nénamoins d’envisager d’atteindre un taux d’EnR moyen annuel de 75% selon Younicos. Les 25% restants sont assurés par un back-up thermique classique qui coûte 10 fois moins cher qu’une solution à base d’hydrogène selon Toshiba Corp.

Le faux débat sur « l’inertie réelle »

Ce qui est possible sur l’île portugaise de Graciosa est-il possible en France si l’on considère le pays du « roi soleil » comme une île isolée ?   Contacté par Techniques-ingénieur.fr, Philip Hiersemenzel, le porte-parole Europe de l’entreprise berlinoise Younicos est catégorique: « c’est bien entendu possible en France mais aussi en Grande-Bretagne, qui est réellement une île ». L’expert a confirmé ce qu’il a expliqué via le média RenewEconomy : « Nous avons eu écho de la discussion sur l’« inertie réelle » et cela résonne de façon étrange pour nous. Il n’y a, bien entendu, absolument pas besoin d’« inertie réelle » plutôt que d’ « inertie synthétique » pour que le réseau électrique soit stable. En réalité si vous partez du postulat que de plus en plus d’électricité pourrait et va être délivrée à partir d’énergies renouvelables bon marché, propres mais intermittentes, alors l’« inertie synthétique » offre de nombreux avantages manifestes ».

Plus de 80% de solaire PV au sol en France grâce au stockage saisonnier hydrogène, ce projet est-il pertinent ? Pour Philippe Hiersemenzel « nous n’avons pas besoin de stockage saisonnier maintenant. Il faut d’abord atteindre 40%, puis 60% de renouvelables avec du solaire, de l’éolien et des batteries, et après on verra. »

«Nous pouvons atteindre plus de 70-80% de solaire et d’éolien avec le stockage par les STEP (Stations de Transfert d’Energie par Pompage) et/ou les batteries » souligne François Lempérière, président de l’association Hydrocoop et qui a été primé par l’Académie des Sciences, contacté par Techniques-ingénieur.fr.

François Lempérière a proposé plusieurs solutions de STEP innovantes, y compris des STEP marines, tout en soulignant que le potentiel continental en Europe reste très élevé. « Il n’y a pas de lobby des STEP en France » soupire l’ingénieur.

L’ingénieur Samuel Portebos, analyste senior de Clean Horizons Consulting, cabinet spécialisé en stockage, ne tarit pas d’éloges à propos du stockage batterie : « les batteries offrent au réseau des services comparables aux systèmes traditionnels sur le plan de la gestion de la tension et de la fréquence » a-t-il déclaré à Techniques-ingénieur.fr. « En réalité il s’agit même d’un service de qualité supérieure : le temps de réponse passe de quelques secondes à quelques millisecondes. »

François Lempérière souligne de son côté que « les STEP ont non seulement une haute efficacité mais en plus une durée de vie qui peut dépasser le siècle. Les pompes et les turbines peuvent durer 50 ans ».

En Australie cette solution de stockage est considérée avec un grand intérêt. Et ceci même si Elon Musk a proposé d’y construire une centrale de stockage batterie de 100 MW en moins de trois mois.

Par Olivier Daniélo

SKF et Atos : ensemble pour relever le défi de l’industrie du futur

Quelle est votre lecture des mutations que connaît actuellement l’industrie ?

Frédéric Ponson : Depuis maintenant près d’un siècle, des progrès extraordinaires ont permis d’améliorer considérablement la productivité, la qualité et la sécurité. Mais ces avancées ont toujours été progressives. Au fond, nos processus de fabrication ont assez peu évolué ces dernières décennies. Pourtant, aujourd’hui, avec l’irruption de nouvelles technologies comme la fabrication additive, l’Internet des objets ou l’intelligence artificielle, tout est brutalement remis en question : métiers, produits, usines, chaînes de valeur, modèles économiques… C’est une véritable révolution !

Steve Péguet : Auparavant, l’informatique consistait à modéliser la réalité pour mieux la gérer. Mais aujourd’hui, grâce aux capteurs et aux objets connectés, les données viennent de l’environnement lui-même. La réalité s’impose aux systèmes d’information et non plus l’inverse. Ce renversement de paradigme est source d’opportunités en termes d’excellence opérationnelle et de nouveaux services mais aussi de menaces, notamment autour de la propriété intellectuelle. Pour les industriels, l’enjeu est de parvenir à basculer de l’ancien monde vers le nouveau. On parle beaucoup de convergence IT/OT, et elle comporte un volet important de cybersécurité.

L’open innovation, c’est le partage des idées, des risques et des résultats.
Steve Péguet, Directeur de l’Innovation, Atos France

Dans ce contexte, quel est le sens de la collaboration entre SKF et Atos ?

F.P. : On le voit, pour un industriel, l’IT n’est plus considéré comme un outil support mais comme un facteur clé de différenciation et de compétitivité. Nous devons donc envisager les nouvelles technologies sur le même plan que les autres composantes de notre cœur de métier. C’est un changement culturel majeur. Avant d’être technique, le défi est avant tout  humain. Il faut surmonter les barrières de la crainte et de l’indécision et pour cela, nous partageons la conviction que l’open innovation a un rôle déterminant à jouer. En effet, par son expertise, Atos se pose en tiers de confiance entre la technologie et SKF. De cette façon, l’organisation peut accepter, digérer et assimiler plus vite la nouveauté et réellement s’approprier la transformation digitale.

S.P : Selon nous, l’open innovation, c’est le partage des idées, des risques et des résultats. Aussi, il ne s’agit pas tant d’aider les industriels à concevoir et à mettre en œuvre des solutions innovantes, que de nous positionner en véritable partenaire, impliqué et prêt à envisager tous les modes de collaboration. C’est de cette manière que l’on innove vraiment, que l’on crée de la valeur et que, nous concernant, nous pouvons rester à l’avant-garde des technologies et des usages.

Cette collaboration se traduit notamment par l’organisation du challenge « Industrie du futur » destiné aux startups. Pouvez-vous détailler cette opération ?

S.P. : Au monde réel, se superpose désormais un monde numérique qui couvre toute la chaîne de valeur, de la conception à la maintenance. Entre ces deux dimensions, il se créé des passerelles matérielles ou logicielles souvent développées par des startups ou des PME high tech. L’objectif de ce challenge est d’identifier les acteurs émergents les plus prometteurs et de les aider à finaliser leur offre technologique en les confrontant aux exigences du réel.

F.P. : Des sujets comme les matériaux, les procédés de fabrication, l’usine connectée ou encore le machine learning pourront être abordés. En juillet, douze candidats seront sélectionnés et accompagnés jusqu’à la grande finale qui aura lieu le 8 novembre à la SKF Solution Factory située à St-Cyr-sur-Loire. Qu’un leader de l’industrie et un leader de l’IT s’associent pour solliciter l’implication des startups est assez unique. Les participants vont bénéficier d’une double expertise, industrielle et technologique et d’un environnement d’expérimentation grandeur nature. Pour eux, ce sera un formidable accélérateur.

L’industrie 4.0 ne sera pas un empilement de technologies mais un tissu humain, ouvert et régénéré.
Frédéric Ponson, Directeur de l’Ingénierie, SKF France

Quelles retombées en escomptez-vous ?

S.P. : Aux États-Unis, peu de startups se consacrent au secteur de l’industrie. La Silicon Valley n’a pas d’usines. C’est une opportunité formidable pour l’Europe et la France en particulier, qui est à la fois le pays des startups et en pleine reconquête industrielle. Nous espérons qu’en unissant nos forces, nous parviendrons à montrer la voie à suivre. C’est d’ailleurs pourquoi Techniques de l’Ingénieur s’est associé à ce challenge afin de diffuser et de faire connaître largement ces innovations auprès des industriels. Pour Atos, l’objectif est de construire des mines d’or autour de pépites en devenir. Nous avons tout intérêt à aider nos futurs fleurons technologiques à devenir les leaders mondiaux de demain.

F.P. : Notre succès se mesurera surtout à la qualité des relations qui s’établiront entre chacun. Un écosystème, ce sont d’abord des hommes et des femmes qui s’estiment, se font confiance et ont envie de travailler ensemble. L’industrie 4.0 ne sera pas un empilement de technologies mais un tissu humain, ouvert et régénéré.

 

Retrouvez tous les détails du challenge Industrie du Futur sur : agorize.com/industrie-du-futur

Chimie du végétal : pourquoi cette filière prometteuse ne se développe-t-elle pas plus vite ?

Pour l’association pour la chimie du végétale (ACDV), la France possède trois atouts essentiels pour créer une filière forte, stable qui embauche et crée de la valeur :

  • la disponibilité des matières premières, la France étant la première place agricole de l’Europe
  • un tissu industriel riche, la France se plaçant à la deuxième place des industries chimiques en Europe
  • des filières agro-industrielles (première transformation) déjà bien structurées

S’ajoute à cela le fait que cette filière offre de nouveaux débouchés à l’agriculture et que le développement durable devient une référence forte en matière de modèle économique. La chimie du végétal s’inscrit donc totalement dans les objectifs de développement d’une chimie verte souhaitée par les industriels du secteur et de manière plus globale dans des objectifs stratégiques d’utilisation renforcée de la biomasse.

Une R&D de pointe, une forte valeur ajoutée

La filière se construit autour d’une très forte R&D, l’innovation étant l’un des principaux moteurs pour devenir compétitif face aux produits d’origine fossile. Cela passe, d’une part, par la recherche de produits présentant de nouvelles fonctionnalités. C’est par exemple le cas de l’isosorbide, une molécule d’origine végétale qui n’existe pas en version fossile mais qui peut se substituer à des composés issus des polycarbonates tout en améliorant les propriétés optiques, la résistance aux UV ou aux hautes températures. Mais l’innovation peut aussi concerner tous les moyens de devenir plus compétitif, à l’instar du développement de nouveaux procédés de fabrication. Pour l’ACDV, cette nécessité d’innover confère à la filière un atout économique non négligeable : « une très forte valeur ajoutée, de l’ordre de 400 000 euros de chiffre d’affaires par emploi, l’un des ratios les plus élevés de la bioéconomie », précise ainsi l’association.

L’agro-industrie française prête à l’emploi

Les industries de premières transformations, qui assurent le lien entre la chimie et les agriculteurs/sylviculteurs qui produisent la biomasse, sont bien établies en France. Elles convertissent les ressources végétales en matières premières de base comme l’amidon, les sucres, les huiles, les fibres etc. Et la nouvelle chimie du végétal et les matériaux biosourcés représentent pour ces industries de transformation un débouché non négligeable de l’ordre de 15% en moyenne mais pouvant atteindre 35% pour les produits amylacés par exemple. Depuis 2005, note l’Ademe, le tonnage à destination des matériaux et produits biosourcés (hors secteurs traditionnels comme la papeterie par exemple) n’a cessé d’augmenter et vient même compenser la baisse de demande des secteurs traditionnels. La France produit donc l’essentiel des matières premières nécessaires à la filière de la chimie du végétal, à l’exception des huiles, dont une bonne partie provient de plantes tropicales (notamment ricin, palme, coprah).

Faible impact environnemental ?

De manière général, l’Ademe note que l’impact environnemental des produits biosourcés est moindre, mais l’agence met en garde contre une approche simpliste : les produits de la chimie du végétal doivent être évalués comme les autres, avec une analyse complète du cycle de vie.

En ce qui concerne d’éventuels conflits d’usage, l’impact aujourd’hui est plutôt faible : selon l’ACDV le secteur emploi 30Mt de matières premières végétales récoltées sur 6 millions d’hectares soit 0,4% des terres arables. A court-moyen terme, même si les tonnages doublaient la demande ne serait pas suffisamment forte pour être préoccupante. Et dans tous les cas très loin des questions que posent la filière biomasse-énergie, notamment celle des biocarburants.

Quels obstacles se dressent encore ?

La France compte de grandes entreprises qui misent résolument sur le développement de la chimie du végétal et ont entamé une véritable politique pour biosourcer leurs matières premières. Néanmoins, le taux de pénétration sur les marchés restent faible : en 2012 seuls 3,3% des produits simples comme les résines, les solvants ou les tensioactifs consommés en France sont biosourcés et 1,6% des produits formulés (colles, composites, détergents) explique l’Ademe. Même si les scénarios de prospective annonce que ce taux devraient doubler ou tripler d’ici 2030, cela reste encore modeste. Le potentiel de progression est très variable selon les secteurs. Par exemple, sur le secteur des cosmétiques, le taux de pénétration est déjà de 100%, c’est-à-dire que tous les produits cosmétiques intègrent désormais des composés issus du végétal. Pour autant le potentiel de progression est encore important car en moyenne, dans un produit cosmétique, on trouve 40% d’ingrédients issus de la biomasse. Ce taux présente encore une marge d’augmentation notable, d’autant que la demande de la part des consommateurs est extrêmement forte. Pour améliorer la situation, les professionnels de la filière sont catégoriques : il faut soutenir l’industrialisation de l’innovation, équilibrer la fiscalité avec les concurrents fossiles en prenant en compte leur très grande externalisation et continuer de favoriser l’achat de produits biosourcés.

De la chimie du végétal à la bioéconomie

Depuis quelques années, le gouvernement français a pris la pleine mesure du potentiel de la filière de la chimie du végétal et lui réserve une place de choix à la fois dans des dispositifs d’aide à l’innovation et de soutien économique et dans les grandes stratégies de développement ou les lois encadrant l’avènement d’une économie plus durables. Ainsi, on retrouve des leviers de soutien dans le cadre des plans de la nouvelle France industrielle ou encore des contraintes réglementaires encourageant l’emploi de la biomasse dans la loi de transition énergétique. Depuis janvier 2017, la forte volonté politique de créer des filières complètes autour de la biomasse qu’elle soit d’origine terrestre, marine ou issue de déchets s’est traduite par la publication de la stratégie nationale bioéconomie dans laquelle la chimie du végétale a toute sa place. La fragilité de la filière tient aujourd’hui, comme dans de nombreux secteurs en France, à des facilités pour les entreprises de se développer après la phase d’amorçage ou de recherche, pour passer au stade industriel et commercial.

Par Sophie Hoguin

Emploi : des compétences transversales difficiles à trouver

La chimie a enregistré une forte baisse de ses emplois directs entre 2000 et 2010 (-54000). Depuis, l’emploi stagne ou augmente légèrement. Dans ce contexte, l’avènement d’une chimie du végétal fait naître de nombreux espoirs de relance des embauches dans le secteur avec, en parallèle, l’apparition de nouveaux métiers, ou plus exactement de nouvelles compétences.

Près de 15% des emplois directs

Dans une étude d’Alcimed pour l’Ademe datant de mai 2012, la chimie du végétal* représente quelques 23000 emplois directs et 63000 indirects. Soit près de 15% des effectifs globaux du secteur de la chimie et une participation de 10% aux emplois directs. L’évolution prospective prévue par cette étude était très favorable puisque à l’horizon 2020, les auteurs estimaient probable une augmentation de 50% des emplois directs (36000) pour le scénario médian. Reste que ces chiffres recouvrent des réalités, des postes et des carrières très hétérogènes car la chimie du végétal touche des secteurs et des marchés très divers : agro-industriels, chimistes, industries des biotechnologies travaillant pour la chimie de spécialité, la cosmétique, les matériaux ou encore l’énergie. Dans ce cadre, il est toujours délicat de construire et de trouver des statistiques vraiment fiables pour l’emploi ou l’économie et très difficile de prédire avec certitude les évolutions.

Trente-deux métiers stratégiques

Une étude réalisée par l’Apec en 2014 pour le compte du pôle de compétitivité Industries et Agro-ressources (IAR) et l’UIC Picardie Champagne-Ardenne, identifie 32 métiers stratégiques qui représentent donc un rôle clé pour la valeur ajoutée d’une entreprise à l’horizon 3-5 ans. Elle souligne particulièrement le besoin en compétences élevées de cette filière en construction.

Le secteur de la chimie présente déjà la particularité d’avoir un taux d’encadrement supérieur à la moyenne nationale du secteur privé (30% au lieu de 18%), mais la chimie du végétal accentue encore cette demande expliquent les auteurs de cette étude. Les qualifications de haut niveau étant attendues tant pour la R&D que pour le management d’installations industrielles. Quant aux professions non-cadres, on n’attend aussi qu’elles montent en compétences.

Mettre en place la transversalité

Plus que de nouveaux métiers ou de réelles nouvelles compétences, l’enjeu stratégique de la filière en matière d’emploi est celui de l’interdisciplinarité et de la transversalité. Car la chimie du végétale est une filière qui part de l’agricole jusqu’à des produits finis très divers. Il faut donc construire la production via un dialogue de toutes ces parties qui n’ont pas forcément l’habitude de communiquer et qui ont des parcours de formations souvent très distincts. La construction de la filière et de ses compétences repose sur une acculturation des uns et des autres. Un processus qui risque de prendre du temps.

Des compétences systémiques très attendues

L’ancrage de la chimie du végétal dans un souci de développement durable et son inscription dans une filière très complète (de l’agriculture à la gestion de la fin de vie) nécessite de faire appel à de nombreuses compétences de gestion et d’optimisation des systèmes tels que l’analyse du cycle de vie à la fois en amont (gestion des ressources primaires et secondaires – coproduits), pendant la production (optimisation des procédés, de la maintenance etc) et en aval (évaluation des impacts, prévision de la fin de vie, recyclage).

Manager l’innovation, anticiper les marchés

Autant les industriels semblent confiants dans la capacité du marché de l’emploi à leur fournir des ingénieurs et cadres compétents pour la R&D autant ils sont plus prudents sur les postes de management : en effet, la chimie en général et la chimie du végétal en particulier nécessite de faire appel à des managers ayant un socle de connaissances scientifiques solide tout en étant capables de piloter des projet, diriger des équipes et suivre l’ingénierie de l’innovation (financement, partenariat public-privé, brevets, licences) ainsi qu’en anticipant le marché (gestion des achats sur les filières parfois très volatilse du végétal, garantie des débouchés). Là encore, une nécessaire formation pluridisciplinaire à la fois scientifique et managériale est nécessaire et pas forcément très disponible.

Par Sophie Hoguin

La chimie du végétal s’implante dans tous les secteurs

Le développement de nouveaux produits issus de la chimie du végétal se fait sous deux impulsions en parallèle. L’une vient de grands groupes industriels, chimistes ou non, l’autre de start-ups qui cherchent des technologies de rupture et assurent tout un pan de l’innovation.

Quelle que soit la voie empruntée, l’enjeu reste de trouver un marché preneur en se montrant compétitif et innovant.

Agro-industriels : piliers et moteurs de la filière

En amont de la filière de la chimie du végétal, on trouve de grands groupes agro-industriels comme Avril – ex-Sofiprotéol pour les oléagineux, Tereos pour le sucre ou  Roquette pour les produits amylacés… Ils assurent la transformation de la matière première et sont l’un des moteurs de cette chimie de la biomasse car ils investissent massivement dans la recherche tant en interne que via des pôle d’innovation, des fonds de soutien aux start-ups ou des partenariats divers. A titre d’exemple, le groupe familial Roquette, spécialiste des produits amylacés dérivés du maïs, du blé ou de la pomme de terre pour les secteurs de la nutrition, la pharmaceutique, la chimie de base ou le papier-carton, s’intéresse désormais aussi au secteur des plastiques, des revêtements ou des peintures biosourcées et ses matières premières se sont élargies au pois pour l’exploitation des protéines.  Aujourd’hui, le groupe représente près de 25 à 30 brevets déposés par an, un réseau de recherche mondial auquel participent plus de 300 chercheurs, plus de 10% du chiffre d’affaires (de l’ordre de 3 Md €) sont réinvestis dans la recherche et le développement industriel. Et la R&D porte tant sur le développement d’intermédiaires biosourcés comme l’isosorbide qui présente des propriétés innovantes permettant de créer de nouveaux matériaux moins nocifs ou la recherche de nouvelles voies de production de composés de la chimie classique à l’instar de l’acide succinique BiosucciniumTM, certifié Ecocert, qui peut entrer dans la composition tant de polyuréthanes que d’émulsifiants.

Chimistes : la biomasse, une ressource comme une autre

Parmi les grands chimistes, plusieurs ont déjà pris le virage de la chimie du végétal en cherchant activement à utiliser des matières premières biosourcées pour leurs productions et leurs innovations. Un développement qui s’est souvent fait par une croissance externe à l’instar de Solvay dont la politique en matière de développement durable et de chimie du végétal a réellement bondi avec l’acquisition en 2011 de Rhodia (spécialiste par exemple de l’extraction de glycérol à partir de l’huile de colza ou de palme). Pour Arkema, la chimie du végétale est à la fois une histoire de croissance externe et à la fois un fait historique. En effet, le français fêtait ainsi début juin 2017, les 70 ans du Rilsan® PA 11, un polyamide produit à partir d’huile de ricin. Produit phare, il a depuis été décliné et amélioré pour produire des polyamides résistants aux hautes températures ou un polyamide transparent flexible pour les montures de lunettes, l’électronique ou le médical. L’activité de recherche du groupe de chimie a aussi donné le Fiabalin, un composite thermoplastique à base de polymère et fibre de lin et le chimiste travaille par exemple à trouver de nouvelles ressources dans le cadre du projet européen Cosmos sur la cameline et le crambe, deux plantes oléagineuses méconnues.

Cosmétiques : le très grand marché du biosourcé

Indéniablement, les cosmétiques sont l’un des grands secteurs de la chimie du végétal. Inutile de parler d’Yves Rocher dont c’est la marque de fabrique, tous les fabricants aujourd’hui intègrent des ingrédients végétaux. L’Oréal, par exemple, annonce que 80% de ses matières premières sont biosourcées. Cependant, dans la cosmétique, la chimie du végétal ne concerne pas seulement l’approvisionnement mais aussi les procédés de fabrication avec des biotechnologies blanches telles que l’extraction sans solvants par catalyse enzymatique ou la bioconversion (transformation de composés chimiques par des systèmes biologiques comme des micro-organismes). L’axe développement durable – santé sans produits chimiques étant devenu un argument de vente central pour le secteur.

Automobile : 40% des composites biosourcés

Le secteur automobile est devenu friand de plastiques et de composites biosourcés qui viennent remplacer métaux et plastiques traditionnels. Pour cette industrie, cela permet d’atteindre plusieurs objectifs : amélioration de l’empreinte carbone et allègement de la structure (et ainsi diminution de la consommation de carburant). D’autant que la recherche de matériaux biosourcés s’est accompagnée de l’amélioration de nombreuses propriétés : meilleures qualités d’absorption des bruits et des vibrations, meilleure résistance à la rupture, aspect et texture plus esthétique ou confortable. C’est ainsi que 40% du marché des composites biosourcés est aujourd’hui dédié au secteur automobile principalement par l’utilisation de fibres naturelles (lin, chanvre, cellulose) à la place des fibres de verre. Les pneus sont aussi devenus le siège d’une intense recherche pour s’affranchir de la pétrochimie et sont en train de donner naissance à une filière française sous l’impulsion de Michelin et son projet Bio Butterfly initié en 2013. Il s’agit d’utiliser des déchets forestiers et agricoles pour produire du biobutadiène. La technologie est maintenant validée et une usine préindustrielle expérimentale a été annoncée en 2016 à Bassens (Gironde). Le planning du projet prévoit le lancement d’une unité de production de 150 000 tonnes/an vers 2022 en tablant sur le fait que le prix du pétrole remontera pour permettre d’être compétitif.

Détergents, peintures : des huiles très actives

Pour les détergents et les peintures, la chimie du végétal apporte des ingrédients présentant plusieurs avantages qui ont séduit ces deux secteurs : une plus grande biodégradabilité, beaucoup moins de composés toxiques (COV notamment) qui confèrent aux produits qui les utilisent une meilleure adéquation avec la réglementation (Reach par exemple) ou avec les attentes des utilisateurs. Pour les détergents, la chimie du végétal a trouvé un bon débouché sur le segment des tensioactifs dont 40 à 50% sont maintenant biosourcés, principalement par l’emploi d’huile végétale (palme, soja, coco). Les huiles végétales sont aussi une source première pour la fabrication d’ingrédients de peintures moins nocives pour l’environnement et la santé.

Sophie Hoguin

La biomasse d’origine marine peut tout faire

Les algues contiennent à la fois de la cellulose, des colloïdes, des pigments, des protéines, des minéraux, et d’autres molécules actives variées selon les espèces. Un potentiel énorme pour la chimie du végétal autour duquel émergent nombres de projets et d’applications.

La France : une place de choix pour l’algue

Au niveau géographique et climatique, la France, et notamment la Bretagne, occupe une place de choix pour la culture et l’exploitation des algues. Outre la recherche de solutions pour les marées vertes, le développement d’une économie autour des algues est une opportunité pour assurer l’avenir économique de la région : implantations de structures de recherches et d’innovation autour des biotechnologies, complément / alternative d’activité pour l’aquaculture, la pêche et utilisation des infrastructures déjà existantes : entrepôts de stockage réfrigérés, chaîne logistique, possibilité d’industries autour de la santé/cosmétique naturel, de l’agro-alimentaire et de l’énergie. Et en toute logique, la Bretagne abrite donc depuis 1982, un centre technique unique au monde, le CEVA, centre d’études et de valorisation des algues, qui soutient les industries et l’innovation depuis l’étude des algues dans leur milieu jusqu’à la construction de pilotes industriels.

Un renouveau pour des secteurs traditionnels

La filière algues s’intègre parfaitement aux filières traditionnelles de la Bretagne et l’un des exemples types est celui du projet Ulvans. Lancé en 2012, ce projet a la particularité de s’attaquer à l’ensemble de la filière de la récolte à la transformation. Il réunit quatre entreprises autour d’Olmix group. Il a notamment abouti à la construction de la première bioraffinerie d’algues au monde en septembre 2013 qui traite plusieurs tonnes d’algues vertes (les ulves), brunes ou rouges quelques heures après leur récolte. L’innovation a d’ailleurs aussi touché les modes de récolte pour lesquelles Agrival a dû développer des machines spécifiques (voir cette vidéo de Ouest France). Broyées, pressées, centrifugées, les algues subissent aussi des traitements enzymatiques pour en séparer et extraire les molécules d’intérêt. Sucres et protéines servent à l’alimentation animale et les différents principes actifs sont utilisés pour la santé animale (ce qui permet de diminuer l’appel aux antibiotiques) la santé des plantes (alternative partielle à l’emploi de produits phytosanitaires) ou des applications telles que gélifiants, émulsifiants, épaississants ou autres molécules santé et fonctionnelles pour l’alimentation humaine.

Pour Olmix, c’était le prolongement naturel après la mise au point de son Amadéite®, un nanomatériau naturel breveté à base d’argile intercalée et d’algues qui trouve des utilisations pour des matériaux à destination de l’automobile, de la plasturgie ou du bâtiment (ciment) grâce à des propriétés mécaniques, de tenue au feu, de stabilité thermique et de perméabilité aux gaz ou aux hydrocarbure améliorées.

Peintures et plastiques 100% naturels

Les algues sont à l’origine de plusieurs matériaux 100% naturels, nés eux-aussi en Bretagne. Les peintures Algo par exemple, qui après avoir reçu le grand prix entreprises et environnement français fin 2014 ont reçu l’équivalent européen en novembre 2016. La peinture Algo est biosourcée jusqu’à 98%, elle émet moins d’1g/L de COV et les algues lui apportent des propriétés physiques particulières telles que l’anti-coulure ou l’opacité, augmentant le rendement (12 m²/litre). Les algues peuvent aussi être introduites dans l’industrie des plastiques comme le fait depuis 2015 l’entreprise Algopack, qui a mis au point des plastiques tout ou partie composés d’algues.

Un débouché pour les macro-algues échouées que souhaite développer le projet Alguex, qui a démarré en avril dernier pour une durée de 2 ans. Il vise à valider des démonstrateurs pré-industriels pour la production de résine biosourcée à 45% minimum et compostable pour des emballages flexibles et des résines non biodégradables pour plastiques rigides type container à déchets. Le projet prévoit l’utilisation non seulement de macro-algues échouées mais l’utilisation de micro-algues cultivées.

Les algues dopent aussi l’électrochimie

On les attendaient moins à ce niveau, mais les algues inspirent aussi des innovations en électrochimie par exemple. Par biomimétisme tout d’abord. Des chercheurs de Singapour se sont inspirés de la manière dont les diatomées bâtissent une structure tridimensionnelle poreuse hierarchisée (des sphères de silice microporeuses, elles-mêmes espacées par des pores plus grands (2-50 nm) qui permettent d’augmenter la surface d’échange). Calquant leur process sur les diatomées, ils ont créé des anodes composées de sphères de carbone dopées à l’azote qui présentent des performances décuplées. De leur côté une équipe internationale (Chine- Australie-USA) a montré que l’utilisation d’alginates issues d’algues brunes pour provoquer la chélation d’ions cobalt permettait de créer des nanofibres de carbone que l’on peut doper à l’azote. Les anodes fabriquées à partir de ce matériau présentent une capacité presque deux fois plus importante que des anodes en graphite classiques. Un an avant, en 2014, des chinois avaient présenté des anodes plus performantes fabriquées avec un liant basé sur un hydrogel d’alginate.

Sophie Hoguin

La France attendue sur les perturbateurs endocriniens à Bruxelles !

La polémique enflait suite aux révélations du journal Le Monde. Selon ces informations, la France serait le point d’accepter la proposition de critères élaborée par la Commission européenne. Mais Nicolas Hulot, ministre de la transition écologique et solidaire a rapidement réagi. « La santé doit primer sur toutes les autres considérations », a-t-il répondu le 23 juin sur RMC/BFTMV.

Dans ce cadre, il a qualifié le texte en discussion au niveau européen d’« insuffisant ». « La France va rester ferme, car mon rôle est de protéger les Français sur ces empoisonnements que nous distillons depuis des années et des années », a-t-il prévenu. En l’état, il juge les dérogations prévues comme étant « inacceptables ». Et il a entamé des négociations avec l’Allemagne jusqu’au vote prévu le 4 juillet à Bruxelles. La définition de ces critères est d’autant plus importante qu’elle servira ensuite à éliminer les perturbateurs endocriniens présents dans les emballages, les médicaments, les cosmétiques, les meubles…

Des dérogations qui inquiètent

Une nouvelle disposition est apparue dans le texte en décembre 2016. Celle-ci prévoit une dérogation pour les pesticides dont le mode d’action est basé sur la perturbation endocrinienne des organismes jugés nuisibles. Et ce, même s’ils ont des effets sur des invertébrés non ciblés. « C’est complètement inacceptable, puisque cela veut dire que l’on remet l’efficacité en premier et que l’innocuité sur l’environnement, on s’en fiche complètement », s’indigne François Veillerette, porte-parole de Générations Futures. Cette dérogation aurait été introduite pour répondre aux demandes des entreprises allemandes de la chimie.

La Commission a retenu trois critères pour classer une substance de perturbateur endocrinien. Il faut que celle-ci fasse apparaitre des effets indésirables, un mode d’action endocrinien et une corrélation entre les deux. Le débat se cristallise autour du poids de la preuve. À partir de quand, estime-t-on que les preuves scientifiques sont suffisantes ? Les premières propositions excluaient les perturbateurs endocriniens suspectés pour ne retenir que les avérés. Il y a eu des avancées sur ce point. Mais les associations estiment que le niveau de preuve exigé par les critères est encore trop élevé.

Seuls la France, le Danemark et la Suède s’y opposent, constituant une minorité de blocage. Avec un nouveau vote prévu le 4 juillet, les associations et les scientifiques montent au créneau pour appeler la France à voter contre. Car« si la France tombe, il n’y a plus de minorité de blocage », prévient François Veillerette.

ONG et scientifiques s’en mêlent !

Trois sociétés savantes d’endocrinologie ont adressé une lettre le 15 juin dernier aux ministres des Etats membres. Ils les appellent tout simplement à rejeter le projet de la Commission européenne. Selon eux, « les critères manquent de cohérence et ne seront pas efficaces ».

Par la suite, la coalition EDC Free Europe, représentant 70 organisations de la société civile européenne ont adressé une lettre ouverte à Nicolas Hulot. Ils lui demandent de « rejeter cette proposition, pour faire honneur aux engagements présidentiels d’Emmanuel Macron et à l’approche ambitieuse adoptée jusqu’à présente par la France ».

Selon Santé publique France, plusieurs études font état d’une apparition plus précoce des signes de la puberté en France et dans les pays développés, en lien avec ces produits. Et une étude récente évalue les impacts des produits chimiques sur les systèmes de santé européens à au moins 157 milliards d’euros par an, sans prendre en compte les cancers.

Par Matthieu Combe, journaliste scientifique

Le machine learning, appliqué à l’imagerie médicale

L’apprentissage automatique (ou machine learning) est d’après Arthur Samuel – pionnier américain du jeu sur ordinateur, de l’intelligence artificielle et de l’apprentissage automatique – une science qui permet de donner « à un ordinateur la capacité d’apprendre sans avoir été programmé pour effectuer une tâche ». Un exemple récent, qui a coupé le souffle à la communauté scientifique, est la partie de go entre le Sud-Coréen Lee Sedol et la machine AlphaGo. Cette intelligence artificielle a été conçue sur la base du machine learning dans le but de jouer spécifiquement à ce jeu. En effet, le go présente un nombre de possibilités de jeu bien supérieur aux échecs et il est évident que les dévelopeurs d’un tel programme ne peuvent pas ajouter chacun des mouvements possibles à la machine. Il faut donc que l’ordinateur ‘apprenne’ en jouant contre lui-même pendant plusieurs mois durant !

Mais cette fois-ci, le machine learning a été mis à profit d’une cause moins ludique : l’imagerie médicale. Tout a commencé dans le kibboutz de Shefayim entre Tel Aviv et Haifa. Ce kibboutz est connu comme étant extrêmement robuste financièrement, n’ayant eu besoin d’une aide financière lors de la crise de 1980. Dans cet environnement extrêmement technologique, la startup Zebra Medical Vision propose une application différente du machine learning : apprendre à un ordinateur à détecter une maladie en observant des images provenant d’imageries médicales conventionnelles. Et l’enjeu est de taille car l’entreprise estime que plus d’un milliard de personnes sont bénéficiaires des services d’imageries tels que l’IRM, les scanners X ou les scanners TEP. Cependant, pour le moment, toutes ces images produites ont besoin d’un spécialiste pour les analyser- et parfois simplement pour une vérification de routine ou pour des problèmes évidents comme un os cassé – ce qui entraîne naturellement une augmentation des frais médicaux.

Pour ‘apprendre’ à l’ordinateur à analyser ces images, des milliers d’images de patient-e-s déjà analysées par des spécialistes ont été chargées sur le programme. L’ordinateur utilisant un algorithme appelé Emphysema a donc appris à avoir le même résultat que le ou la radiologue. Finalement, cela revient un peu au même apprentissage que celui effectué par le ou la spécialiste durant sa formation où il ou elle apprend à reconnaître des ensembles de points qui semblent suspects dans une image. L’entreprise a fait le choix de s’intéresser en priorité aux os, au foie, aux poumons et au cerveau, combinant les trois techniques médicales évoquées ci-dessus.

Dans un entretien avec le Monde, Alain Livartowski, oncologue et directeur des données à l’Institut Curie à Paris affirme : « Cela peut être comparable à ce qu’ont apporté les IRM en neurologie. Les ordinateurs ne fatiguent pas, n’ont pas d’a priori, voient des choses qui échappent à l’homme ». Ils sont aussi plus rapides. « Les IA sont en outre moins sensibles que les humains au paiement à l’acte et n’ont pas d’ego qui peut fausser leur jugement », ajoute le docteur Laurent Alexandre, président de la société de séquençage DNAVision.

Alors que certains se disent probablement « Voilà la fin du travail du ou de la radiologue », rien n’est moins certain ! Des personnes travaillent encore à améliorer des techniques médicales pour obtenir de nouvelles formes « d’empreintes digitales » spécifiques à certaines maladies afin d’améliorer le diagnostic. Si ce logiciel fait ses preuves, il sera utilisé vraisemblablement comme un premier avis pour des cas peu complexes, mais aura l’avantage de pouvoir s’adapter au fur et à mesure que la recherche avance.

Rédacteur : Samuel Cousin, post-doctorant à l’Institut Weizmann

Source : Ministère des Affaires étrangères et du Développement international, Ambassade d’Israël  – Article d’origine

Salon de l’aéronautique du Bourget : 5 drones made in France

Le Patroller de Sagem / Safran

Cocorico. Ce drone français peut voler jusqu’à 24h sans s’arrêter, embarquer 250 kg de matériel et se montrer d’une discrétion absolue grâce à une innovation qui atténue sa signature infrarouge.

Patroller-UAV-Sagem

Mais surtout, son système évolutif multi-senseurs lui permet de s’adapter à chaque nouvelle mission qui lui est confiée. Cette grande modularité est incontestablement l’un de ses principaux atouts !

infographie_patroller_fr

Consulter le site internet de Safran

 

Le drone Spy’Ranger de Thalès et Aviation Design

Voici le nouveau drone de reconnaissance de l’armée française ! Thalès a remporté ce marché face à Airbus qui proposait le drone Skyghost de sa filiale Survey Copter et l’Israélien Elbit.
Résultat :  une commande de 210 drones (100 millions d’euros).

spy_drone_thales

Transportable en sac-à-dos, il pèse moins de 15 kg et possède une autonomie de 2h30. Déployable en 12 minutes, l’engin transmet des vidéos en temps réel jusqu’à 30 km de la station.

Spy’Ranger équipera les forces françaises à partir de 2019.

Consulter le site internet de Thalès

 

Le drone gonflable de la start up Diodon

Les drones SP20 et MP40 de cette jeune entreprise française ont tout pour plaire : légers, résistants, peu encombrants et tout terrain, leur armature gonflable leur permet d’absorber les chocs et de se poser sur l’eau.

Une seule minute suffit à les déployer. Ils embarquent bien sûr plusieurs types de capteurs et une caméra vidéo HD. En revanche, leur autonomie limitée (environ 20 minutes) contraint à un pilotage efficace.

Consulter le site internet de Diodon

 

Le drone-hélicoptère de Helipse

Le modèle 220-E est particulièrement utile en agriculture ou en topographie. Volontairement simple d’utilisation, il se veut être une alternative intéressante aux multirotors qui dominent le marché.

Capable de couvrir plusieurs dizaines d’hectares en moins d’une heure, L’Helipse a notamment été employé par la société Agribird qui avait besoin  de lâcher des insectes au dessus de plantations afin de combattre des nuisibles.

cache_2466893903

Consulter le site internet de Helipse

 

Le drone Drop’n drone d’Airborne concept

Fondée en 2014 à Toulouse par un ancien pilote de l’armée de l’air et un ancien ingénieur des essais en vol chez Airbus, cette jeune société a imaginé un vrai petit bijou : le premier drone largué par avion ou hélicoptère !

Airborne-concept-article-drop-n-drone-2

Cette caractéristique a un avantage immédiat : Drop’n Drone ne consomme pas d’énergie pour le décollage. Côté moteur, il est alimenté par une petite pile à hydrogène couplée à une batterie lithium-polymère. Résultat : son autonomie dépasse les 6 heures, une jolie prouesse si on le compare aux autres drones de sa catégorie.

L’ Armée s’y intéresserait pour de l’observation, Airbus y verrait un intérêt pour étudier un crash aérien et Orange, pour inspecter ses infrastructures.

Consulter le site internet d’Airborne Concept

 

Par Iris. T.

Emploi : regain de confiance des cadres dans leur avenir professionnel

Perspectives de mobilité professionnelle des cadres à 3 ans

Interrogés début 2017, 64 % des cadres envisagent au moins une mobilité professionnelle au cours des trois prochaines années. Parmi eux, 42 % ont l’intention de changer de poste dans leur entreprise, 39 % songent à une évolution externe, et 10 % envisagent de créer leur entreprise. A noter que les cadres âgés de moins de 30 ans se déclarent plus enclins à bouger : 60 % en externe (+6 points en un an) et la moitié d’entre eux en interne.

apec1

Bilan de la mobilité professionnelle en 2016

Dans un marché de l’emploi cadre très porteur en 2016 (+12% des recrutements de cadres), 28 % des cadres ont connu un changement professionnel, en progression de 3 points par rapport à 2015. Ainsi, 7 % d’entre eux ont effectué une mobilité externe, 9 % ont changé de poste au sein de leur entreprise et 12 % ont connu un autre changement (de service, de département, d’établissement ou bien de contenu de poste).

apec2

Cadres non mobiles en 2016

72 % des cadres n’ont connu aucun changement professionnel en 2016, en baisse de 3 points par rapport à 2015. Pour autant, certains ont entrepris des démarches pour donner une nouvelle impulsion à leur parcours professionnel : 49 % d’entre eux ont été en recherche active et 23 % en veille. Seuls 28 % n’ont effectué aucune démarche spécifique.

Lire l’étude complète de l’Apec : Panorama des mobilités professionnelles / Edition 2017

Source : Apec

Revue du web #103 : les vidéos les plus étonnantes du mois

Un drone secouriste à votre chevet en 5 minutes

Équipé d’un défibrillateur cardiaque, ce drone autonome conçu par l’entreprise suédoise FlyPulse se déplace quatre fois plus vite qu’une ambulance. Une réactivité qui pourrait bien sûr sauver des vies.

 

Le voyage de Thomas Pesquet en réalité virtuelle

La société de production La Vingt-Cinquième Heure ambitionne de transformer le voyage de Thomas Pesquet en expérience de réalité virtuelle. Pour réunir la somme nécessaire à la réalisation du documentaire, elle vient de lancer une campagne de financement participatif.

 

Dans l’espace, on dort… debout

Dans le dernier numéro de l’émission Envoyé Spécial, Thomas Pesquet a présenté son sac de couchage vertical.

 

Un drone très souple au vol acrobatique

Avec ses six rotors pivotant à 360 degrés sur leur axe, le drone hexacoptère Voliro conçu à l’École polytechnique fédérale de Zurich est un véritable acrobate.

 

De la culture de la peau 3D à l’injection directe sur les grands brûlés

Depuis un peu plus d’un an, on sait fabriquer par imprimante 3D toutes les couches de la peau pour une culture in vitro. Prochaine étape en ligne de mire : l’impression directement sur le patient. Les premiers tests sont déjà en cours.

N’hésitez pas à lire notre article « De la culture de la peau 3D à l’injection directe sur les grands brûlés »

 

Un nouveau radar capable de verbaliser 1000 voitures en l’espace d’une heure

La société Indigo teste à Madrid des véhicules dotés de la technologie LAPI, un nouveau procédé qui ferait rêver plus d’une collectivité (et cauchemardé plus d’un automobiliste).

Par I. T

Cristallographie : quand un ordre inattendu émerge d’un matériau nanostructuré

Le pyrochlore (La2Zr2O7) est un matériau modèle intéressant à la fois pour confiner des atomes radioactifs dans une matrice et pour faire circuler les protons dans une pile à combustible. Certains procédés de fabrication, notamment par chimie verte, conduisent à la formation de grains de dimension nanométrique et non plus micrométrique. Or ce pyrochlore « nanostructuré » présente des propriétés structurales et chimiques paradoxales.

Les oxydes complexes tels que le pyrochlore sont organisés en longs « rubans » de cubes et d’octaèdres. Ces formes géométriques résultent de l’affinité chimique respective des atomes de zirconium et de lanthane avec les atomes d’oxygène. Or lorsque le pyrochlore est produit, par exemple, par un procédé de chimie verte, les octaèdres semblent disparaître au profit des seuls cubes ! Ce constat surprenant s’appuie sur la diffraction d’électrons sur
l’échantillon. L’utilisation de neutrons ou de rayons X conduit au même résultat…

La perplexité des chercheurs s’est renforcée au vu d’analyses complémentaires, chimiques cette fois. Les modes de vibration des atomes, de même que les spectres par pertes d’énergie électronique, pointent tous deux vers une organisation classique du matériau, associant cubes et octaèdres.

À l’échelle microscopique de l’analyse chimique, les « gros » grains et les « petits » grains de pyrochlore sont indiscernables. À plus grande échelle, leurs structures semblent diverger… Les chercheurs ont donc eu l’idée de réduire le faisceau d’électrons à la dimension moyenne d’un « petit » grain pour leur analyse par diffraction. Tout est rentré dans l’ordre : ils ont retrouvé la structure classique, bien connue, du pyrochlore.

Que se passe-t-il à une échelle intermédiaire ? En fin de synthèse, les « petits » grains se regroupent de manière apparemment aléatoire, mais en réalité, ils obéissent à des lois physico-chimiques qui conduisent à un certain ordre. Un« gros » grain contient environ cinq « petits » grains dont l’assemblage possède une certaine forme d’ordre. Il en résulte que la diffraction d’électrons sur cet objet est perturbée par des interférences destructives. Cet artefact donne alors l’illusion d’une structure composée seulement de cubes.

Cette étude permettrait d’expliquer les observations réalisées sur d’autres oxydes soumis à des effets d‘irradiation, tels les spinelles. Elle souligne par ailleurs l’importance de l’échelle mésoscopique (échelle intermédiaire entre celle des atomes et celle du matériau) dans les simulations du comportement des matériaux sous irradiation. Les chercheurs comptent désormais approfondir leur compréhension du comportement sous irradiation d’autres matériaux comme le dioxyde d’uranium.

Source : cnrs

Espace et énergie : la fusion plus que jamais dans les tuyaux

Une idée née dès les années 1960 mais qui a dû attendre la fin de la première décade des années 2000 pour espérer réellement pouvoir aboutir. Alors que l’étude de la fusion comme nouvelle source d’énergie prend la forme en Europe d’un projet titanesque et extrêmement coûteux à travers ITER, qui vise la production de plusieurs centaines de mégawatts, aux Etats-Unis certains se penchent sur des dispositifs beaucoup plus petits et du coup beaucoup moins chers. C’est le cas par exemple de Helion Energy qui s’appuie sur une technologie basée sur la fusion Deutérium / Helium-3 et qui espère installer un pilote de 50MW vers 2019  et sa première usine opérationnelle vers 2022. C’est aussi le cas de Tri Alpha Energy qui étudie la fusion de protons sur des noyaux de bores et qui dispose de nombreux fonds privés lui ayant permis de construire une des plus grandes installations du monde équipée d’un confinement magnétique pour les plasmas.

La Nasa croit dans la fusion

La Nasa s’est toujours intéressée à l’avancée de la fusion. Elle a ainsi participé en 2014 au lancement d’Helion Energy et suit de près l’avancée des travaux de Princeton Satellite Systems petite entreprise spécialisée dans le contrôle et la simulation pour l’aérospatiale. Elle lui a déjà attribué trois subventions d plusieurs centaines de milliers de dollars via différents programmes de soutien à l’innovation ou de transfert de technologies (Small Business Technology Transfer (STTR) programs et NIAC -Nasa Innovative Advanced Concepts). Mais comme le précise Michael Paluszek, la Nasa ne finance que certaines parties du développement du système et non la totalité si bien que l’avancée des travaux est toujours dépendante d’une levée de fonds qui reste aléatoire. Ainsi, si le projet avance bien et que les chercheurs sont confiants, pensant pouvoir passer à la phase 3 sur les 4 nécessaires à démontrer la faisabilité réelle de la fusion, il faudra encore 5-6 ans de travail et 50 millions de dollars pour arriver à un premier démonstrateur et au moins autant de temps pour que la technologie soit intégrée à une mission spatiale.

Des minis réacteurs de quelques mégawatts

Michael Paluszech met en avant les avantages des petits réacteurs à fusion : en ne visant la production que d’une dizaine de mégawatts par réacteur, ceux-ci deviennent tout de suite beaucoup plus petits, légers et faciles à construire et à lancer dans l’espace autant pour de futures missions habitées que pour des robots et des sondes. La propulsion par fusion vise à produire 1 kW par kilo de matériel, aussi un tel réacteur pèserait 10-11 tonnes et occuperait à peu près 4-8 mètres de long sur 1,5 m de diamètre. Bien sûr, précise-t-il pour des engins spatiaux plus grands, il faudrait combiner plusieurs réacteurs, mais, dit-il, cela a un avantage certain en terme de fiabilité, si un réacteur est endommagé, les autres peuvent permettre d’assurer tout de même la mission.

Le rôle des ondes radio basses fréquences

Un des obstacles rencontrés jusqu’alors pour le développement de la fusion est qu’elle nécessite des très hautes températures et pressions pour l’initier si bien que les technologies utilisent plus d’énergie qu’elles n’en produisent. Princeton Satellites Systems utilise des ondes radio ultra basses fréquences pour chauffer un mélange de deutérium (atome d’hydrogène muni d’un neutron en trop) et d’Hélium-3 (atome d’hélium auquel il manque un neutron) qui est confiné par des champs magnétiques sous forme de plasma dans un anneau. Ce plasma est en rotation et une partie peut être dirigé vers une tuyère pour assurer la poussée. Les vitesses pourraient atteindre 25 000 km/s selon les concepteurs. Ce qui aurait par exemple réduit la durée du voyage de New Horizon vers Pluton de 9 à 4 ans en lui laissant encore de la puissance pour envoyer 100 000 fois plus de données par seconde que ce que la sonde a pu faire. Cela ouvre aussi la possibilité de concevoir une fusée capable de dévier un astéroïde.

Encore des inconvénients majeurs

Il reste encore plusieurs inconvénients à cette technologie. D’une part, il faut se procurer de l’hélium-3 qui est extrêmement rare sur Terre (alors qu’il est courant sur la Lune et que son exploitation est d’ailleurs envisagée) et que l’on produit surtout dans des réactions nucléaires et dont les réserves aujourd’hui sont gérées de manière très confidentielles par les Etats-Unis et la Russie. Un obstacle pourtant en grande partie levée sur le système développé par Helion Energy qui a mis au point sur ses prototypes un cycle de l’hélium permettant d’en auto-produire lui-même. Ensuite, les ondes basses fréquences utilisées ont un faible pouvoir de pénétration dans le plasma ce qui limite le diamètre du réacteur autour d’un mètre. Enfin, la réaction produit encore des radiations ionisantes (neutrons et rayons X), nécessitant un bouclier de protection. Cependant, Princeton Satellite Systems a prévu d’utiliser en partie ces rejets pour alimenter un circuit thermodynamique secondaire intégré directement dans le bouclier. Si bien que le bouclier ne constitue plus un élément supplémentaire.

La vidéo de présentation des recherches de Princeton Satellites :

Sophie Hoguin

Comment les entreprises recrutent-elles des cadres ?

Marché transparent  : 87%

Le marché transparent correspond aux cas où une offre d’emploi est publiée. Parallèlement, les entreprises activent d’autres canaux de sourcing.

Marché accessible : 7%

Le marché accessible est celui où le recruteur ne publie pas d’offre d’emploi mais utilise des canaux où ce sont les candidats qui se rendent visibles : candidatures spontanées, CVthèques, réseaux sociaux.

Marché caché : 6%

Le marché caché correspond aux cas où le recruteur fait uniquement appel à son réseau de relations personnelles et professionnelles, à la cooptation par les salariés, aux associations d’anciens élèves ou à la chasse de têtes.

Les entreprises multiplient les moyens pour trouver des candidats

En 2016, cinq canaux différents ont été activés en moyenne par les recruteurs afin de recueillir des candidatures contre quatre canaux les années précédentes.

cap1-apec

L’offre d’emploi reste le moyen le plus efficace

La moitié des recrutements de cadres est finalisée grâce à la diffusion d’une offre d’emploi. La part des postes pourvus grâce au réseau de contacts personnels et professionnels du recruteur est de 18 %. Les candidatures spontanées sont à l’origine de 8 % des recrutements et la cooptation par les salariés pour 7 %.

Cap2-apec

Les processus de sélection des candidats sont multiples

cap3-apec

Avec les résultats de ce baromètre, l’Apec a conçu un outil interactif qui permet de comparer les moyens de sourcing et les méthodes de
sélection par secteur, fonction, taille d’entreprise et âge du candidat
recruté. Il est accessible sur apec.fr

Méthodologie

1 400 entreprises représentatives du secteur privé de plus de 50 salariés, selon le critère des effectifs cadres par secteur d’activité ayant recruté au moins un cadre au cours des 12 derniers mois. Elles ont été interrogées par téléphone, en janvier et février 2017 par l’institut BVA. Les résultats de cette synthèse sont issus de deux documents d’études : Sourcing cadres édition 2017 et Les progiciels de recrutement en 2016 : quel équipement, quels usages ?

Source : apec

Le charbon bientôt chassé par l’éolien et le solaire !

Selon le rapport de référence New Energy Outlook 2017 de BNEF, le monde investira 10,2 billions de dollars dans les nouveaux modes de production d’électricité d’ici 2040. En tête, la Chine et l’Inde représenteront respectivement 28% et 11% du total. Surtout, ce sont les énergies renouvelables (ENR) qui tireront leur épingle du jeu. Elles accapareront en effet 72% des investissements dans le monde, dont 27,5% pour le solaire et 32,4% pour l’éolien. Ainsi, l’éolien représentera 48% de la puissance électrique mondiale, contre 12% aujourd’hui. Pour le solaire, ce sera 34%, contre 5%.

Les experts prévoient une augmentation de 10% des émissions du système électrique mondial pour atteindre un pic en 2026. Puis, elles baisseront lentement. En 2040, les émissions seront 4% plus faibles qu’en 2016. Une baisse largement insuffisante pour limiter le réchauffement climatique à 2°C en 2100. Pour être compatible avec cet objectif, BNEF estime qu’il faudrait un investissement supplémentaire de 5,6 billions de dollars. De quoi installer 3.900 gigawatts supplémentaires d’énergies renouvelables

Seb Henbest, auteur principal de l’étude à BNEF voit néanmoins une transition « inarrêtable, grâce à la baisse rapide des coûts de l’énergie solaire et éolienne, et un rôle croissant pour les batteries, y compris celles des véhicules électriques, pour équilibrer l’offre et la demande ». Les auteurs prévoient un taux de pénétration des ENR de 74% en Allemagne, 55% en Chine, 49% en Inde et 38% aux États-Unis d’ici 2040.

Des ENR beaucoup moins chères que le charbon

Le coût des ENR va continuer sa chute vertigineuse dans les prochaines années. Alors que le coût du solaire photovoltaïque a déjà baissé de 25%  depuis 2009, il encore perdre 66% d’ici 2040. « Le solaire est déjà aussi peu cher que le charbon en Allemagne, en Australie, aux Etats-Unis, en Espagne et en Italie, analyse BNEF. D’ici 2021, il sera aussi moins cher que le charbon en Chine, en Inde, au Mexique, au Royaume-Uni et  au Brésil ».

Du côté de l’éolien, les coûts pour les installations terrestres vont encore perdre 47% d’ici 2040, alors qu’ils ont déjà perdu 30% ces 8 dernières années. Pour l’éolien offshore, la chute sera encore plus importante, avec -71% au même horizon.

La sentence est lourde pour le charbon. La production d’électricité à base de charbon va s’effondrer en Europe et aux États-Unis: respectivement -87% et -45% d’ici 2040. Et ce malgré l’optimisme de l’administration Trump. Aux Etats-Unis, ce charbon sera remplacé par une hausse de 22% du gaz et de 169% des énergies renouvelables. Le charbon devrait néanmoins continuer à se développer en Chine, mais atteindre un sommet d’ici 2026. BNEF s’attend à ce que 369 gigawatts de nouvelles centrales planifiées dans le monde soient annulées, dont un tiers en Inde. Au niveau mondial, la demande en charbon devrait baisser de 15% entre 2016 et 2040.

Des ENR boostées par les nouveaux modes de flexibilité

Les centrales au gaz connaîtront un investissement de 804 milliards de dollars. La puissance des centrales installées en 2040 aura augmenté de 16%. Mais elles ne serviront pas à remplacer les centrales au charbon pour la « production de base ». Elles seront surtout utilisées comme moyen de flexibilité pour assurer la demande de pointe et assurer l’équilibre du réseau.

À côté de ces centrales au gaz, les batteries lithium-ion vont fortement se développer. Ce marché pour le stockage énergétique devrait valoir au moins 239 milliards de dollars entre 2017 et 2040. Les batteries accompagneront notamment le développement du marché du photovoltaïque sur toitures. Cette technologie produira notamment jusqu’à 24% de l’électricité en Australie et 15% en Allemagne. « Les batteries de petite échelle installées par les ménages et les entreprises aux côtés des systèmes photovoltaïques représenteront 57% du stockage dans le monde d’ici 2040 », prévoit BNEF.

Par ailleurs, les batteries des véhicules électriques contribueront à assurer l’équilibre du réseau. Charger intelligemment ces véhicules, lorsque les ENR génèrent de l’électricité et que les prix sur le marché de gros sont bas, aidera le réseau à s’adapter à l’énergie solaire et au vent intermittent. Le développement du véhicule électrique s’accompagnera d’une baisse des coûts des batteries lithium-ion de 73% d’ici 2030.

NEO-2017-PR-768x423
Évolution du mix de production électrique mondial entre 2012 et 2040. Source : Bloomberg New Energy Finance, New Energy Outlook 2017.

Par Matthieu Combe, journaliste scientifique

Ma thèse en 180 secondes : découvrez les prestations des 3 finalistes

La finale nationale 2017 de « Ma thèse en 180 secondes », organisée par la CPU et le CNRS, s’est déroulée le 14 juin à Paris, dans le Studio 104 de la Maison de la Radio. 16 doctorants, issus des universités et regroupements universitaires français, ont présenté leur travail de recherche en 180 secondes chrono.

Une soirée à redécouvrir sur http://mt180.fr/

Parmi les quatre prix remis lors de la soirée de finale nationale, seuls les premier et deuxième prix du jury permettront aux candidats d’accéder à la finale internationale et ainsi de représenter la France à Liège, en Belgique, le 28 septembre prochain :

Premier prix du jury et Prix du public : Sabrina Fadloun, finaliste du regroupement Communauté Université Grenoble Alpes, grâce à la présentation de sa thèse « Étude d’un procédé de dépôt de cuivre par MOCVD pour la réalisation de vias traversants à fort facteur de forme pour l’intégration 3D ».

La course des électrons !

 

•    Deuxième prix du jury : Davina Desplan, finaliste du regroupement Université Paris Seine.. Elle accède ainsi à la finale internationale grâce à sa thèse « Caractérisation mécaniques et électriques de produits cosmétiques et de leur stabilité, lien avec des modifications chimiques ou des contaminations biologiques ».

Émulsion et paix

 

•    Troisième prix du jury : Olivier Chabrol, représentant du regroupement Aix-Marseille Université, avec sa thèse sur les « Méthodes informatiques de détection de signatures moléculaires de convergence évolutive ».

Bref j’ai rencontré Batman

Source : cnrs

La Chine mise sur le solaire photovoltaïque flottant !

Huainan, dans la province chinoise d’Anhui, témoigne de la transition énergétique engagée en Chine. À proximité de cette ville minière riche en charbon, l’extraction du minerai a laissé place au solaire photovoltaïque.

Suite à des affaissements et des inondations dues aux fortes pluies de la région, l’ancienne mine de charbon a été recouverte par un lac artificiel. Ces eaux, dont la profondeur atteint entre 4 et 10 mètres, étaient « fortement minéralisées », à cause de l’extraction minière passée. Ne pouvant être utilisée pour l’irrigation ou la consommation humaine, cela rendait la zone « sans valeur », rappelle Sungrow. L’emplacement était tout choisi pour y construire une nouvelle centrale photovoltaïque flottante.

Des centrales flottantes de plus en plus imposantes

Les dimensions de la centrale sont impressionnantes. Sur 0,8 kilomètres carrés, 160.000 panneaux solaires permettent d’atteindre une puissance de 40 mégawatts (MW). Raccordée au réseau en mai 2017, elle devient la plus grande centrale photovoltaïque flottante au monde. Elle est deux fois plus puissante que la centrale flottante qui détenait le précédent record (20 MW). Celle-ci avait été lancée dans la même région par la société Xinyi Solar en 2016. Mais ce nouveau record sera encore de courte durée. Les projets se suivent et changent d’échelle. Sungrow a annoncé début juin qu’une centrale solaire flottante de 150 MW verrait le jour dans la même province d’ici la fin de l’année.

Les centrales solaires flottantes constituent une technologie importante pour valoriser les eaux délaissées. C’est dire que ces eaux offrent de nombreux avantages. Une centrale solaire flottante évite la disparition de terres agricoles sous des champs de panneaux solaires.  Et l’eau permet d’augmenter le rendement des panneaux, car elle refroidit leur surface.

Ces records contrastent avec les plus gros projets solaires non flottants en Chine. Le parc solaire du barrage de Longyangxia sur le plateau tibétain est la plus grande solaire au monde. Elle accueille 4 millions de panneaux solaires d’une puissance de 850 MW et s’étend sur 27 kilomètres carrés. Mais elle sera bientôt battue par un projet dans la région de Ningxia. Celle-ci regroupera 6 millions de panneaux solaires d’une puissance de deux gigawatts.

Par Matthieu Combe, journaliste scientifique

Record pour l’éolien français début 2017

En 2016, le parc de production électrique français a gagné 1.345 mégawatts (MW) d’éolien. Une croissance sans précédent. C’était 35% de plus qu’en 2015 (999 MW). À la fin de l’année, le parc éolien français atteignait 11,8 gigawatts (GW). Cette croissance record se poursuit en 2017.

Vers un nouveau record de raccordement en 2017 ?

Selon les statistiques du Ministère de la Transition écologique et solidaire, la puissance éolienne raccordée au parc de production durant le premier trimestre 2017 s’élève à 330 MW pour 34 nouvelles installations. Et il s’agit de « la plus forte jamais observée lors d’un premier trimestre », se félicite le ministère. C’est environ deux fois plus qu’au premier trimestre 2016 (141 MW pour 18 installations).

Au 31 mars 2017, la puissance éolienne raccordée au parc de production électrique s’élève donc à 12,1 GW. Il y a déjà plus de 8 GW de projets d’éolien terrestre en file d’attente, dont 2,5 GW ont une convention de raccordement signée. Pour l’éolien en mer, 3 GW sont en file d’attente, sans aucune convention de raccordement encore signée.

Malgré une hausse importante de puissance éolienne raccordée depuis le 31 mars 2016, les éoliennes françaises ont produit 6,9 terawattheures (Twh) au premier trimestre 2017. C’est 12 % de moins que lors de la même période en 2016. « Ce recul est imputable aux conditions de vent défavorables durant les mois de janvier et, dans une moindre mesure, de février », avance le Ministère. Les éoliennes ont néanmoins fourni 4,8 % de la consommation électrique nationale sur la période.

Des objectifs difficiles à atteindre !

La Programmation Pluriannuelle de l’Energie (PPE) prévoit une puissance éolienne raccordée de 15 GW fin 2018. Pour respecter cet objectif, la croissance annuelle du parc devrait être portée à plus de 1,6 GW en 2017 et 2018. Pour 2020, l’objectif fixé par le plan national d’action en faveur des énergies renouvelables (PNA EnR) est à 19 GW. Soit une installation de 2 GW par an entre 2019 et 2020. Ensuite, la PPE prévoit une trajectoire de développement basse à 21,8 GW et une haute à 26 GW pour 2023. De quoi ambitionner l’installation de 2,3 GW par an. Pour atteindre ces objectifs, le volume des raccordements doit réellement s’accélérer pour atteindre des niveaux sans précédents.

Durant la campagne présidentielle, Emmanuel Macron s’est engagé à soumettre rapidement après son élection un calendrier d’appels d’offres pour donner de la visibilité à la filière. Son objectif : doubler la capacité en éolien et en solaire photovoltaïque d’ici 2022 et mobiliser 30 milliards d’euros d’investissements. Pour espérer atteindre les objectifs hauts de la PPE en 2023.

Par Matthieu Combe, journaliste scientifique

Expérience#11 : Indépendance ou cohésion ?

À la maison, Henri veut faire ce qu’il veut, quand il veut, sans avoir de comptes à rendre. Le problème c’est que sa compagne Silvie semble vouloir tout contrôler.

Silvie veut de la relation avec Henri ; pas seulement de la communication. Elle veut éprouver un sentiment de connexion, de complicité. Bref, comme elle le dit souvent, Silvie veut faire couple. Plus Henri revendique son indépendance et plus Sylvie affirme son besoin de connivence. Au fil du temps la surenchère de reproches, de sommations et d’ultimatums les plus invraisemblables a conduit ces partenaires dans une situation de guerre des tranchées. Pour défendre leurs positions et assurer leur sécurité dans ce climat de conflit permanent, les deux tourtereaux se sont métamorphosés en frères ennemis.

Mais Henri est plutôt satisfait de la situation actuelle. Il serait plus juste de dire que Henri n’est pas suffisamment insatisfait de la situation actuelle pour envisager de la changer. Seule Silvie souhaite un changement.

Leurs proches se rendent bien compte que si ces deux partenaires ne se donnent pas la peine de concilier leurs légitimes aspirations, alors ils risquent de compromettre l’avenir de leur relation…qui est déjà bien entamé. Malheureusement, le jeu de pouvoir que chacun met en place pour défendre ou exiger ses droits est toujours un jeu perdant-perdant pavé de souffrances.

Au boulot, Henri est ce que l’on appelle communément « un loup solitaire ». Il est très efficace professionnellement. Ses résultats personnels sont impressionnants mais il n’aime pas travailler avec les autres. Les autres il ne les tolère que s’ils travaillent pour lui. Fervent adepte du « chacun pour soi », il éprouve un énorme sentiment de fierté à chaque occasion qui lui est offerte d’exhiber ses performances individuelles. Sa philosophie, sa façon de considérer les autres, ses comportements ont fini par intoxiquer l’atmosphère de travail. Pour triste conséquence de cette pollution endurée, une sauvage compétition interne est devenue une condition nécessaire à la survie des employés.

Lorsqu’il est à la tête d’un projet, ne comptez pas sur Henri pour qu’il s’emploie à développer l’équipe. Pas question non plus pour qu’il serve de mentor vis-à-vis de collègues moins performants. S’il n’aime pas tendre la main, il répugne tout autant à recourir à quelque forme d’assistance que ce soit.

Régulièrement récompensé par sa hiérarchie, son excellent niveau de performance lui a fait gravir les échelons au sein de la société.

Mais la société dans laquelle Henri a ainsi évolué pendant 15 ans vient d’être rachetée par son principal concurrent. On peut en déduire que les méthodes de travail de cet ancien compétiteur sont plus efficaces car elles génèrent des flux financiers qui lui permettent de réaliser des opérations de croissance externe. Tout naturellement, le nouveau comité de direction souhaite « harmoniser » les méthodes de travail en combinant les forces des deux entités et surtout en réduisant leurs faiblesses. Parmi celles-ci figure la culture managériale de l’encadrement de la société où Henri a jusqu’alors prospéré. Pour assurer à la fois sa sécurité matérielle et sa sécurité affective, Henri doit maintenant relever un nouveau défi : changer d’attitude.

Quels conseils donneriez-vos à Henri, à Silvie, à son nouveau DRH pour les aider à réussir à coup sûr cette transformation sans que ce soit au détriment des autres ?

Pour vous aider nous avons résumé ci-dessous les situations de Henri et de Silvie dans une carte des polarités.

Cette carte illustre un processus qui se développe irrémédiablement dans toute situation relationnelle. À chaque fois que nous sommes à l’aise avec une compétence particulière (ex : « je fais ce que je veux »), nous l’utilisons de plus en plus et nous finissons par la surinvestir…à tel point que cette compétence finit par nous coûter plus qu’elle ne nous rapporte. On s’aperçoit que, quel que soit le protagoniste, l’évolution de ses compétences (Indépendance ou cohésion) le fait basculer, à terme, entre développement personnel et délitement personnel.

Capture d’écran 2017-06-13 à 15.34.34

Nous vous invitons à prolonger cet article via la zone commentaire (ci-dessous), en nous proposant vos réponses aux problématiques évoquées par l’auteur.

Dino Ragazzo

Cybersécurité : l’être humain reste le maillon faible

Les experts en sécurité informatique ont coutume de dire que le principal risque sur trouve entre « la chaise et le clavier ». En clair, l’être humain et ses ressorts psychologiques bien connus : la curiosité, l’avidité, la paresse. Nous partageons tous ces mêmes défauts qui sont exploités par les pirates depuis des années.

Et le dernier rapport de Proofpoint, baptisé « Le Facteur Humain », ne fait qu’enfoncer le clou : nous sommes toujours les principaux maillons faibles de la cybersécurité. Pour ne pas incriminer que les internautes et les professionnels, précisons que les logiciels de sécurité et les systèmes exploitation comme Windows ne sont pas non plus exempts de défauts ; avec leurs failles de sécurité et leurs performances parfois limitées, ils ont aussi une part dans la multiplication des piratages.

Basé sur l’analyse de tentatives d’intrusions dans plus de 5000 entreprises en 2016, ce rapport de Proofpoint, spécialiste de la sécurité et de la conformité, confirme donc que les pirates s’appuient sur les failles humaines pour installer des programmes malveillants, dérober des informations confidentielles ou transférer des fonds. « Cette tendance d’exploitation du facteur humain, qui a vu le jour en 2015, s’accélère, et les cybercriminels multiplient désormais les attaques générées par les clics des utilisateurs plutôt que par des logiciels vulnérables, conduisant ainsi les victimes à exécuter elles-mêmes les attaques », a déclaré Kevin Epstein, vice-président du centre d’opération des menaces de Proofpoint.

Et encore une fois, la messagerie est pointée du doigt comme étant le principal vecteur d’infection par un code malveillant. Les attaques sur la messagerie d’entreprise sont passées de 1 % en 2015 à 42 % fin 2016. Et malgré les rappels constants à la vigilance, « près de 90 % des clics sur des URL malveillantes ont lieu dans un délai de 24 heures après la remise de l’email. 25 % de ces clics se produisent en seulement 10 minutes et près de 50 % en une heure », précise l’Usine Digitale.

Pour les cybercriminels, le phishing reste donc l’arme de prédilection pour atteindre leurs objectifs. C’est un classique indémodable. Et il n’est pas près de s’arrêter puisqu’il se répand sur les réseaux sociaux. Les escrocs usurpent l’identité d’une entreprise et se font passer pour son service client : il n’y a plus qu’à attendre que des internautes mordent à l’hameçon pour récupérer leurs coordonnées bancaires par exemple. Résultat, ce type d’attaque a augmenté de 150 % en 2016.

Les résultats de ce rapport montrent que les entreprises ne doivent pas limiter leur politique de sécurité au seul investissement dans des logiciels de sécurité. La sensibilisation de tous les salariés est indispensable pour qu’ils tombent moins facilement dans les pièges des cybercriminels.

Par Philippe Richard

Neva Aerospace : des drones qui portent des charges de 2 tonnes !

Vlinder, c’est le nouveau concept de plate-forme robotique aérienne de Neva Aerospace. Une plate-forme robuste et évolutive, capable de porter des charges allant de 20 kg à 2 tonnes ! Il est possible d’imaginer toutes sortes de charges, allant d’une caméra à un outil robotique ou un bloc de béton. Ce drone peut servir pour faire de la maintenance aérienne ou organiser des réparations d’urgence dans des endroits éloignés et difficiles.

neva-aerospace

Par ailleurs, dans la construction ou la démolition, il permettra par exemple d’élever des charges lourdes et servir alors de grue aérienne. Mais ses applications seront encore plus larges. Il pourra aider à organiser des secours et cartographier des sites suite à un incident chimique ou nucléaire. Il pourrait enfin servir en sécurité civile, pour des activités de surveillance ou même des interventions physiques.

Des brevets et des concepts

Fin mars 2017, la société a annoncé avoir protégé l’essentiel de ses concepts grâce à plusieurs brevets. La technologie clé est l’utilisation de multiples turbocompresseurs électriques hybrides dotés d’une orientation très précise. Les futurs prototypes Vlinder utiliseront la technologie brevetée de Neva Aerospace.

Le prix de vente est estimé entre 100.000 et 1 million d’euros par drone, suivant leur poids, leur taille et leur mission. Il faudra ensuite ajouter entre 40.000 et 500.000 euros par an pour les dépenses d’exploitation.

Neva Aeospace est un consortium européen de cinq entreprises. « Nous travaillons en partenariat avec d’autres fournisseurs de technologie et les organisations qui utiliseront cette technologie pour personnaliser les designs qui peuvent être intégrés dans leur entreprise », prévient son président Robert Vegnes.

Par Matthieu Combe, journaliste scientifique