Les attaques informatiques concernent toutes les entreprises

La protection des données sensibles est la principale priorité pour 76 % des entreprises en matière de sécurité IT. C’est la principale conclusion de l’Observatoire de la Cybersécurité réalisé par IDC en partenariat avec Malwarebytes.

Cette conclusion n’est finalement pas très étonnante étant donné le contexte. Les résultats de l’étude montrent que les entreprises sont très nombreuses à avoir subi les conséquences négatives de ces attaques sur leur activité au cours des 12 derniers mois. Elles sont près de 70 % à mettre en avant les conséquences directes de ces cyber-attaques sur leur activité : indisponibilité du site Internet de l’entreprise pendant plusieurs heures (39 %), retard de livraison auprès des clients (27 %) ou encore arrêt de la production pendant quelques heures.

Cycle de vie des données

Pour les entreprises, la problématique est complexe. D’un côté, les attaques informatiques se multiplient et de l’autre côté, les entreprises se lancent dans leur transformation numérique en multipliant les connexions et les appareils échangeant des données entre eux. Le but ? Être le plus réactives possible pour répondre aux exigences de leurs clients et des consommateurs.

Mais cet objectif ne peut plus être atteint sans respecter un parcours très balisé par le Réglement européen pour la protection des données (RGPD). Un des élément-clés de ce texte, qui entre en application en mai prochain, a été de renforcer les droits de personnes au regard de leurs données, et notamment de s’assurer qu’elles donnent leur consentement à leur traitement. Dorénavant, les entreprises doivent mettre en place différentes techniques renforçant leur sécurité, mais également gérer leur cycle de vie pour rester en conformité (de la création d’une data à sa suppression) comme les droits à la portabilité (transmission des données à des tiers) et à l’oubli.

3 milliards de comptes piratés !

À juste titre, on peut se demander si les entreprises, même internationales, protègent sérieusement les données qu’ils leur confient ! Début octobre, Yahoo! a annoncé que la cyberattaque massive dont il a été victime en 2013 a affecté l’ensemble des 3 milliards de comptes d’utilisateurs et non pas seulement 1 milliard comme initialement annoncé.

Pour renforcer la sécurité des données qu’elles stockent et échangent, de plus en plus d’entreprises (75 %, selon cette étude d’IDC réalisée auprès de 200 structures basées en France et regroupant chacune plus de 500 salariés) misent sur le Cloud.

Mais une politiquer de sécurité ne peut être efficace que si elle est globale. C’est un processus qui peut être long, mais qu’il est indispensable d’entamer le plus tôt possible. C’est le message qu’a martelé hier le directeur général de l’ANSSI (Agence nationale de la sécurité des systèmes d’information), Guillaume Poupard, aux Assises de la sécurité à Monaco : « Il n’y aura pas de transformation numérique sans sécurité numérique. (…) Nos PME sont sans doute les premières ciblées, probablement. Je suis incapable de mesurer malheureusement, ce n’est pas glorieux, car on n’a pas de statistiques fiables sur les attaques, mais les PME sont directement ciblées. Et il y en a qui meurent en silence, qui mettent la clé sous la porte à cause d’attaques informatique »

Philippe Richard

La production de la science moins concentrée dans les grandes métropoles mondiales

Dès le début des années 2000, les politiques d’enseignement supérieur de nombreux pays ont favorisé une concentration des moyens (financiers, humains) au profit de quelques grands pôles universitaires. D’un autre côté, la croissance exponentielle de la population étudiante à l’échelle mondiale a engendré une déconcentration spatiale des lieux de savoirs. Des chercheurs démontrent que ce phénomène de déconcentration touche non seulement la production d’articles scientifiques, mais aussi la visibilité et la qualité de ceux-ci, mesurées par le nombre de citations (autrement dit, combien de fois un article scientifique est pris comme référence dans d’autres articles scientifiques).

Afin d’évaluer la visibilité des publications mondiales, Marion Maisonobe et ses co-auteurs ont géocodé plus de 14 millions de publications parues entre 1999 et 2011 et recensés sur le Web of Science¹ – une base de données rassemblant les publications du monde entier et leurs liens de citations. Les résultats montrent que les villes dont les publications scientifiques sont historiquement les plus citées (New York, Londres, Tokyo, etc.) tendent à perdre sensiblement leur hégémonie. La part des 10 premières villes mondiales en nombre de citations reçues est passée de 23 % en 2000 à 17,3 % en 2010.

Les chercheurs ont aussi estimé l’évolution de l’influence scientifique des villes et pays du monde, en prenant comme indicateur le rapport entre la part des citations reçues et la part des articles publiés² . Toutes choses égales par ailleurs, les villes des pays émergents ont gagné en impact, au détriment des principales métropoles du monde occidental. C’est particulièrement remarquable pour les villes de pays d’Asie (Chine, Inde et Singapour) qui enregistrent les meilleures progressions toutes disciplines confondues. C’est aussi le cas des pays qui souffraient d’un déficit de visibilité : ainsi, l’Iran gagne 0,5 point d’impact en sciences de l’univers et 0,8 point en mathématiques entre 2000 et 2010 ; l’Afrique du Sud progresse de 0,3 point en médecine.

Les chercheurs ont montré que ce rééquilibrage dans la géographie des citations s’opère également au sein des pays. Aux Etats-Unis, la progression de l’impact de Chicago et Los Angeles intervient au détriment de celui de New-York. Côté français, l’avantage parisien est en diminution sur la période 2000-2010, puisque sa part nationale de citations passe de 41,7 % à 37 %.

Cette évolution est observée dans toutes les disciplines. Dans le cas des sciences humaines et sociales, une asymétrie persiste en faveur des pays anglophones, dont les publications restent les plus citées, mais elle tend à se résorber.

Ces résultats battent en brèche le postulat selon lequel les plus grandes métropoles mondiales seraient, par nature, un terreau favorable à la création d’articles scientifiques de qualité et seraient seules légitimes à absorber les moyens humains et financiers. La déconcentration de la recherche à l’échelle mondiale n’a pas accentué l’écart de qualité – mesurée par le nombre de citations – entre les villes-monde et les autres. Au contraire, on assiste à l’émergence de nouveaux pôles d’enseignement supérieur et de recherche de qualité.

Cette recherche a bénéficié du programme « Géoscience » soutenu par l’Agence Nationale de la Recherche (ANR-09-SSOC-010-GEOSCIENCE) et du programme « Netscience » soutenu par le LabEx « Structurations des Mondes Sociaux » (ANR-11-LABX-0066).

carte-publications-scientifiques
© Marion Maisonobe et al. à partir de données de Clarivate Analytics et d’un fond de carte Natural Earth. Évolution de la répartition des citations reçues par les publications parues entre 2000 et 2010. On observe une déconcentration géographique des citations avec une croissance très forte du nombre de citations reçues par les villes des pays dits « émergents » : Iran, Chine (en rouge très foncé).

 

Notes :

1 Le Web of Science Core Collection (WoS) recense près d’un million et demi de publications scientifiques par an. Il couvre le domaine des sciences expérimentales et des sciences de l’univers, la médecine, les sciences de l’ingénieur, et les sciences humaines et sociales.
2 En effet, même s’il a déjà été montré que les chercheurs des villes et pays émergents publient de plus en plus, cette croissance ne se fait-elle pas au détriment de la qualité des travaux ? Ceux-ci ont-ils une influence globale, ou seulement locale ou régionale ?

Références :
The global geography of scientific visibility: a deconcentration process (1999–2011), Marion Maisonobe, Michel Grossetti, Béatrice Milard, Laurent Jégou & Denis Eckert. Scientometrics, octobre 2017. DOI 10.1007/s11192-017-2463-2

Source : cnrs

Le graphène entre dans la 3e dimension

Ils ont appelé leur technique la « forge optique » (optical forging), car le procédé utilisé ressemble au travail d’un forgeron qui donnerait une forme 3D à une feuille de métal à l’aide d’un marteau.

Et de fait, le procédé mis au point au centre de nanoscience de l’université de Jyväskylä en Finlande, avec la collaboration des équipes de l’université centrale de Taiwan et de son synchrotron, est très simple et facile à mettre en œuvre. Nul besoin de doper le graphène ou de lui faire subir différents procédés. Il faut juste une feuille de graphène et un rayon laser pulsé.

Le défi a surtout été de comprendre ce qui c’était passé. En effet, les chercheurs ont d’abord irradié le graphène pour voir ce qui allait se produire. Ils sont restés interloqués. Les données recueillies ne correspondaient à rien d’attendu, l’échantillon montrait des propriétés différentes d’une feuille de graphène habituelle. C’est en croisant ensuite simulations informatiques et résultats des expériences qu’ils ont compris que cela était provoqué par la déformation de la feuille de graphène et non par l’incorporation d’autres atomes dans le graphène ou par des défauts dans la structure provoquées par le laser.

graphene en pyramide

Référence : Nano Letters 1909/2017 

Par Sophie Hoguin

Fin du tarif réglementé du gaz: Engie souhaite une « longue période de transition »

La fin des tarifs réglementés de vente (TRV) de gaz « n’est pas une décision d’Engie, mais du Conseil d’Etat, et qui s’adresse à l’Etat, à laquelle Engie doit s’adapter », a souligné le groupe mardi dans une déclaration à l’AFP.

Saisis par des concurrents d’Engie, le Conseil d’Etat a ordonné en juillet la fin des tarifs réglementés du gaz, contraires au droit européen.

« Engie demande qu’une loi puisse prévoir une période longue de transition et la synchronisation avec le TRV électricité pour éviter une distorsion concurrentielle entre les deux types d’énergie », ajoute-t-il.

Avec cette réaction, Engie confirme partiellement une déclaration de la CGT Mines-Energie affirmant que le groupe « prône la fin des tarifs réglementés de vente » et « attaque l’emploi et le statut social de ses salariés ».

Selon la FNME-CGT, Engie a fait « des propositions » au gouvernement et proposé « l’adoption très rapide d’une loi qui programme l’extinction des tarifs réglementés gaz, mais aussi électricité ».

Dans ses déclarations, Engie reprend son argumentaire, exposé à la mi-septembre lorsque le groupe avait annoncé avoir déposé un recours devant le Conseil d’Etat contre les tarifs réglementés de l’électricité, après la décision de la haute juridiction imposant la fin des tarifs réglementés du gaz pour se conformer au droit européen.

Dans son communiqué, la CGT Mines-Energie affirme aussi qu’Engie a présenté trois éléments « à inclure dans la loi ».

Selon le syndicat, Engie souhaiterait « la fin des contraintes (…) pour assurer la sécurité d’approvisionnement, ce qui permettrait d’alléger ses coûts ».

Le groupe voudrait aussi « un temps assez long (six ans) » pour « ajuster les effectifs », ce qui selon le syndicat signifie « la suppression des 811 emplois (…) affectés aux tarifs réglementés chez Engie ».

Enfin, toujours selon la CGT, la fin des TRV, « dernier dispositif de service public en matière de vente d’énergie » impliquerait pour Engie « la suppression du statut des IEG » (industries électriques et gazières) « pour l’activité commerciale ».

Le groupe a démenti cette affirmation: « Engie ne demande nullement la fin du statut IEG pour l’activité de commercialisation ».

Il « appartiendra aux pouvoirs publics de tirer équitablement les leçons de la fin des TRV, en ayant en priorité le souci d’accompagner les clients dans cette transition », ajoute t-il.

sbo/ef/fm

 

 

« Tous droits de reproduction et de représentation réservés. © 2017 Agence France-Presse. »

La Chine interdit l’importation des plastiques en mélange

Invoquant la protection de l’environnement et la santé de ses ressortissants, la Chine a annoncé le 18 juillet 2017 à l’OMC qu’elle interdirait l’importation de certains déchets d’ici la fin de l’année 2017. Sont notamment concernés 8 familles de déchets plastiques, les papiers en mélange, les matières textiles et les déchets provenant de la fabrication du fer ou de l’acier. Les licences d’importations des usines chinoises seront limitées, voire supprimées. Et les usines qui ne respectent pas les normes environnementales seront définitivement fermées. Tout aussi bien que celles qui ne respectent pas ces nouvelles directives, menace le gouvernement chinois.

La Chine accepte encore ces déchets jusqu’à fin octobre. Les problèmes vont donc s’observer en novembre et décembre. «Si la Chine n’accepte vraiment plus ces déchets, on va avoir de gros problèmes, car on n’a pas les infrastructures nécessaires actuellement pour les traiter», assure Christophe Viant, Président de Federec Plastiques, le syndicat professionnel des entreprises du recyclage. Dans un premier temps, les stocks vont augmenter dans les usines qui ne pourront plus exporter leurs matériaux. Mais il va falloir rapidement trouver une solution, car les centres de tri n’auront pas les capacités de stockage suffisantes sur le moyen-terme. En effet, à ce jour, aucune usine mondiale n’a la capacité de traiter ces volumes aujourd’hui importés par la Chine.

Plus que des plastiques de très bonne qualité ?

9 millions de tonnes de plastiques sont concernées par cette interdiction chinoise pour l’ensemble des pays. Il s’agit principalement de ceux en mélange, ou «à laver», à savoir le polyéthylène, des films plastiques, des styréniques, du PVC, du PET, du PET bouteilles, des polycarbonates CD/DVD et les autres déchets et rebuts plastiques.

«On envoie de tous les emballages en Chine : de la très bonne gamme à la moins bonne, explicite Christophe Viant. Aujourd’hui, les Chinois ne veulent plus que du monoproduit 100%, la top qualité». Si la Chine confirme sa décision, les centres de tri vont donc se retrouver avec d’importants volumes supplémentaires de plastiques bas de gamme en mélange. Il faudra les surtrier, les laver et faire des valorisations alternatives.

La situation est complexe et la filière manque de visibilité. Federec appelle à la création de nouvelles unités de lavage et des centres de surtri en France et Europe pour faire face à l’augmentation des volumes. Il faudra aussi créer des débouchés pour ces nouveaux plastiques. En attendant ces développements, ils seront vraisemblablement valorisés énergétiquement. Les pouvoirs publics doivent donc rapidement prendre à bras le corps ce problème.Ils doivent repenser la fabrication des produits et imposer plus d’éco-conception. En outre, ils doivent inciter les entreprises à utiliser plus de plastique recyclé et repenser la gestion des déchets.

Par Matthieu Combe, journaliste scientifique

Les éditeurs de logiciels français confirment leur dynamisme

Ce panorama annuel révèle un secteur dynamique et innovant qui se confirme au fil des ans. La croissance du secteur se maintient depuis 2010 et le chiffre d’affaires a bondi de 30% entre 2014 et 2016 (+12% entre 2015 et 2016) créant en parallèle quelques 8500 emplois sur les deux dernières années. Les 358 entreprises françaises du panel ont enregistré un revenu total de 13,5 Md€. A noter que ces bons résultats s’inscrivent dans la durée et que l’analyse d’EY relève que l’édition de logiciels «repose sur un modèle économique robuste et pérenne». A titre d’exemple, les sociétés réalisant un CA de moins de 5M€ sont plus de deux tiers à afficher un résultat opérationnel positif. Les éditeurs de logiciels sont résolument tournés vers l’avenir et visent désormais l’équipement des entreprises du secteur banque/assurances avant l’industrie et sont prêt à aller vers le secteur public.

L’activité SaaS confortée

Les activités Software as a Service (SaaS) et services Internet se posent comme un modèle économique rentable pour toujours plus d’éditeurs, notamment ceux qui débutent leur activité. La part du chiffre d’affaires de cette activité dans le panel du Top 250 atteint 32% en 2016, soit 7 points de plus qu’en 2015. Le choix stratégique d’orienter l’activité vers le SaaS s’est fait au détriment des activités de support et de maintenance. De manière générale, même lorsque l’activité n’est pas SaaS les entreprises privilégient de plus en plus le mode de contractualisation par abonnement, avec des durées d’abonnements de 3 ans et plus (56%).

Les plus gros visent l’international

La part du CA réalisée à l’étranger continue de croître. Et si, sans réelle surprise, ce sont les éditeurs avec un CA de plus de 100M€ qui réalisent la majorité de leurs ventes à l’export (62 % en 2016, contre 64 % en 2015), il ne faut pas négliger l’émergence d’entreprises qui se tournent vers l’international dès leur création : à titre d’exemple, le lauréat du prix de l’international en 2016, la société clermontoise Allegorithmic a réalisé 88% de son chiffre d’affaires à l’étranger. Les Etats-Unis restent le pays d’implantation privilégié pour 19% des entreprises exportatrices devant la Belgique, la Suisse et le Royaume-Uni.

Recrutement : le talon d’Achille du secteur

Le recrutement constitue toujours un défi pour le secteur : 78% des éditeurs du panel rencontrent des difficultés pour recruter et 83% estiment que les profils qu’ils recherchent sont rares. Les développeurs sont particulièrement demandés : 71% des éditeurs en recherchent. Le secteur a continué d’embaucher ces deux dernières années et les entreprises annoncent encore qu’elles prévoient d’augmenter leurs effectifs. Les emplois sont majoritairement situés en France (58% des effectifs totaux et 70% pour les entreprises «Pure players»). Certains chef d’entreprises n’hésitent pas à dire que la difficulté à recruter est telle qu’elle devient un frein à leur développement. Développement qui rappelons-le s’appuie sur un gros effort de R&D (chez les «pure players» la R&D atteint ainsi 18 % du chiffre d’affaires et 33 % des effectifs avec un fort ancrage sur le territoire puisque 74% des postes R&D sont basés en France).

Lauréats des trophées 2017

Trophée 2017 International : Allegorithmic, à l’origine de la solution Substance, une suite graphique qui s’est imposée sur la niche des textures pour modèles 3D, particulièrement utilisée par les studios de production de jeux vidéo à l’international.

Trophée 2017 Innovation : Arkamys, spécialisée dans le traitement numérique du signal audio pour améliorer la qualité du son des équipements électroniques à partir d’un procédé de spatialisation.

Trophée 2017 Jeux vidéo : Dontnod Entertainment, studio français de développement de jeux vidéo basé à Paris, connaissant un grand succès à l’international.

Trophée 2017 Prix du jury : AB Tasty, éditeur spécialisé dans les solutions de test et d’optimisation du parcours client sur les sites marchands destinées aux équipes marketing.

Sophie Hoguin

Challenge « Industrie du Futur » : votez pour votre start-up coup de cœur

La finale du challenge « Industrie du Futur », organisé par SKF et Atos en partenariat avec Techniques de l’Ingénieur, approche à grand pas. Elle se tiendra le 8 novembre 2017, à la SKF Solution Factory, à St-Cyr-sur-Loire.

Plusieurs prix à la clé

Depuis leur sélection en juillet dernier, les start-ups finalistes sont entrées en phase d’approfondissement aux côtés « d’experts métier » qui les accompagnent pour adapter leur projet au contexte industriel de SKF et d’Atos.

Après plusieurs mois de préparation, elles pitcheront devant les clients et directions de SKF, d’Atos et de Techniques de l’Ingénieur lors de la finale.  A l’issue de ces pitchs, quatre prix seront décernés : les prix Atos, Industrie 4.0, SKF et le prix « Coup de cœur » de Techniques de l’Ingénieur.

Le prix « Coup de cœur » : à vous de voter !

Les finalistes ont écrit un article et répondu à une interview pour présenter leurs innovations. (Re-)Découvrez-les ici !

Parmi les 14 finalistes, quelle innovation vous a le plus marqué ? Quel projet trouvez-vous le plus innovant ? Votez pour élire la start-up qui recevra le prix « Coup de cœur » de Techniques de l’Ingénieur lors de la finale.

bouton-voter

Vos votes, ceux de l’équipe Techniques de l’Ingénieur et ceux du public présent lors de la finale seront pris en compte pour élire la start-up « Coup de cœur » de ce challenge !

La gagnante aura accès à la ressource documentaire Techniques de l’Ingénieur de son choix et aura également la possibilité d’interroger les experts pendant un an.

Vous avez du 9 au 31 octobre 2017 pour voter pour votre start-up « Coup de cœur » ici.

bouton-voter

Retrouvez toutes les présentations des finalistes ici.

L’industrie française du futur en ordre de marche

Début octobre, le ministre de l’économie, Bruno le Maire, a donné le La avec l’annonce de la très prochaine nomination d’un commissaire interministériel à la réindustrialisation qui aura pour rôle de «prévenir les risques de fermetures d’usines» et d’ «accompagner les industries». Deux jours avant, il présentait le nouveau label de la France industrielle, le French Fab, qui espère copier la réussite du label French Tech créé pour soutenir la croissance des start-up. Symbolisé par un coq bleu en origami, cette marque portée par Bpifrance pourra être attribuée aux entreprises innovantes, collectives, qui se digitalisent, qui s’exportent… Elle doit devenir une vitrine pour l’élite de l’industrie française. Le ministre a par ailleurs expliqué que l’objectif est de créer des accélérateurs pour PME et ETI partout sur le territoire afin de les faire devenir des «champions de l’export».

De leur côté, les patrons de l’industrie ont annoncé la création de France industrie, une structure unique commune qui regroupe le Cercle de l’industrie et le Groupement des fédérations industrielles (GFI) afin que PME, ETI et groupes industriels parlent d’une même voix.

Enfin, côté opérationnel, l’Alliance industrie du futur (AIF) a présenté le fruit d’un travail qu’elle mène depuis début 2017 sur les opportunités et le déploiement de l’industrie du futur pour six filières sectorielles majeures en France : l’aéronautique, l’automobile, le ferroviaire, l’agroalimentaire, la construction et le naval. Les résultats font à la fois le bilan de chacune des filières et mettent en exergue comment l’industrie du futur peut les aider à se (re)dynamiser.

Intégrer l’ensemble de la chaîne

Le défi commun à toutes ces filières pour entrer pleinement dans l’industrie du futur, c’est de réussir à intégrer l’ensemble de la chaîne de valeurs et de sous-traitants dans la transformation numérique et de veiller à l’interopérabilité des différents systèmes choisis dans les entreprises. Deux études (*) viennent d’ailleurs d’être publiées s’alarmant du manque d’intérêt et d’actions des PME vers la digitalisation et du risque de voir certaines PME décrocher du marché. Manque de capacité d’investissement, désintérêt dû à une méconnaissance des bénéfices que l’on peut en tirer, peur de l’inconnu et de l’échec sont parmi les principaux freins identifiés. Selon les filières l’intégration sera plus ou moins facile : dans l’aéronautique et l’automobile ou les constructeurs sont extrêmement prescripteurs pour les sous-traitants cela devrait donc se faire plus naturellement que pour l’agroalimentaire ou la construction où la fragmentation du marché constitue un obstacle évident.

Etudes par filière : pour quoi faire ?

Grâce à ces études par filière, l’AIF propose une feuille de route pour le déploiement de la digitalisation et des nouveaux outils industriels à disposition des toutes les parties prenantes : instances représentatives, investisseurs, acteurs de l’innovation et ce sur toute la filière de l’amont à l’aval. L’objectif affirmé est de « créer de la mobilisation et de l’appropriation ». Le diagnostic et donc les remèdes préconisés sont différents selon les filières et les enjeux identifiés. Le document publié par l’AIF propose pour chaque enjeu identifié les solutions que l’industrie du futur peut offrir à court, moyen et long terme et soumet des exemples d’entreprises ayant mis en place ou entamé des initiatives dans ce sens.

Aéronautique : flexibilité et services

Affichant une valeur ajoutée et une productivité positive et en progrès grâce à des investissements importants, l’industrie aéronautique doit faire face à une demande de livraison importante, une mondialisation toujours accrue des schémas industriels, des évolutions dans l’après-vente et l’apparition de technologies de rupture dans la conception de produits (impression 3D par exemple). Le cabinet de conseil Roland Berger préconise donc de « développer la flexibilité de production, réduire les coûts et poursuivre les améliorations de produits et services ». Parmi les outils proposés, la généralisation de la virtualisation des lignes de production : en élaborant une simulation du processus complet de fabrication, on peut utiliser le « jumeau numérique » pour estimer les impacts d’un changement sur la ligne et ainsi optimiser les moyens et les temps de lancements et de mise en place par exemple. Trois études de cas illustre différentes solutions mises en place chez Airbus, Figeac Aéro ou Thalès.

Construction : maîtriser l’organisation et les défauts

Aujourd’hui, la filière construction doit faire face à des évolutions du marché et à un environnement plus technologique et plus exigeant en matière de qualité, d’organisation des opérations. L’analyse menée par Accenture estime que la filière « devra entre autre adopter les nouvelles méthodologies d’innovation et d’accélération go-to-market, accroître l’efficience de sa chaîne d’approvisionnement, réduire les risques d’accidents, fluidifier le partage d’informations (notamment liées aux projets) entre les différents acteurs / projets, et transformer son business model pour gagner en agilité dans un monde en constante évolution ». Parmi les solutions de l’industrie 4.0 qui peuvent contribuer à relever ces défis : le BIM, les matériaux augmentés (connectés et/ou éco-responsables), les travailleurs et équipements augmentés (mobilité, capteurs, drones, cobotique, réalité augmentée…) et l’analytique couplé au Big Data.

Ferroviaire : assurer l’avenir en se diversifiant

Même si le secteur affiche de bons résultats, l’avenir reste incertain car la mobilité évolue et la concurrence internationale s’est développée. Le rapport souligne la nécessité pour cette filière de repenser sa relation client en se diversifiant et en développant de nouveaux services, de monter en qualité opérationnelle (améliorer sécurité, sûreté, maintenance et aide à l’exploitation), moderniser l’outil industriel en le rendant plus flexible pour faire face à une baisse des activités à court terme. Parmi les solutions identifiées, le développement d’outils de cybersécurité (anti-intrusion pour les infrastructures, billetique, supervision), l’introduction de robotisation et d’ automatisation (pour assemblage des lignes et maintenance), le déploiement de la maintenance prédictive (réseaux de capteurs, automatisation de l’inspection, réalité augmentée), objets connectés et Big Data (autour du client pour développer les services). Le rapport met en exergue l’emploi des drones à la SNCF et la poursuite de l’automatisation de la ligne de 4 du métro à la RATP.

Automobile : retrouver de la valeur ajoutée

Depuis la crise, la valeur ajoutée de l’industrie automobile française s’est fortement réduite. La faible profitabilité a entraîné une réduction des emplois et de l’investissement.

Selon Accenture, pour redynamiser le secteur, il faut « améliorer la compétitivité, préparer le véhicule et les services du futur et se développer à l’international ». La difficulté pour cette filière réside dans le fait que pour accéder aux solutions proposées par les nouveaux outils industriels, il faut un changement des pratiques important et ce pour l’ensemble des acteurs de la filière. Par exemple l’introduction de la virtualisation des lignes de production ou la traçabilité des flux et de la supply chain doit se faire en intégrant les fournisseurs et les constructeurs pour que le bénéfice se fasse ressentir et qu’il y ait une véritable amélioration. Le cabinet Roland Berger a mené une étude prospective sur une usine équipementière et après implémentation des solutions de l’industrie 4.0 prévoit une rentabilité des capitaux investis (ROCE) de 42% au lieu de 15% auparavant.

Naval : moderniser la production

Depuis trois ans le secteur s’est relancé mais pour préserver l’avenir il faut à présent augmenter la compétitivité de la production. L’innovation est au centre de la stratégie des acteurs français et l’industrie 4.0 propose des solutions idéales pour réduire les coûts et assurer ce positionnement.

Comme pour les autres filières, de nombreuses améliorations dans le process de fabrication et dans la communication entre les donneurs d’ordre et les sous-traitants permettraient de réduire les délais et d’améliorer la qualité, la flexibilité et le suivi : maquette numérique partagée, travail collaboratif, réalité virtuelle et simulation tant pour la fabrication que pour la présentation au client, robotisation/automatisation pour la fabrication et la maintenance…

Agroalimentaire : une industrie prise en étau

L’Ania (association nationale des industries agroalimentaires) résume la situation difficile de son secteur par ces mots : « LES INDUSTRIES ALIMENTAIRES éVOLUENT ENTRE UN AMONT DONT LA COMPÉTITIVITÉ S’ÉRODE ET UN AVAL DONT LE POIDS DE NÉGOCIATION AUGMENTE ». Les marges diminuent et pour retrouver une bonne croissance cette filière doit jouer sur plusieurs leviers. A titre d’exemple, concernant l’amont de la filière, l’industrie du futur peut apporter plusieurs améliorations : en accompagnant une agriculture plus productive, rentable et raisonnée via l’utilisation de robots, capteurs, drones, algorithmes prédictifs ; en sécurisant les approvisionnements grâce à des plateformes big data et des analyses prédictives ; en reliant traçabilité et valeur ajoutée et en limitant le gaspillage via la création de blockchain, de plateformes collaboratives, d’outils de gestion du cycle de vie.

(*) Etude BVA pour l’association la Villa Numéris sur les salariés et la transformation digitale

Etude de la Bpifrance intitulée «Histoire d’incompréhension : les dirigeants de PME et ETI face au digital»

Sophie Hoguin

Les enjeux géopolitiques du référendum kurde

Alors que les médias européens avaient les yeux braqués sur Barcelone, un autre référendum se tenait quelques jours auparavant au Kurdistan irakien. A l’instar de la Catalogne, le Kurdistan irakien a organisé lui aussi une consultation populaire jugée illégale par le pouvoir. Cette région nord de l’Irak est également un poumon économique de l’Irak, dont une partie importante de sa population souhaite s’affranchir. Le parallèle s’arrête cependant là, tant les enjeux géopolitiques du Kurdistan dépassent les seules frontières irakiennes.

Une lutte ancienne

La minorité kurde d’Irak a régulièrement pris les armes durant le XXème siècle (et encore au XXIe) pour faire valoir ses droits face au pouvoir central de Bagdad. Une première autonomie est obtenue de haute lutte en 1991 suite à la défaite de Saddam Hussain lors de la guerre du Golfe, mais très vite une guerre civile éclate entre Kurdes irakiens. Une nouvelle étape est franchie en 2005 avec l’adoption d’une nouvelle constitution irakienne (suite à l’intervention américaine en 2003) prévoyant une certaine autonomie du Kurdistan dans le cadre d’un nouveau système fédéral. Une autonomie somme toute assez relative car les décisions du Parlement irakien s’impose à celui du Kurdistan dont le rôle est davantage consultatif. Par ailleurs, la région ne peut retirer elle-même les bénéfices de l’exportation du pétrole de son sous-sol, contrôlé par Bagdad. En contrepartie, la capitale s’est engagée à reverser 20% des revenus pétroliers au Kurdistan irakien.

qi16kurdes

La lutte contre Daech, et notamment la reprise de Mossoul cette année, principale ville du Kurdistan irakien, a donné l’occasion aux combattants kurdes, les Peshmergas, de faire parler d’eux. Les Peshmergas sont certes des combattants, mais aussi un formidable moyen de communication pour les dirigeants kurdes. On ne compte plus les reportages les montrant, notamment leurs bataillons de femmes soldats, lutter aux côtés de la coalition internationale contre Daech, participant à la renommée des combattant(e)s kurdes.

Vers une négociation ?

Si le péril Daech n’est pas encore totalement écarté – des combattants islamistes sont encore actifs le long de l’Euphrate et de la frontière syrienne – le rôle des Peshmergas est aujourd’hui davantage lié à la sécurisation des territoires repris. De fait, la politique a repris peu à peu sa place et le référendum organisé par Massoud Barzani, président du Kurdistan irakien, en est le symbole. Avec près de 80% de participation et 90% en faveur de l’indépendance, cette consultation a été naturellement très mal accueillie par Bagdad qui a pris des mesures : «Un embargo a été mis en place pour empêcher les avions d’atterrir au Kurdistan. Même les vols humanitaires éprouvent des difficultés à se poser», explique Benjamin Toubol, chercheur à l’Institut Français de Géopolitique. Une réaction forte mais qui ne présage pas forcément d’un envenimement de la situation. Présent à Paris le 5 octobre dernier dans le cadre d’une visite diplomatique, le Premier ministre irakien, Haïder Al-Abadi, n’a pas fermé la porte à la médiation que Ján Kubiš, émissaire de l’ONU en Irak, souhaite engager entre les parties.

La France, par la voie de son président, Emmanuel Macron, a indiqué vouloir « maintenir l’intégrité et l’unité de l’Irak tout en reconnaissant les droits des Kurdes ». Une position qui a vocation à ne froisser aucun des deux camps.

La Russie place ses pions

Face à une Union européenne inaudible, des Etats-Unis qui regardent davantage en Asie et une ONU impuissante, la Russie joue sa partition. «La nature a horreur du vide. Vladimir Poutine applique cette loi au cas kurde et avance ses pions», indique Benjamin Toubol. En juin dernier, la compagnie pétrolière russe Rosneft a ainsi signé, lors du Forum économique de Saint-Pétersbourg, un accord de coopération énergétique avec le Kurdistan. Le but étant de permettre au territoire kurde d’Irak d’exporter directement son pétrole sans passer par Bagdad. Quelque 500 000 barils par jour transitent déjà par le biais d’un oléoduc qui traverse le sud-est de la Turquie jusqu’au terminal de Ceyhan sur la Méditerranée.

Recept Erdogan, président de la Turquie, cultive également de bonnes relations avec le clan Barzani. Ce dernier a autorisé des opérations militaires turques dans le nord de la province pour chasser les combattants révolutionnaires kurdes du Rojava et de l’Anatolie du Sud-Est, honnis par Ankara. Une situation complexe résumée par le chercheur français : «Le Kurdistan d’Irak rencontre un paradoxe lié à l’histoire kurde de la région. Soit devenir un Etat et privilégier l’unité de tous les Kurdes au risque de froisser ses partenaires turcs et iraniens, ou devenir un État kurde, dont les enjeux et les représentations différeraient de ceux des Kurdes de Syrie et de Turquie, mués par un idéal révolutionnaire marxiste».

De fait, la Turquie et la Russie ont davantage intérêt à maintenir le statu quo, ce que semblent désormais refuser les dirigeants kurdes. Bagdad n’ayant pas les moyens de contenir les velléités indépendantistes du Kurdistan, il y a fort à parier que la résolution de ce dossier se jouera au niveau international. A suivre donc.

Romain Chicheportiche

Eolien et solaire: la dynamique reste à amplifier !

Pour le premier trimestre, le Ministère de la transition écologique et solidaire se félicitait du niveau record de raccordements éolien : 330 mégawatts (MW). Il s’agissait  du plus haut niveau jamais observé lors d’un premier trimestre pour l’éolien, environ deux fois plus qu’au premier trimestre 2016 (141 MW). Au deuxième trimestre, l’enthousiasme est beaucoup moins de mise. Seulement 200 MW ont été raccordés sur la période, contre 464 MW au deuxième trimestre 2016. C’est le constat dressé par le Panorama de l’électricité renouvelable, réalisé par Enedis, RTE, le Syndicat des énergies renouvelables (SER) et l’Association des distributeurs d’électricité en France (l’Adeef).

Concernant l’éolien, l’objectif fixé par la Programmation Pluriannuelle de l’Energie (PPE), est fixé à 15 gigawatts (GW) pour 2018. Il est actuellement atteint à 82,3 %. Loin de devoir ralentir, le rythme de raccordement annuel doit donc s’intensifier. Il devrait se rapprocher des 1.770 MW pour 2017 et 2018, calcule le rapport. « Le ralentissement observé sur le dernier trimestre, s’il se confirmait, mettrait alors aussi en question l’atteinte de la fourchette basse de 21.800 MW en 2023, notent les auteurs. Pour parvenir à la fourchette haute de 26.000 MW d’éolien raccordé en 2023, le rythme de raccordement doit encore s’accélérer de 50 % et s’établir à 2.100 MW par an ».

Un solaire encore plus à la traîne

Sur le solaire, 194 MW ont été raccordés durant le deuxième trimestre. C’est un record trimestriel depuis le troisième trimestre de 2015. Et la puissance raccordée ce deuxième trimestre, est en augmentation de 12,4 % par rapport au 2ème trimestre 2016. « Cette dynamique traduit les premiers effets des appels d’offres planifiés dans le cadre de la PPE », estime le rapport d’étude. Mais les efforts sont loin d’être suffisants. Fin juin, le parc solaire atteint une capacité installée de 7.064 MW, soit 69% des objectifs fixés pour la filière pour 2018 (10.200 MW). Ils ne seront pas atteints. Si l’on ajoute les projets en développement, la puissance s’élève à 9.632 MW. C’est 94,4 % de l’objectif national fixé à pour fin 2018.

Toutes filières confondues, la progression du parc de production renouvelable au deuxième trimestre 2017 a été de 417 MW, en net retrait par rapport à l’augmentation constatée au deuxième trimestre de l’année précédente (728 MW). Il s’agissait du niveau le plus important depuis 4 ans. Sur une année glissante, 2.030 MW ont été raccordés, contre 2.140 MW un an auparavant. Le rythme total des raccordements reste stable, mais aucune intensification n’est à l’oeuvre au moment où Nicolas Hulot vient de présenter son Plan Climat.

Par Matthieu Combe, journaliste scientifique

Moderniser les centres de tri: un défi majeur

À l’occasion des Assises des déchets de Nantes, les professionnels du recyclage ont insisté sur le défi majeur que pose la modernisation des centres de tri pour répondre à l’extension des consignes de tri des emballages. Cette dernière sera progressive à travers 4 vagues successives d’appels à projets étalés de 2018 à 2021. « L’ensemble des acteurs devront se positionner sur cette période », assure Carlos de los Llanos, Directeur Recyclage de Citeo, l’éco-organisme résultant de la fusion d’Eco-Emballages et Ecofolio.

Des centres de tri industriels pour plus de rentabilité?

«On a déjà procédé à une phase d’extension sur 15 millions d’habitants, le quart du territoire », rappelle l’expert du recyclage. « On a un peu plus de 200 centres de tri en activité en France, soit environ un centre de tri pour 300.000 habitants », prévient-il. Mais ce serait trop. « Les technologies qui existent aujourd’hui nécessitent des centres de tri de taille supérieure », complète-t-il. D’ici 5 ans, il devrait y avoir au maximum 130 centres de tri sur le territoire. Alors, comment se préparer à la reconversion des sites?

L’extension des consignes de tri impose de développer des centres de tri plus importants. Pour André Flajolet, Vice-président de l’Association des Maires de France (AMF), il faudra une couverture nationale cohérente. « Un certain nombre de centres peuvent être modernisés dans leurs bâtiments et leurs process, mais il va falloir construire de nouveaux centres sur de nouveaux périmètres », complète-t-il.

Une concertation indispensable en amont

Qui dit centre de tri plus important dit « bassin de tri » plus important, analyse Sylvain Pasquier, Coordinateur de secteurs à l’ADEME. Il va falloir créer des coopérations entre les territoires et conduire des études préalables pour savoir comment implanter de nouveaux centres ou en regrouper des existants. L’idée est bien d’avoir des implantations et des tailles adaptées, avec des solutions différentes. « L’objectif n’est pas d’arriver qu’à des gros centres, mais à des centres un peu plus importants dans des territoires vraiment ruraux », soutient-il.

Dans les territoires ruraux, « il faut avoir une réflexion pour avoir un seul centre de tri pour le département », prévient Sylvain Pasquier. Comme cela a été fait par Eco-Emballages dans son expérimentation, par exemple, pour la Lozère, le Jura et les Ardennes. En revanche, « au niveau des grosses agglomérations, il faut réfléchir à des centres de tri industriels qui vont desservir un million d’habitants », assure-t-il. Les centres desservant moins de 200.000 habitants, ne pourront en effet pas amortir les investissements de modernisation. Des travaux sont notamment en cours pour étudier la possibilité d’installer un tri en deux étapes sur les territoires les moins denses. Il consisterait à faire plusieurs premiers tri simplifiés qui redirigeraient les emballages vers un une seule usine industrielle pour un tri complémentaire. Les conclusions sont attendues pour la fin de l’année, avant le premier appel à projet.

Améliorer les taux de captage

L’extension des consignes de tri répond à une demande sociétale forte. Les citoyens veulent en effet des consignes simples et harmonisées. Grâce à elles, tout emballage ira désormais dans la poubelle de tri. Mais les refus de tri augmenteront inexorablement. Car il n’existe pas encore de filière de recyclage pour tous les emballages, notamment en plastique. Néanmoins, cette situation devrait être transitoire, car certaines filières apparaitront, avec l’augmentation des captages.

La France ne recycle encore que 24% de ses emballages en plastique, presque uniquement des bouteilles et des flacons. Une fois l’extension des consignes de tri réalisée, Citéo estime que ce taux grimpera autour de 40%. Il faudra travailler sur la recyclabilité et l’éco-conception des produits pour atteindre 55%. Et développer les technologies de recyclage chimique, notamment de dépolymérisation des plastiques pour espérer aller au-delà. Cela est possible : sur l’ensemble des emballages plastiques, entre 70 et 80% sont techniquement recyclables. Mais c’est la rentabilité qui fait souvent défault. En fin de compte, il faudra accepter qu’une part de ces emballages soit valorisée énergétiquement, notamment les emballages en polystyrène et certains films souples.

En revanche, que dit-on aux habitants? Ils ne veulent pas être trompés. « On doit leur dire qu’on va faire la meilleure valorisation possible : tout ce qui est recyclable doit être recyclé », assène Carlos de los Llanos. « Il y a la solution de l’incinération avec valorisation énergétique. Lorsqu’elle n’existe pas, il y a le développement des filières de combustibles solides de récupération (CSR)», prévient-il. « La valorisation énergétique, c’est le complément nécessaire, indispensable, à l’extension des consignes de tri des plastiques pour pouvoir dire aux habitants que tout ce qui rentre dans le bac jaune sera valorisé de la meilleure façon en fonction des technologies disponibles », ajoute-t-il. Les refus de tri ne finiront donc plus en décharge, comme le somme la loi de transition énergétique.

Par Matthieu Combe, journaliste scientifique

La réalité virtuelle, outil de formation à la rhétorique

La rhétorique est un art que la technologie peut contribuer à perfectionner. Chez Orange, la réalité virtuelle (RV) est ainsi envisagée comme un outil de formation complémentaire à l’usage des managers qui s’entraînent à la prise de parole en public. Le participant s’équipe d’un casque de RV et se retrouve sur l’estrade d’un amphithéâtre, en face d’une galerie de personnages réalisés en images de synthèse. L’auditoire, piloté par le formateur, réagit au discours de façon à ce que la situation soit aussi stressante que dans la réalité.

Si la réalité virtuelle et surtout la réalité augmentée se répandent dans l’industrie, démontrant leur efficacité pour les opérations de manutention et les métiers de terrain, leur utilité reste à prouver pour les «soft skills», par exemple le management. «Nos premières réflexions remontent à octobre 2016 et nous avons étudié l’état de l’art sans rien découvrir de tangible, constate Anne-Sophie Gimenez, directrice de l’innovation dans le domaine de la formation chez Orange. Nous avons alors décidé d’expérimenter la RV, ce qui fait partie de nos attributions

Orange Campus, école à Montrouge qui s’occupe de la montée en compétences des managers, s’avère le laboratoire idéal. «L’aspect innovant de la réalité virtuelle est un moyen d’attirer les «top managers», des personnalités qui sont très occupées par ailleurs» confie Anne-Sophie Gimenez. Un cahier des charges est adressé à des prestataires et l’agence Digital and Human, du groupe Persistant Studios, remporte l’appel d’offres. Le casque HTC Vive se révèle vite le meilleur choix. «Contrairement à la RV sur mobile, il offre la possibilité de se déplacer dans un environnement fixe et respecte avec précision les mouvements de la tête, indique Jean-Thomas Seité, concepteur multimédia chez Orange. En outre, le confort est supérieur et la fatigue oculaire est moindre

Des réactions positives difficiles à simuler

Débute en janvier 2017 le développement de la partie logicielle, avec le repérage des lieux dans deux amphithéâtres distincts et la prise de photographies. La modélisation d’un auditoire réaliste est un premier défi. «Les réactions positives, quand le public se montre attentif, sont difficiles à simuler, explique Jean-Thomas Seité. Il est beaucoup plus simple de reproduire une personne qui se lève ou qui soupire.» Cette mise en scène n’est pas automatisée et est donc dirigée via une console par le formateur, qui voit ce que voit le participant. «Le coaching s’effectue en direct car nous n’avons pas les moyens de faire appel à une intelligence artificielle, poursuit Jean-Thomas Seité. Ceci dit, comment une IA pourrait analyser le discours d’une personne qui parle aussi beaucoup avec les mains par exemple ?»

La restitution du son a été une autre difficulté. «Elle doit être de bonne qualité pour favoriser l’immersion, confirme Jean-Thomas Seité. Quand le participant prend la parole, il doit s’entendre dans le même temps. La réduction de la latence a été un gros challenge.» Si la solution fonctionne sur un PC de bureau ou sur un PC portable «gamer», son déploiement est encore en question, «car il s’agit de trouver un équilibre économique» selon Anne-Sophie Gimenez. En tout cas, après avoir été présentée en avant-première au dernier salon Laval Virtual, elle a convaincu les premiers cobayes, dont plusieurs hauts responsables d’Orange. «Le niveau de réalisme est suffisant pour ressentir la proximité du public et interpréter son comportement, se félicite Anne-Sophie Gimenez. Les participants sont confrontés à des situations réelles, ce qui améliore l’ancrage mémoriel. Est-ce qu’ils y croient ? Oui, et c’est un signe de réussite.»

Frédéric Monflier

A la recherche de la mousse éternelle

Pour stabiliser les mousses, qu’elles soient alimentaires ou utilisées dans des matériaux plus avancés, on utilise généralement des composés tensioactifs qui recouvrent la surface des bulles de mousses et les « protègent » des forces extérieures liées à la pression ou la température. Des chercheurs de l’ETZ de Zurich sont partis de l’étude micrométriques des mécanismes à l’oeuvre dans la dissolution d’une mousse pour trouver de nouvelles solutions de stabilisation.

Ces indésirables fusions et explosions

Plusieurs processus physiques sont à l’origine de la déstabilisation d’une mousse (ou d’une émulsion) : drainage de la mousse par le liquide sous-jacent (ou diffusion de l’émulsion dans la phase dispersante), fusion des bulles ou bien sûr éclatement de bulles.

L’équipe de Jan Vermant à l’ETHZ s’est particulièrement attachée au phénomène du mûrissement d’Ostwald (Ostwald ripening), du nom de son découvreur, le chimiste allemand Wilhelm Ostwald, prix Nobel de physique en 1909. Ce processus explique que la pression capillaire entre deux gouttes de tailles différentes (ou entre les gouttes d’une émulsion dans un dispersant) est différente et provoque la fusion, par diffusion moléculaire, de la petite goutte vers la grosse. Pour éviter cela, on utilise des stabilisants qui couvrent la surface des bulles et ralentissent ce phénomène.

Des mesures de pression miniatures

Les chercheurs ont testé le comportement de bulles d’air dans de l’eau en étudiant les réactions aux interfaces dans de nombreuses configurations: couvertes avec des particules de latex de taille micrométriques, couvertes de manière homogène ou non, en faisant varier les différentes structures et le tout soumis à différentes pressions au sein d’une mini chambre pressurisée. Dans ce système microfluidique, ils ont pu évaluer leur résistance à la dissolution. Ils en ont conclu que même partiellement recouvertes les bulles peuvent être aussi stables que celles qui sont complètement recouvertes et ils ont pu déterminer avec précision à partir de quelle plage de valeurs de pression chaque type de « bouclier » pouvaient résister. Dans la conclusion de l’article paru dans le journal PNAS les chercheurs estiment en outre que leur système de mesure peut être adapté à d’autres formes de mousses, émulsions, ingrédients permettant ainsi de disposer d’un outil d’étude et de prévision du comportement ou de la quantité de stabilisant requis pour différents mélanges. A la clé, l’industrie agroalimentaire notamment, y voit là une possibilité de réduire les coûts de fabrication en économisant certains ingrédients.

Ces recherches ont d’ailleurs été en partie financées par Nestlé, et ont déjà abouti à la fourniture par le laboratoire de guides et d’outils de quantification que l’industrie agroalimentaire peut utiliser pour développer des stabilisants et des nouveaux produits. Les premières applications sont destinées à la crème glacée où l’incorporation de petites bulles stables permet de lui conférer la capacité à la mieux résister à des cycles gel-dégel et à la rendre plus légère.

Sophie Hoguin

Le SIANE : 24-25-26 octobre à Toulouse, le rendez-vous incontournable des industriels du Grand Sud

Découvrir le SIANE :

  • Une 13ème édition placée sous le thème de la « transition numérique pour les PME et ETI » qui a pour objectif d’éclairer les mutations actuelles et à venir dans l’usine du futur à travers des démonstrations, conférences et plateaux TV.
  • Une véritable usine de production avec près de 150 machines-outils, équipements et innovations remarquables sur 7 000 m2 d’exposition comme la présentation d’un équipement intégré de production de 25 tonnes ou un nouveau robot de très grande capacité.
  • Des sous-traitants dans les secteurs des équipements de production, du travail des métaux, des fournitures industrielles, de la transformation des matières, de l’électricité et de l’électronique, des services à l’industrie…
  • Des rendez-vous d’affaires ciblés et qualifiés avec les exposants pour un gain de temps et une efficacité maximale.
  • Des Business Brunchs organisés chaque jour entre exposants et donneurs d’ordres.
  • Un programme de conférences techniques sur 3 jours.

Une belle vitrine pour les industriels et sous-traitants qui offre la possibilité de profiter du boom économique de la région !

N’attendez plus pour imprimer gratuitement votre badge visiteur sur www.salonsiane.com.

megabanner-SIANE

L’expérience le confirme: Neptune et Uranus accumulent les diamants

Une équipe de chercheurs internationaux (principalement allemands et américains) publie dans Nature du 21 août un article relatant leur expérience montrant la formation de diamants à partir de polymères hydrocarbonés dans des conditions semblables à celles régnant dans les profondeurs des deux géantes de glaces que sont Neptune et Uranus. Confirmant ce que l’on soupçonne depuis plus de 30 ans : la présence en grande quantité de diamants solides au sein des deux planètes.

Un résultat prévu de manière théorique

Les théories actuelles concernant Neptune et Uranus considèrent qu’elles sont structurées en trois couches principales : un noyau solide rocheux a priori composé de silicates de fer et nickel entouré d’un manteau de glaces plus ou moins liquides d’eau, d’ammoniac et de méthane et d’une atmosphère riche en hélium, hydrogène, méthane. En réalité, la transition entre l’atmosphère et le manteau est graduelle, il n’y a donc pas à proprement parler de surface sur ces planètes.

Les scientifiques pensent que plus on s’enfonce vers le noyau de la planète, plus des hydrocarbures simples comme le méthane traversent différentes transitions chimiques aboutissant à la perte de leurs atomes d’hydrogène. Sous l’effet de la température et de la pression, ils passeraient d’abord par une phase de polymères puis perdraient leurs atomes d’hydrogène pour voir s’agréger les atomes de carbone sous la forme de diamants notamment. C’est cette dernière réaction, menant à la formation de diamants que les chercheurs ont réussi à recréer.

Quand le plastique devient diamant

Dans l’expérience, des échantillons de polystyrène ( C8H8) sont soumis à des conditions extrêmes comme celles régnant à 10 000 km sous la surface d’Uranus ou Neptune : à peu près 5000°K et 150 gigapascals. Le polystyrène simule les composés polymères qui se forment à partir du méthane, quand on s’enfonce dans les couches les plus profondes de la planète.

Pour atteindre les bonnes conditions, les échantillons de polystyrène sont bombardés par deux ondes de chocs successives provoquées par un laser (dans la lumière visible). L’effet de ces chocs sur le polystyrène a été capturé grâce au laser à électrons libres (XFEL) du SLAC de l’université de Stanford en Californie. Ce dernier permet une diffraction à rayon X avec des impulsions extrêmement brèves de l’ordre de 50 femtosecondes qui fournissent les images de la formation des nanodiamants et les détails sur la réaction chimique qui s’est opérée.

Une nouvelle voie de synthèse pour les nanodiamants ?

Les scientifiques en ont conclu qu’il faut des hautes pressions pour initier la séparation entre le carbone et l’hydrogène et que pour engendrer une précipitation des atomes de carbone sous forme diamantaire il faut que ces pressions soient à peu près 10 fois plus élevées que ce que l’on pensait jusque-là. Ces résultats laissent à penser qu’il pourrait y avoir des phénomènes de convections au sein de ces planètes sous l’influence de la chaleur dégagée lors de la séparation hydrogène / carbone. En outre, si en laboratoire, seuls des nanodiamants sont créés, au sein d’Uranus et Neptune, les chercheurs estiment que les phénomènes sont majeurs et aboutissent à la formation de diamants dont le poids excède plusieurs millions de carats (le carat étant ici l’unité de masse des gemmes). Ils pensent probable que ces diamants coulent dans les couches les plus profondes des deux planètes et s’agrègent, formant une épaisse couche autour du noyau. Par ailleurs, cette expérience ouvre la perspective d’une fabrication via des lasers de nanodiamants, ce qui serait bien plus économique et écologique que les explosions habituellement utilisées. Les nanodiamants sont aujourd’hui utilisés dans le domaine médical, électronique ou encore comme additifs pour des plastiques ou des lubrifiants par exemple.

Sophie Hoguin

Il n’existe que 15 pavages pentagonaux possibles

Pour recouvrir un sol avec une seule et même forme, il existe de nombreuses solutions : triangles, carrés, rectangles, hexagones, etc. La recherche exhaustive de toutes les formes convexes pouvant paver un plan, c’est-à-dire une forme avec des angles inférieurs à 180° et qui permettent de recouvrir tout un mur sans chevauchement, fut initiée par Karl Reinhardt durant sa thèse en 1918. Il a montré que tous les triangles et quadrilatères pavent le plan, qu’il n’existe que 3 types d’hexagones qui permettent de réaliser un pavage et qu’un polygone à sept côtés ou plus ne permet pas de recouvrir un plan. Seule la question des pentagones restait ouverte.

De 1918 à 2015, 15 types de pentagones ont été découverts, lors de recherches plutôt singulières : initiée par Reinhardt en 1918, elle a subi plusieurs rebondissements, comme des nouvelles découvertes de mathématiciens amateurs, jusqu’à l’annonce médiatisée, en 2015, d’une nouvelle et 15e forme, 30 ans après la 14e, sans que la communauté scientifique ne parvienne à déterminer s’il existait encore d’autres formes de pentagones possibles pour paver un plan.

Michaël Rao, chercheur du CNRS au Laboratoire d’informatique du parallélisme (CNRS/Inria/ENS Lyon/Université Claude Bernard Lyon 1) a aujourd’hui définitivement montré qu’il n’existe qu’un ensemble fini de familles1 de pentagones à considérer. En générant toutes les possibilités via un programme informatique2, Michaël Rao a montré que 371 familles de pentagones pouvaient potentiellement recouvrir un plan. Il a ensuite testé chacune de ces familles, à l’aide d’un autre programme informatique, et a montré que seuls 19 types de pentagones satisfaisaient les conditions nécessaires, à la fois pour les angles et la longueur des côtés, pour paver un plan. Parmi ces 19 types, 15 correspondent à des types déjà connus, et les quatre autres s’avèrent être des cas particuliers de ces 15 types. Seuls 15 types de tuiles sont donc possibles pour un recouvrir une surface plane.

Avec sa méthodologie, Michael Rao clôt ainsi un problème vieux d’un siècle, mais pas seulement. Toutes les tuiles convexes pavent le plan de façon périodique (c’est-à-dire que le pavage se répète à l’infini). On ne sait pas encore s’il existe une tuile qui permet de réaliser un pavage non-périodique. Or, la plupart des techniques utilisées ici peuvent également être utilisées dans le cas des polygones non convexes et pourraient donc servir de base à la résolution de cet autre problème encore ouvert dans le domaine des pavages, plus connu sous le nom d’ « Einstein Problem » (de l’allemand « ein stein »).

cap-cnrs-1140
© Michaël Rao, Laboratoire d’informatique du parallélisme (CNRS/Inria/ENS de Lyon/Université Claude Bernard Lyon 1). Les 15 types de pavages pentagonaux et leurs 4 types particuliers.

Notes :

1 Une « famille » est un ensemble de conditions portant uniquement sur les angles du pentagone.
2 L’exhaustivité de cette liste a également été revérifiée, de manière indépendante, par Thomas Hales qui a notamment prouvé la conjecture de Kepler par ordinateur.

Références :

Exhaustive search of convex pentagons which tile the plane. Michaël Rao, disponible sur Arxiv.org, arXiv:1708.00274 (Consulter le site web)

Source : cnrs

Produits chimiques : le règlement PIC entre dans les mœurs

L’agence européenne des produits chimiques, l’Echa, a la charge de traiter les informations techniques et administratives liées au règlement PIC qui est entré en vigueur le 1er mars 2014. Le règlement sur le consentement préalable informé (Prior informed consent – PIC règlement UE n°649/2012) impose des obligations aux entreprises qui souhaitent exporter certains produits chimiques dangereux vers des pays hors Union européenne – il comprend aussi les dispositions prévues par la convention de Rotterdam qui utilise déjà aussi cette procédure de consentement préalable. Il a notamment pour but de fournir aux pays en développement des informations sur le stockage, le transport, l’utilisation et l’élimination en toute sécurité des produits chimiques dangereux.

Plus de 8000 notifications

Dans ce premier rapport triennal (2014-2016), l’Echa souligne que la prise de conscience et la conformité au règlement PIC ont augmenté significativement pendant ces trois premières années d’implémentation. Ainsi, le nombre de notifications est passé de 4500 en 2014 à 8000 en 2016. Une augmentation bien supérieure à celle espérée qui était estimée à 10% par an. En outre, le nombre d’entreprises déclarantes a, lui, triplé, passant de 390 à 1177. Cette augmentation s’explique d’une part par l’ajout de nouveaux produits chimiques à la liste des produits dont la notification d’exportation est obligatoire et d’autre part à l’active promotion du règlement par l’Echa et les différents gouvernements européens. L’Echa, qui fournit aussi une assistance administrative, technique et scientifique sur ce règlement tant pour les pays de l’UE que pour les pays tiers a aussi enregistré une importante hausse d’activité dans ce domaine : le nombre de requêtes étant passé de 1000 en 2014 à 1800 en 2016.

Un règlement qui atteint son but

Geert Dancet, directeur executif de l’Echa s’est félicité de ce bilan très positif : « grâce à l’implication de toutes les parties prenantes, nous sommes sur le chemin pour que les objectifs clés de ce règlement soient atteints – rendre le commerce international des produits chimiques dangereux plus transparent pour la santé humaine et l’environnement partout dans le monde ». Le nombre important de notifications implique en effet que l’UE fournit d’importantes masses de données aux autorités des pays importateurs, qu’ils peuvent alors utiliser pour créer leur propre réglementation et pour identifier les entreprises qui utilisent ces produits dans leur pays.
Le rapport fait aussi le point sur les améliorations qui peuvent encore être apportées et souligne la nécessité pour l’Echa de disposer de moyens supplémentaires pour traiter la masse de données et de requêtes qui lui sont soumises et qui ont été grandement sous-estimées.

Par Sophie Hoguin

Ondes gravitationnelles : première détection conjointe LIGO-Virgo

Les trous noirs sont le stade ultime de l’évolution des étoiles les plus massives. Il arrive que certains évoluent en couple. Ils orbitent alors l’un autour de l’autre et se rapprochent lentement en perdant de l’énergie sous forme d’ondes gravitationnelles, un phénomène qui finit par s’accélérer brusquement jusqu’à les faire fusionner en un trou noir unique. Un tel tourbillon final avait déjà été observé trois fois par les détecteurs LIGO en 2015 et début 2017. Cette fois ce sont trois instruments qui en ont été témoins, le 14 août 2017 à 10h30 UTC, permettant une bien meilleure localisation dans le ciel.

Ce nouvel évènement confirme que les couples de trous noirs sont relativement abondants et va contribuer à leur étude. Les deux trous noirs, qui avaient des masses égales à 25 et 31 fois celle du Soleil, ont fusionné en un trou noir de 53 masses solaires, l’équivalent de 3 masses solaires ayant été converties en énergie sous forme d’ondes gravitationnelles. Cet événement s’est produit à environ 1,8 milliard d’années-lumière de la Terre ; autrement dit, les ondes gravitationnelles se sont propagées dans l’espace pendant 1,8 milliard d’années avant d’être détectées par le détecteur Advanced LIGO situé en Louisiane (États-Unis), puis 8 millièmes de seconde plus tard par celui situé dans l’État de Washington, et enfin 6 millièmes de seconde après par Advanced Virgo situé près de Pise en Italie.

L’apport d’un troisième instrument, Advanced Virgo, permet d’améliorer significativement la localisation des évènements astrophysiques à l’origine des ondes gravitationnelles. Ces évènements, extrêmement violents, peuvent dans certains cas éjecter de la matière très chaude qui peut être visible pour des télescopes optiques. Avec seulement deux détecteurs d’ondes gravitationnelles, la zone de recherche dans le ciel s’étendait sur une zone équivalant à plusieurs milliers de fois la surface de la pleine Lune. Grâce à Advanced Virgo, elle est environ dix fois plus petite, et l’estimation de la distance à laquelle se trouve la source est aussi deux fois meilleure. Ceci améliore grandement les chances d’observer des signaux avec d’autres instruments.

Pour cet évènement, la combinaison des temps d’arrivée avec l’amplitude des signaux observés a permis d’établir une zone de recherche dans le ciel de 80 degrés carré, qui a été scrutée par 25 groupes d’astronomes. Comme pour les précédents événements, aucun signal optique n’a été observé.

Un autre atout du détecteur Virgo est son orientation, différente de celle des deux instruments LIGO. Ceci rend possible de nouveaux tests de la théorie de la relativité générale, élaborée par Albert Einstein, qui décrit la force de gravitation. En effet, cette théorie prédit que lors du passage d’une onde gravitationnelle, l’espace s’étire dans une direction tout en se contractant dans une autre, au lieu, par exemple, de se déformer dans une seule direction ou dans toutes les directions à la fois comme le prédisent des théories alternatives. L’analyse des signaux observés indique que c’est effectivement le cas. C’est un prélude à de futurs tests plus poussés de la relativité générale.

En attendant de nouvelles observations à l’automne 2018, les premières données de ce réseau de trois détecteurs sont toujours en cours d’analyse et devraient donner lieu prochainement à d’autres annonces.

Advanced Virgo est un instrument principalement cofinancé par le CNRS en France et l’Istituto Nazionale di Fisica Nucleare (INFN) en Italie. Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 20 laboratoires européens dont 6 au CNRS en France, 8 à l’INFN en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, un groupe à l’université de Valence (Espagne) et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l’interféromètre Virgo. Après plusieurs années de travaux d’amélioration et quelques mois de tests, Advanced Virgo a recommencé à écouter le ciel le 1er août 2017, rejoignant Advanced LIGO. Cette détection est l’aboutissement d’un quart de siècle d’investissements du CNRS et de l’INFN dans ce grand équipement.

LIGO (Laser Interferometer Gravitational-Wave Observatory) est un observatoire dédié aux ondes gravitationnelles composé de deux interféromètres identiques, situés aux Etats-Unis. La version améliorée de ces détecteurs (Advanced LIGO) a redémarré en septembre 2015. Autour de ces instruments s’est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Elle travaille main dans la main avec la collaboration Virgo. En effet, depuis 2007, les scientifiques des deux groupes analysent en commun les données et signent ensemble les découvertes.

La publication scientifique des collaborations LIGO et Virgo annonçant cette observation est cosignée par 76 scientifiques de six équipes du CNRS et d’universités associées :

  • le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris;
  • le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d’Azur/Université Nice Sophia Antipolis), à Nice;
  • le Laboratoire de l’accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay;
  • le Laboratoire d’Annecy de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy;
  • le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris;
  • le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.

Le CNRS a décerné le 27 septembre 2017 une double médaille d’or aux physiciens Alain Brillet et Thibault Damour pour leurs contributions majeures à la détection des ondes gravitationnelles.

schema-cnrs-1
© Collaboration LIGO-Virgo Localisation de la source des ondes gravitationnelles. En jaune : localisation obtenue avec les deux détecteurs LIGO. En vert : localisation obtenue en utilisant les données des trois détecteurs (LIGO et Virgo), par une analyse en temps réel. En mauve : localisation plus précise obtenue après une analyse plus poussée.

 

schema-cnrs-2
© LIGO Laboratory (deux premières photos) et Virgo / Nicola Baldocchi 2015 De gauche à droite : les deux détecteurs LIGO (à Hanford et Livingston, États-Unis) et le détecteur Virgo (Cascina, Italie).

 

Source : cnrs

Une concertation nationale sur l’économie circulaire

« L’économie circulaire, c’est le meilleur exemple possible de réconciliation entre l’économie et de l’écologie », a assuré Brune Poirson, secrétaire d’État auprès du ministre d’État, ministre de la Transition écologique et solidaire. Un secteur qui touche de très près à l’économie sociale et solidaire qui compte plus de 500.000 emplois, et est l’un des rares en croissance. Devant les professionnels du recyclage rassemblés dans la Cité des Congrès de Nantes, elle y a rappelé les bénéfices environnementaux capitaux du secteur. Notamment, le recyclage des déchets évite l’émission de 22,5 millions de tonnes de CO2 chaque année en France. Soit l’équivalent de 5% des émissions totales de la France. Et le recyclage d’une tonne de déchets créerait 30 plus fois plus d’emplois que de la mettre en décharge.

Sur la question capitale des déchets, le Gouvernement doit répondre à deux objectifs phares. D’une part, diminer de moitié la mise en décharge des déchets. De l’autre, atteindre un recyclage de 100% des plastiques d’ici 2025. Un objectif jugé irréaliste par les professionnels du recyclage. Mais le Gouvernement ne veut pas faire machine arrière. Comment y parvenir? Le Plan Climat présenté en Juillet dernier prévoit la publication début 2018 d’une feuille de route sur l’économie sociale et solidaire.

Des leviers incitatifs à activer

Les leviers à activer pour répondre aux objectifs sont multiples. Il faudra créer de nouveaux débouchés pour les matières recyclées, mais aussi mobiliser les fonds d’investissement pour qu’ils investissent dans des systèmes de collecte et des centres de tri modernes. Bruno Poirson voit « le développement d’une véritable culture en France de l’économie pour les entreprises et les consommateurs » et imagine la possibilité de ne mettre sur le marché que « des produits éco-conçus et facilement recyclables ».

Elle voit aussi une fiscalité nouvelle qui sera « incitative et cohérente avec les objectifs fixés ». Car les signaux économiques actuels ne sont pas bon. « Il faudra réorienter les investissements de la mise en décharge et des incinérateurs vers le recyclage », assure la ministre. Pour cela, les taxes portants sur ces dernières seront revues à la hausse d’ici la fin du quinquennat. Il faudra aussi lever les verrous réglementaires à l’utilisation des matériaux recyclés. La feuille de route du Gouvernement devra répondre à tous ces enjeux.

Une large concertation en préparation

Pour y parvenir, Brune Poirson a choisi les Assises des Déchets de Nantes pour présenter la méthode et le calendrier d’élaboration de cette feuille de route. Les citoyens, les associations, les collectivités et les entreprises seront largement mises à contribution. L’idée sera de s’appuyer au maximum sur les instances existantes. « Nous associerons les parties prenantes issues du conseil national des déchets et du conseil national de l’industrie et de l’institut de l’économie circulaire », prévient Brune Poirson.

Un panel d’ambassadeurs de l’économie circulaire sera associé à la concertation pour identifier les solutions innovantes et contribuer à diffuser les bonnes pratiques. Il formulera des recommandations pour élaborer la feuille de route. Des personnalités comme Ellen McArthur, Thierry Kuhn, Président d’Emmaüs France et Emmanuel Fabert, PDG de Danone, ont déjà accepté d’y prendre part.

Un calendrier pour établir la feuille de route

Concrètement, toutes ces parties prenantes seront reçues à Paris le 24 octobre pour lancer formellement les travaux d’élaboration de la feuille de route qui devront aboutir au premier trimestre 2018.

Fin octobre, une plateforme collaborative sera lancée pour recueillir les attentes et les propositions concrètes des citoyens. Des séances de travail seront aussi organisées pour faire émerger des solutions pour changer les comportements de tri. Par ailleurs, pour valoriser les données issues du Ministère et de l’ADEME sur la production des déchets, un « hackaton » sera organisé. Dans l’espoir de donner naissance à de nouvelles start-up de la greentech.

Par Matthieu Combe, journaliste scientifique

Réseaux énergétiques : la cible des hackers

Depuis 2009, tous les spécialistes de la sécurité informatique savent que le secteur énergétique est une cible pour certains États. Cette année-là, en juin, Stuxnet est repéré par une petite firme de sécurité biélorusse. Ce code destructeur a exploité plusieurs failles Windows non corrigées. Le code est relativement classique, mais il est intéressant d’un point de vue technique, puisqu’il consiste en un cheval de Troie doublé de technologies de type Rootkit pour le rendre invisible (ce qui n’est pas le cas de simples virus).

Autre particularité, il ne vise pas l’ordinateur de monsieur Tout-le-Monde, mais des systèmes de contrôle industriels que l’on trouve sur des sites sensibles (usines, centrales nucléaires…). Stuxnet analyse les systèmes informatiques et recherche certains critères – un contrôleur particulier, notamment – pour cibler de manière sûre des machines industrielles.

Depuis, ce secteur d’activité très sensible a déployé différentes techniques pour réduire les risques. Mais les pirates continuent à multiplier les attaques. Selon Symantec, éditeur de l’antivirus Norton, Dragonfly est de retour. En 2014, ce groupe de pirates soutenus par un État s’en prenait aux réseaux énergétiques de plusieurs pays, dont les États-Unis, la France, l’Italie, l’Espagne ou encore l’Allemagne.

Grizzly Steppe

Après une période de calme, il sévirait de nouveau. Baptisée Dragonfly 2.0, leur offensive s’appuie sur différents procédés pour infiltrer les systèmes informatiques de réseaux énergétiques : emails malveillants, usurpation d’applications légitimes ou des mises à jour autorisées, opérations d’ingénierie sociale… Rien de vraiment d’original ! Du moins, pour ce qui est des attaques connues…

Cible principale ? Les États-Unis. Cet été, une douzaine de centrales énergétiques ont repéré (ou ont été victimes) des intrusions dans leur système, selon un rapport du FBI et du département de la sécurité intérieure. Heureusement, les pirates n’ont pas pu prendre le contrôle des infrastructures. Quelques mois plus tôt, c’est le réseau électrique d’un fournisseur du Vermont (est des États-Unis) qui a été touché. « Un code associé à l’opération de piratage informatique baptisée Grizzly Steppe par l’administration Obama a été détecté à l’intérieur», écrit le Washington Post qui ne fournit plus de détails. Là aussi, officiellement, les menaces ont été repérées et donc endiguées. Qu’en est-il des attaques vraiment ciblées qui peuvent s’appuyer sur des codes malveillants conçus spécifiquement pour une cible ? Dans ce cas bien sûr, les antivirus n’apportent aucune parade…

Reste que la plus importante attaque visant ce type de réseau remonte à décembre 2015 : 80.000 habitants de l’ouest de l’Ukraine avaient été plongés pendant six heures dans le noir à la suite d’une cyberattaque d’une ampleur inédite. Le service avait été rétabli quand les opérateurs ont pris le contrôle manuel des systèmes et rebasculé les disjoncteurs. Selon l’entreprise de sécurité iSight Partners, le code malveillant portait la signature d’un groupe de pirates surnommé Sandworm Team qui opérerait depuis la Russie.

Par Philippe Richard

Donald Trump à l’assaut du solaire chinois… et mexicain

Section 201

Tout a débuté en mai dernier lorsque les constructeurs de panneaux solaires Suniva et Solarworld ont déposé une plainte pour concurrence déloyale auprès de l’International Trade Commission (ITC). Très affectés par la chute des prix de vente des modules PV, les deux groupes éprouvent les plus grandes difficultés à concurrencer les acteurs asiatiques notamment, qui produisent bien moins chers, voire à perte selon leurs détracteurs. Les deux compagnies ont demandé à l’ITC de faire jouer la section 201 du droit commercial américain qui autorise le gouvernement fédéral à prendre des mesures de rétorsion contre un produit « lorsque celui-ci est importé dans de telle quantités qu’il cause ou risque de causer de sérieux préjudices à l’industrie américaine ».

Trump prend la main

La semaine dernière, l’ITC donnait raison aux plaignants sur le fond ce qui implique que la commission va devoir proposer au président des Etats-Unis différentes options se basant sur les demandes de Suniva et Solarworld. Il lui appartiendra, le 13 novembre, de décider quelles mesures adopter. Les pays concernés sont la Chine, la Corée du sud et le Mexique, où de nombreuses entreprises américaines ont délocalisé leurs sites de production.

Il y a fort à parier que Donald Trump ne manquera pas cette occasion en or ; lui qui considérait pendant la campagne électorale que les entreprises chinoises exerçaient une concurrence déloyale. Par ailleurs, le président est ouvertement pro-hydrocarbures et a largement critiqué les énergies renouvelables. Les mesures protectionnistes pourraient être une taxe à l’importation (37 cents par Watt selon les plaignants), des quotas ou un prix plancher, ou encore une combinaison des trois.

Impacts

Le premier impact visible de cette décision a été la hausse des prix des modules. Les acteurs anticipant les futures taxes, ils ont constitué des stocks, ce qui a mécaniquement fait monter les cours sur le marché américain, explique Rhone Resch, ancien président de la Solar Energy Industries Association (SEIA).

La SEIA se dit très inquiète : « La décision de l’ITC est décevante pour près de 9 000 entreprises solaires américaines et les 260 000 personnes qu’elles emploient ». En effet, la grande partie des emplois liés à l’industrie solaire aux Etats-Unis est liée à l’installation, la maintenance, la vente de modules photovoltaïques. Les emplois de manufacture sont minoritaires. La hausse mécanique des prix de vente sur le marché, en raison des taxes à l’importation, va réduire l’attractivité de l’énergie solaire, face à d’autres technologies devenues plus compétitives. La demande pourrait baisser de plusieurs gigawatts selon le SIEA.

La section 201 a déjà été utilisé par le président George W. Bush en 2002 pour imposer durant trois ans des tarifs douaniers allant jusqu’à 30 % sur certaines importations d’acier, ainsi que des quotas pour protéger la sidérurgie américaine. La cible était là encore la Chine. Les conséquences de ces mesures n’ont pas fait l’unanimité pour le secteur qui a perdu beaucoup d’emplois. De plus, de nombreuses industries utilisant l’acier (automobile, pétrolière, armement) se sont vus impacter par la hausse de leur matière première, causant une baisse de compétitivité et des pertes d’empois collatérales.

Romain Chicheportiche

 

Un Plan Santé connectée pour la France ?

Si le modèle de santé français est encore vanté dans le monde, il recule dans les classements internationaux. Pourquoi ? Patrice Cristofini, Président et fondateur du club e-santé n’y va pas par quatre chemins. «L’une des raisons principales tient, selon nous, à ce que le système de santé français a manqué sa révolution digitale», souligne-t-il.

La France n’a pas assez investi pour déployer la santé connectée sur ses territoires. Télémédecine, téléexpertise, outils d’auto-diagnostics, cabine connectée de diagnostic, applications mobiles… «La France entre à peine dans cette nouvelle ère», regrette Patrie Cristogini. Pourtant, le pays présente de nombreux atouts: il détient des start-up de pointe dans le domaine, de grands groupes industriels en informatique et parmi les meilleurs médecins et chercheurs au monde.

Pour un Plan Santé connectée France

Mais tout médecin le sait bien, rien n’est jamais perdu. Le CEPS demande donc le lancement d’un vaste plan «Santé connectée France» portant sur cinq axes. Objecif: faire de la France l’un des leaders de la santé connectée d’ici 5 ans. Et assurer la «e-confiance» des Français pour ce nouveau mode de pratique de la médecine, «la clé de ce virage stratégique», projette Patrice Cristofini.

La top des priorités sera celle de la formation. Car le CEPS s’indigne de voir que la e-santé est totalement absente des programmes de formation. Il propose au moins 20 heures de cours chaque année dans la formation initiale de tous les professionnels de santé. Durant leurs études, ces derniers devraient aussi pouvoir suivre un stage de 6 mois dans une entreprise de la e-santé. Et un plan de formation continue sur ces nouveaux enjeux devrait être proposé à tout professionnel en activité, notamment aux plus de 50 ans.

Mais il faut aussi que l’Etat priorise ses financements pour favoriser la santé digitale. Le CEPS propose ainsi de le faire dans les contrats Etats-régions, par exemple pour encourager la télémédecine au service du suivi des maladies chroniques.

Structurer la e-santé en France et en Europe

Il faudra également structurer le secteur et créer une gouvernance forte. Le CEPS propose «la mise en place d’un tiers de confiance national à parité public-privé associant des professionnels de santé pour organiser l’accès aux données d’usage de la santé». Le centre adepte de prospective voit aussi la création d’une Haute Autorité pour la e-santé et une Agence Européenne de la e-santé.

Aujourd’hui, n’importe quel fabricant peut proposer un outil de e-santé. Et rien ne garantit son utilité ou sa fiabilité médicale. La Haute Autorité pour la e-santé permettrait de faire le tri parmi ces innovations, les labelliser ou les certifier. Les citoyens pourraient ainsi s’appuyer sur un avis indépendant pour éviter les gadgets médicaux connectés et les professionnels de santé pourraient recommander les meilleures solutions de santé connectée sur des bases fiables. De son côté, l’Agence Européenne de la Santé jouerait un rôle crucial pour mieux encadrer la collecte des données de santé par ces mêmes entreprises et les grands groupes. Qui a dit qu’il fallait craindre l’intelligence artificielle ?

Par Matthieu Combe, journaliste scientifique

Les jeux vidéos peuvent être des dispositifs médicaux !

«On n’est pas dans le bien-être, mais dans la santé», assure Pierre Foulon, Directeur du pôle numérique e-santé du groupe Genious. Très loin des applications bien-être, son jeu X-TORP, destiné aux patients atteints de la maladie d’Alzheimer ou de pathologies assimilées est reconnu comme un dispositf médical de Classe 1 et bénéficie du marquage CE. Il permet de mesurer les effets de la maladie tout en pratiquant sa mémoire, en faisant une activité physique et en s’amusant. Pour le patient, il est possible de jouer avec sa famille ou des amis. De quoi favoriser le lien social, essentiel dans la lutte contre la maladie.

Curapy, la plateforme de jeux-vidéos thérapeutiques

Le jeu est disponible sur la plateforme de jeux-video thérapeutiques Curapy.com. Les jeux qui y sont proposés permettent de soigner différemment, de solliciter les patients sur des aspects physiques, mais aussi cognitifs. «Le patient va se libérer et faire une séance de rééducation tout en prenant du plaisir», se félicite Pierre Foulon.

D’ores et déjà, Curapy est en relation avec 5.000 professionnels de santé. Et environ 1.000 patients utilisent la solution. La plateforme est libre et gratuite pour les professionnels de santé. «Notre marché est sur le patient», explique Pierre Foulon. Mais le dispositif est clairement abordable. L’entreprise propose ainsi un accès gratuit aux jeux. Pour obtenir les résultats et progresser, l’abonnement monte à 5 euros par mois. Et pour pouvoir communiquer sur ces résultats avec son professionnel de santé, il faudra débourser 10 euros par mois au total.

L’évolution de la maladie peut-être suivie grâce à une interface intuitive.

Des jeux-videos pas comme les autres !

Pour développer un nouveau jeu, l’entreprise passe par une lourde charge administrative. D’abord, il faut définir des objectifs thérapeutiques à atteindre. «Ils portent sur le cognitifs, sur le physique et on rajoute les tests classiques de mesure d’évolution de la maladie», précise Pierre Foulon. Il faut ensuite créer les thérapies numériques, valider cliniquement l’efficacité et mesurer l’efficacité médico-économique de cette innovation sur le système de santé. «Tous nos essais cliniques et résultats sont publiés dans des revues scientifiques», assure le directeur. Il faut enfin travailler sur la conformité réglementaire.

L’entreprise dispose actuellement de plusieurs jeux en expérimentation clinique. Par exemple, Toap Run va travailler sur les troubles de la marche et de l’équilibre, une expérimentation clinique est en cours sur la maladie de Parkinson. JeMime s’adresse aux enfants autistes, Memo s’attaque aux troubles cognitifs,  Ergotact à la rééducation du membre supérieur post-AVC et VisioNum à la rééducation orthoptique.

Le jeu X-TORP a été validé cliniquement au CHU de Nice comme outil de mesure d’évolution de la maladie d’Alzheimer. Les résultats ont été publiés dans le Journal of Alzheimer’s Disease en août 2016. X-TORP fait actuellement l’objet d’une nouvelle étude auprès de 180 patients, en PACA et en Ile-de-France. Ces tests sont encadrés par le Professeur Philippe Robert et le Professeur Bruno Dubois, deux références sur la maladie d’Alzheimer.

Par Matthieu Combe, journaliste scientifique

DowDupont est en marche, la chimie des géants se poursuit

Après l’accord des différentes autorités du marché pour la fusion entre Dow Chemical et DuPont, la nouvelle société est officiellement entrée en bourse le 1er septembre 2017 sous le nom de DowDuPont. Cette fusion, actée depuis fin 2015, crée le numéro 1 mondial de la chimie devant l’allemand BASF avec une capitalisation boursière de l’ordre de 130 milliards d’euros et plus de 100 000 salariés dans le monde.

Déjà des changements dans les trois pôles

Dès le projet de rapprochement, il avait été décidé d’ensuite scinder le groupe en trois entités indépendantes cotées en bourse : chimie des matériaux, chimie de spécialités, agrochimie. Le périmètre de ces trois entités vient d’évoluer. Suivant l’avis de certains actionnaires activistes (notamment Third Point et Trian Fund), certaines activités vont passer du pôle chimie des matériaux vers le pôle chimie de spécialités. Il s’agit des activités de Dow dans les adhésifs, fluides et lubrifiants automobiles, le traitement des eaux, la construction, la pharmacie et l’alimentaire, les produits biocides ainsi que les activités de DuPont dans les polymères spécialisés et plusieurs autres entités liés à l’éclairage LED, les semi-conducteurs ou le médical. L’ensemble des activités concernées par ce changement représentent un chiffre d’affaires annuel de l’ordre de 7 Md€. Une évolution a priori porteuse pour les actionnaires et qui a ravi les marchés boursiers : le jour de l’annonce (12 septembre), le titre de DowDuPont a ainsi grimpé de 2,23%…

Au final, les trois pôles sont donc composés comme suit :

  • Pôle agrochimie : il réunit DuPont Pioneer, DuPont Crop Protection et Dow AgroSciences offrant ainsi un éventail de produits et services aux agriculteurs depuis les semences jusqu’aux solutions numériques de gestion. Le siège sera à Wilmington dans le Delaware (siège de DuPont).
  • Pôle Science des matériaux : il sera lui-même divisé en trois segments (matériaux performant et revêtements ; intermédiaires industriels et infrastructure ; emballages et plastiques de spécialités). Il préservera la marque Dow sur ces produits et son siège sera situé à Midland dans le Michigan (siège de Dow Chemical)
  • pôle chimie de spécialités : divisé en quatre segments (électroniques et imagerie ; transport et polymères avancés ; construction et sécurité ; nutrition et biosciences). Son siège sera à Wilmongton dans le Delaware.

Toujours plus gros, toujours plus fort

Mais la fusion DowDupont ne doit pas être l’arbre qui cache la forêt. D’autres mouvements massifs sont en cours dans le secteur de la chimie. Sans être exhaustif, on peut citer

  • Le rachat de Monsanto par Bayer pour 66 Md€
  • Le chinois ChemChina qui est en train de boucler son achat du suisse Syngenta pour 37 Md€
  • la fusion bientôt finalisée entre canadiens dans les engrais chimiques. Potash corp et Agrium doivent d’ici la fin de l’année former un groupe baptisé Nutrien dont la valeur totale est estimée à 30 Md€. Ce nouveau géant des engrais comptera environ 20 000 employés répartis dans 18 pays.
  • La fusion entre l’allemand Linde et l’américain Praxair pour former le leader des gaz industriels (devant le français Air Liquide qui vient de racheter Airgas pour 12Md€). Le nouveau groupe possédera un chiffre d’affaires de 27Md€ pour 80000 salariés dans le monde, et pèsera quelques 66 Md€ de capitalisation boursière.
  • le rachat par BASF de l’activité nylon de Solvay pour 1,1 Md€, annoncée le 19 septembre dernier.
  • le suisse Clariant (pigments) et l’américain Huntsman (polyuréthanes et pigments), qui sont en train de créer un groupe de 12 Md€ de chiffre d’affaires.
  • et plus modestement en France, la fusion en cours entre Novacap (pharmacie chimie fine) et PCAS (biopharmaceutique) pour former une entité approchant le milliard d’euros de chiffre d’affaires.

Sophie Hoguin

Cardiologs et le deep learning sur les électrocardiogrammes

Le premier produit de Cardiologs est un logiciel qui facilite l’interprétation des électrocardiogrammes, l’examen classique qui analyse l’activité électrique du coeur. Grâce à une base de données d’environ 500.000 électrocardiogrammes, le logiciel a appris à lire les électrocardiogrammes et à détecter des défauts infimes dans leur profil. Il dépiste ainsi toutes sortes de pathologies, notamment des arythmies cardiaques comme la fibrillation atriale.

Ce trouble fréquent du rythme cardiaque affecte environ 2 % de la population. « C’est un facteur de risque qui provoque des AVC [accidents vasculaires cérébrales], explicite Yann Fleureau, Fondateur de Cardiologs. Elle peut être paroxystique, c’est-à-dire que vous ne l’avez pas tout le temps, et elle peut être silencieuse, c’est-à-dire que vous ne la sentez pas ». D’où la difficulté pour les médecins de faire de la prévention.

L’intelligence artificielle, au service de la prévention

La prévention de la fibrillation atriale est avant tout secondaire, suite à un AVC. Ce n’est pas l’idéal. Il faudrait diagnostiquer cette pathologie au plus tôt, tant qu’elle n’est pas permanente. Mais au départ, elle ne survient que par épisodes, quelques minutes par semaine. Ensuite, elle s’aggrave quelques heures par semaine jusqu’à devenir permanente et de plus en plus difficile à traiter. Pour la détecter, les médecins mettent donc en place des suivis de longue durée jusqu’à plusieurs semaines. Mais il faut diagnostiquer de plus en plus de patients, faire des enregistrements de plus en plus longs. Et la lecture des électrocardiogrammes prend plusieurs heures.

« C’est un des terrains favorables au développement de l’intelligence artificielle : permettre de démultiplier la capacité du médecin à suivre plus de patients, à les suivre pendant plus longtemps et accompagner la transition d’une médecine ponctuelle à une médecine plus continue où on va pouvoir monitorer le patient à distance », prévient Yann Fleureau.

Cardiologs détecte les pathologies en quelques minutes

Concrètement, grâce à Cardiologs, le cardiologue va pouvoir naviguer parmi les épisodes qui ont été pré-détectés par l’intelligence artificielle. Chaque épisode anormal va être automatiquement classé par pertinence clinique. « Un processus qui prenait plusieurs heures avec un logiciel classique prend maintenant quelques minutes », soutient Yann Fleureau. Le cardiologue peut ensuite générer automatiquement un rapport. « C’est un exemple clinique de comment l’intelligence artificielle peut se mettre au service du cardiologue pour lui permettre de faire des examens de plus longue durée, plus précis, d’aller chercher une information complémentaire au service du patient », résume-t-il. Le logiciel peut aussi aider les médecins non-cardiologues à lire les électrocardiogrammes. Il les assiste, statistiquement, pour avoir un meilleur diagnostic, et cela beaucoup plus rapidement.

La start-up fondée en 2014 comprend déjà une quizaine de collaborateurs. Elle a a gagné le concours mondial d’innovation en 2014. Et la suite a été tout aussi bénéfique. Elle a été la toute première société au monde à recevoir le marquage CE pour un algorithme de deep learning. Et la deuxième à recevoir l’accord de la FDA aux Etats-Unis pour commercialiser un algorithme de deep learning. Aujourd’hui, Cardiologs a vocation à pousser sa solution de monitoring cardiaque aux Etats-Unis et en Europe.

Par Matthieu Combe, journaliste scientifique

Cosmologie, ressources minières… Ruée sur les astéroïdes

La communauté scientifique (et industrielle) s’intéresse de près aux astéroïdes pour des raisons très diverses :

  • les astéroïdes voyagent et transportent de la matière dans le temps et dans l’espace et sont donc porteurs de réponses concernant la formation de l’univers, de notre planète et de l’apparition de la vie.
  • Un intérêt de sécurité car mieux les connaître et être capable de s’en approcher voire s’y poser c’est pouvoir plus facilement trouver des solutions pour éviter une collision dramatique avec la Terre.
  • Un intérêt économique, car on commence à imaginer comment exploiter leur richesse minière.

Bon. Sauf que pour le moment la mission Rosetta et l’atterrissage de Philae sur la comète Tchouri en 2014 reste une réalisation exceptionnelle.

En route pour Ryugu et Bennu

Il y a un an, le 8 septembre 2016, la Nasa a lancé Osiris-Rex, une sonde à destination de l’astéroïde 101955 Bennu (Bénou en version française). Hasard du calendrier, Osiris Rex vient de nous rendre visite ce vendredi 22 septembre pour profiter de l’assistance gravitationnelle de la Terre, prendre quelques clichés et repartir plus vite vers sa destination qu’elle doit atteindre en 2020. Pour elle, le retour est programmé en 2023. Son objectif ? Récolter quelques échantillons de roche et les ramener sur Terre. Comment? Grâce à un bras de 3,35m qui crache un jet d’azote qui doit décoller des roches et un aspirateur capable de récolter et stocker 60g de matière. Un système largement inspiré des Japonais qui sont eux en route pour 162173 Ryugu avec Hayabusu 2 dans le but de récolter 1g de matière. Lancée en décembre 2014, Hayabusa 2 doit tenir compagnie à Ryugu de juillet 2018 à février 2019 et lâcher Mascot, un atterrisseur fourni par les Allemands (DLR) et les Français (CNES), avant de revenir sur Terre en décembre 2020. L’agence spatiale japonaise (JAXA) n’en est pas à son coup d’essai, elle bénéficie de l’expérience d’Hayabusa 1 qui a touché le sol de de l’astéroïde Itokawa en 2005 sans réussir à se poser convenablement mais en ramenant quelques centaines de grains de poussières à son bord.

Des plans sur la comète

Ces tentatives ont tôt fait d’échauffer les esprits inventifs et cupides de plusieurs entités économiques prêtes à partir à la chasse aux minéraux, métaux et ressources énergétiques que l’espace peut nous offrir. Après tout, selon son type, un seul astéroïde d’un kilomètre de diamètre pourrait fournir le fer et le nickel mondial pour une année entière. Outre la création spécialement dans ce but de deux entreprises américaines (Planetary Ressources et Deep Space Industries), ce sujet a fait l’objet récemment de la publication d’un livre blanc par le Luxembourg à la suite d’une discussion mondiale entre toutes les parties intéressées en septembre 2016. Notons d’ailleurs que le Luxembourg se veut à la pointe du sujet . Il vient de mettre en place (aout 2017) un cadre législatif favorable pour les entreprises qui envisagent cette activité. Ce cadre se veut un modèle pour un futur droit commercial international de l’espace ; il est calqué sur le droit maritime où il n’y a pas d’appropriation en soi mais un droit à exploiter les ressources.

Le contenu de ce livre blanc de 80 pages a été présenté à l’occasion du congrès européen des sciences des planètes (European Planetary Science Congress) organisé par Europlanet à Riga en Lettonie du 17 au 22 septembre 2017.

Mettant en avant le fait qu’on ne sait pas encore grand chose des astéroïdes : quels sont ceux qui sont « facilement » accessibles depuis la Terre, quel est leur composition ? Comment la connaître ? Comment les exploiter : sur place, sur Terre, sur une base lunaire ? Que nous reste-t-il à développer ? De quoi mesurer que leur exploitation n’est vraiment pas pour demain…

Plus on est de fous…

A l’occasion du Congrès d’Europlanet, le Dr. Pekka Janhunen de l’Institut finlandais de météorologie, est venu présenter son concept pour visiter 300 astéroïdes en trois ans. De quoi s’agit-il ? Simplement d’une flotte d’une cinquantaine de mini-sondes spatiales munies d’une propulsion à base de voiles électriques à vent solaire (E-sails) embarquant télescope, caméras et spectromètre pour évaluer la composition des astéroïdes. Chaque sonde passerait à quelque 1000 km de 6-7 astéroïdes avant de revenir sur Terre délivrer ses données. Les sondes feraient à peu près 5 kg et seraient placées au bout d’une longe d’une vingtaine de kilomètres. Le système d’E-sail inventé par Pekka Janhunen en 2006 fournirait une vitesse de l’ordre d’un millimètre par seconde. Il utilise l’énergie des protons des vents solaires pour créer la rotation d’une tige qui fournit alors un faible courant électrique. L’aller-retour jusqu’à la ceinture d’astéroïdes prendrait donc à peu près 3,2 ans. Comme ces sondes n’auraient pas la capacité d’emporter une grande antenne, elles seraient obligées de repasser vers la Terre pour livrer leurs données. « Le coût total de la mission est estimé à 60M€ (lancement compris), soit 200 000 euros par astéroïde visité, une bagatelle comparativement au coût d’une mission conventionnelle qui se chiffrerait tout de suite en milliards », précise l’auteur. Reste qu’on attend encore la validation du fonctionnement dans l’espace d’une telle sonde.

Par Sophie Hoguin

Revue du web #106 : les 8 vidéos les plus étonnantes du mois

Le premier service de livraison par drone bientôt mis en service en Suisse

La société nord-américaine Matternet a enfin reçu l’agrément des autorités suisses ! Ses drones devraient bientôt pouvoir livrer aux hôpitaux les prélèvements sanguins et échantillons d’analyses réalisés dans les laboratoires.

 

Un robot mis en mouvement par aspiration d’air

Simple mais efficace. Ce système robotique inédit imaginé par les roboticiens de l’École Polytechnique Fédérale de Lausanne exploite un élément dont nous espérons ne jamais manquer !

 

Sauvé par un drone !

Une start up française a imaginé Helper, un drone sauveteur en mer qui détecte la personne en danger, lui lance une bouée et contacte un sauveteur (humain, cette fois).

 

Surveiller son salon avec un drone

Les drones s’invitent partout, même chez vous ! Finie la caméra fixe, ce drone explore toutes les pièce de votre maison…
Les cambrioleurs vont devoir rivaliser d’inventivité.

 

Construction d’une éolienne en time-lapse

Si vous n’avez pas encore eu l’occasion d’assister à l’assemblage d’une éolienne, suivez-nous, il y en a pour 5 minutes !

 

Propulser un satellite avec… de l’eau !

Voilà un système de propulsion plutôt original mis au point par des ingénieurs américains. Une cuillère à café d’eau ultra purifiée suffit !

 

 

L’Usine du futur selon PSA

Pour PSA, voici à quoi devrait ressembler l’usine idéale d’ici quelques années. Naturellement, on croise beaucoup de robots, bracelets connectés, écrans…

 

Le laser le plus puissant du monde

Il a été inauguré au début du mois, en Allemagne. European XFEL va notamment sonder la matière et observer virus et réactions chimiques.

Pour (re)découvrir cette incroyable innovation, (re)lisez notre article publié il y a quelques semaines :  Inauguration du European XFEL : le plus puissant des rayons X du monde

 

Par Iris B.

L’ADEME vante les mérites de l’éolien !

En 2015, quelques 600 entreprises étaient impliquées dans la filière éolienne française. Le marché de l’investissement dans de nouveaux parcs est estimé à 1,3 milliards d’euros, pour un marché de l’exploitation-maintenance de 475 millions d’euros, selon un nouveau rapport de l’ADEME. Ces entreprises importent pour 685 millions d’euros, principalement des turbines et des composants. À l’opposé, la vente d’électricité rapporte 1,87 milliards d’euros. Et ces entreprises réalisent 663 millions d’euros de chiffres d’affaires pour l’exportation, principalement dans la fabrication de composants.

En 2015, la filière représentait 18.000 emplois équivalent temps plein (ETP), qu’ils soient directs ou indirects. Soit 18 ETP par mégawatt (MW) installé. C’est mieux qu’au Brésil (15), mais très loin de l’Allemagne (30). L’ADEME explique cette différence notamment par l’absence d’un important fabricant de turbines en éolien terrestre de plus de 1 MW sur le territoire français. Toutefois, l’ADEME note des « signes encourageants ». Le ratio est passé de 7 à 11 ETP directs par MW entre 2007 et 2015. Par ailleurs, l’essor de l’éolien en mer dynamise l’emploi dans les zones côtières, avec l’installation de grands turbiniers et fabricants de composants étrangers. Sans oublier le développement d’un marché pour la gestion de la fin de vie qui devrait être générateur de nombreux emplois pour la filière. Ainsi, les projections de l’ADEME montrent que cette dernière pourrait représenter entre 40.000 et 75.000 ETP en 2035, hors exportation. Et entre 60.000 et 93.000 ETP directs et indirects en 2050.

L’éolien, au service de la transition écologique

« Une analyse des données historiques disponibles montre que l’électricité éolienne se substitue à la production des centrales nucléaires et au gaz, charbon ou fioul », note l’ADEME. Elle contribue ainsi à l’indépendance énergétique française et à atteindre les engagements de diminution des émissions de gaz à effet de serre de la France. En effet, entre 2002 et 2015, le développement de l’éolien a évité l’émission de près de 63 millions de tonnes de CO2 équivalent. Pour l’année 2014, l’éolien a même représenté environ 9% de l’effort national de réduction par rapport à 1990.

Mais ce n’est pas tout. Le développement de l’éolien a permis d’éviter de façon significative les émissions de polluants atmosphériques tels que le SO2, les NOx ou encore les particules fines. « En 2013, les émissions évitées de SO2 et NOx représentaient ainsi de l’ordre de 22% à 37% du total des émissions de SO2 et NOx du secteur de production d’électricité », précise l’ADEME. L’éolien a aussi permis de réduire les risques d’accidents industriels, les risques liés à la gestion des déchets radioactifs et les risques financiers liés à la volatilité des prix du carbone et des énergies fossiles.

Des gains supérieurs aux dépenses

Jusqu’en 2010, la politique de soutien à l’éolien n’a pas eu beaucoup d’effet sur la facture d’électricité des ménages. Celle-ci a augmenté à partir de 2011 mais l’impact reste limité : la part de la CSPE attribuable à l’éolien représente environ 2,9 % de leur facture. Entre 2002 et 2013, le coût complet de la politique de soutien à l’éolien est évalué à 3,2 milliards d’euros. En face, les bénéfices environnementaux énoncés précédemment sont monétarisés entre 3,1 et 8,8 milliards d’euros sur la même période. Les bénéfices environnementaux sont donc à la hauteur, voire supérieurs, aux coûts associés au dispositif de soutien.

Accélérer le développement de l’éolien

Malgré tous ces avantages, la moitié des projets éoliens ont fait l’objet de recours entre 2012 et 2014. Les retards induits ont pu dépasser trois ans. « La fixation des objectifs et l’élaboration du cadre réglementaire n’ont pas suffisamment anticipé les difficultés qui allaient se présenter en termes de conflits d’usages, d’intégration locale, de prise en compte des impacts environnementaux et d’aménagement du réseau », analyse l’ADEME. Résultat : sur la période 2004-2015, les objectifs successifs n’ont pas été atteints. Le rythme moyen d’installation d’éoien terrestre et en mer aurait dû s’élever à 1.580 MW/an, alors que le rythme moyen réel a été de 840 MW/an. L’ADEME plaide donc pour une implication croissante des parties prenantes pour intégrer localement les projets, une simplification accrue du cadre réglementaire et une rationalisation des procédures.

Pour atteindre les objectis de la Programmation Pluriannuelle de l’énergie (PPE) pour 2023, le rythme d’installation doit encore s’accélérer. En effet, il faudra installer entre 1.400 et 2.000 MW d’éolien sur 2017 et les six prochaines années. Contre un rythme annuel de 1.150 MW sur les dernières années. Il faudra à nouveau dépasser le record de 2016 qui s’élevait à 1.345 MW.

L’ADEME a identié plusieurs innovations techonologiques et des leviers logistiques et financiers pour réduire les coûts. L’agence estime qu’ils pourraient donc atteindre 42 €/MWh à terre, 54 €/MWh en mer pour les éoliennes posées et 62 €/MWh en flottant sur une durée de vie de 30 ans. « À cet horizon, l’éolien serait donc l’une des technologies au coût de production unitaire le plus faible », prévoit l’agence. Et l’éolien serait même compétitif sans mécanisme de soutien.

Par Matthieu Combe, journaliste scientifique

Satellites : Lockheed Martin investit 350 millions de dollars pour son usine du futur

Baptisé le Gateway Center, la nouvelle usine comprendra une salle propre équipée des dernières technologies capables d’accueillir l’assemblage simultané de plusieurs satellites de toutes tailles, du micro au macro. L’usine sera sans papier, la production connectée et numérique et les lignes de fabrication reconfigurables rapidement avec des fonctionnalités de test avancées. Le centre inclus une très grande chambre d’essais sous vide thermique pour recréer l’environnement spatial, une chambre anéchoïque pour les tests des capteurs et des systèmes de télécommunications et un centre d’analyse pour les opérations avancées. En outre, il est prévu que le centre soit certifié selon les standards de sécurité requis pour répondre à des missions de sécurité nationale. Les travaux de terrassements ont été entamé cet été et la livraison est prévu courant 2020. Rick Ambose, vice-président exécutif de Lockheed Martin, explique ainsi que « la salle propre est tellement vaste que si on y mettait la navette spatiale il y aurait encore de la place. Avec cet espace et cette versatilité, nous allons maximiser les économies d’échelle et grâce à la présence sous le même toit de toutes les chambres de tests, nous pourrons optimiser la production ». Il ajoute que, « couplée aux avancées de l’impression 3D, de la conception et la fabrication via la réalité virtuelle et la robotique Lockeed Martin investit dans des innovations qui changent la donne et permettent des économies de temps et d’argent pour l’entreprise et les clients. »

Par Sophie Hoguin