La Russie peut-elle faire web à part ?

Prise par deux sénateurs et un député russes, cette initiative sur « l’isolement » visait à répondre au « caractère agressif de la stratégie pour la cybersécurité nationale des États-Unis » adoptée en septembre 2018.

Le projet de loi portait principalement sur deux points : le contrôle du système de noms de domaine (DNS, le système d’adressage de l’Internet) et le routage du trafic (transfert des données d’un expéditeur vers des destinataires pour simplifier). Mais mi-mars, 15000 personnes ont manifesté à Moscou.

La « révolte Safran »

Depuis, les autorités ont précisé que le test ne visait pas à couper le cordon ombilical avec l’internet. La nouvelle loi « vise à garantir la survie d’Internet en cas d’éventuelles cyberactions agressives contre notre pays », a indiqué le porte-parole de Vladimir Poutine.

Néanmoins, progressivement, la Russie souhaite contrôler son trafic internet et les données. Depuis 2016, une loi oblige les entreprises traitant des données de citoyens russes à les stocker sur le territoire national.

L’idée de couper le web n’est pas nouvelle. Bloquer les connexions au réseau mondial est en effet possible. Mais sous certaines conditions comme le montrent les deux seuls exemples de blocage total : la Birmanie (au moment de la « révolte Safran » de 2007 menée par les moines bouddhistes) et l’Égypte (fin janvier dernier). Ces coupures ont été facilitées par le fait qu’il y a peu de fournisseurs d’accès à Internet (FAI) et qu’ils ont des liens plus ou moins étroits avec l’État.

Pour éteindre l’Internet, les FAI ont bloqué l’accès aux protocoles DNS (Domain name server, qui aiguille les ordinateurs vers les adresses des sites) et BGP (Border gate protocol, qui indique quelles adresses IP sont utilisées par les fournisseurs d’accès). Impossible aux PC de trouver un chemin permettant d’accéder à la toile.

Couper le fixe, le mobile, le câble…

Techniquement, l’État français pourrait obtenir le même résultat si les principaux FAI bloquaient l’accès à ces deux protocoles. En 24 heures, 90% des Français n’auraient plus Internet. Mais cette décision se heurterait à des obstacles techniques et juridiques et elle aurait de graves répercussions sur l’économie nationale.

Par ailleurs, pour qu’aucun accès au web ne soit possible il faudrait couper à la fois les lignes téléphoniques fixes et mobiles, le câble, la fibre optique et éteindre toutes les bornes Wi-Fi privées et publiques. Inimaginable. C’est comme si un pays fermait tous les axes routiers, des autoroutes jusqu’aux départementales, voire les routes de campagne. Impossible.

Pour revenir à la Russie, l’exercice serait difficile à relever. Contrairement à la Chine qui a pensé et conçu son réseau avec une gouvernance centralisée, la Russie compte plus de 3000 FAI avec de nombreuses connexions physiques et économiques avec l’étranger.

Le test ne se fera peut-être jamais. Il témoigne, en tous les cas, de la volonté de la Russie de limiter sa dépendance technologique et de restreindre sa surface d’attaque.

“Innovate! Towards Mobility for all” : le forum Imagine Mobility 2019

Assurer la mobilité pour tous et pour tous les territoires, notamment les zones rurales et périurbaines, est une nécessité absolue.

Le développement de nouvelles offres, la révolution digitale et la transition énergétique constituent un formidable potentiel pour répondre à cet enjeu majeur.

C’est le thème choisit par MOV’EO, le pôle de compétitivité en R&D Mobilité et automobile pour son forum Imagine Mobility 2019 :  « Innovate! Towards Mobility for all – Combining vision, technology & behavioural changes” sera le sujet des échanges entre acteurs français et européens de la mobilité.

Pour en savoir plus sur le programme, cliquer ici

En images : une eau qui ne gèle pas… même à -263°

Des chercheurs suisses sont parvenus à empêcher l’eau de se transformer en glace, malgré la température de -263 °C ! Pour réussir cet exploit, ils ont mis au point une nouvelle classe de lipides qui forment de minuscules canaux, si petits que la glace ne parvient pas à se former.

La filière éolienne fait une contre-PPE en faveur de l’offshore

Dans leur communiqué commun, le Syndicat des énergies renouvelables (SER) et la Fédération France Eolienne (FEE) rappellent que le 27 mars dernier, six Régions littorales métropolitaines, jugeant que le projet de décret concernant la PPE « était particulièrement insuffisant sur le volet éolien en mer, ont présenté une contre-proposition plus ambitieuse pour répondre aux attentes des territoires en matière de transition énergétique. En lien avec elles, la profession éolienne a également travaillé à une contre-proposition depuis plusieurs semaines. Sur la base de ces deux contre-propositions convergentes, la profession et les Régions pourront poursuivre leur travail en commun, dans le même but d’engager des appels d’offres réguliers avec un volume annuel plus ambitieux. »

Pour Jean-Louis Bal, président du SER, « le volume actuellement proposé dans le projet de PPE est insuffisant pour l’offshore et présente en outre des trous dans les appels d’offres en 2021 et 2022 ».

Le projet actuel de PPE prévoit en effet une capacité installée de 4,7 à 5,2 GW en 2028. Un chiffre qui, rappelle la filière, « comprend les capacités déjà en développement (3,1 GW) ainsi que les projets qui seront alloués entre 2019 et une date ultérieure. »

Comme un délai d’environ 6 à 7 ans est nécessaire entre l’attribution d’un appel d’offres et la mise en service d’un parc éolien en mer, seuls les projets attribués d’ici 2021 pourront être en service en 2028, en fin de calendrier de la PPE actuelle.

Ainsi, insistent le SER et la FEE, « l’option haute du projet de PPE correspond donc en grande partie à des volumes déjà attribués et ne reflète pas le potentiel de la filière. »

Le « souhait » de la profession sur l’offshore est de pouvoir disposer d’appels d’offres d’au moins 1 GW par an jusqu’en 2023, puis de 1,5 GW par an jusqu’en 2018.

Or, « le rythme d’appel d’offres prévu dans le projet de PPE se situe en moyenne entre 540 MW et 665 MW par an d’ici 2024, soit une dynamique nettement inférieure aux attentes de la profession et des régions littorales, qui défendaient un volume minimum de 1 000 MW par an – soit 1 à 2 projets de parcs ».

Manque de visibilité industrielle

Et la filière d’insister sur le fait que le projet de PPE qui va parvenir au CESE en mai ne permet pas « un développement durable de la filière industrielle de l’éolien en mer » car avec des « creux de charge dans les productions », il n’offre pas de visibilité suffisante pour investir dans les capacités industrielles et accélérer la baisse des coûts par effet d’échelle.

Le président du SER signale ainsi qu’il serait nécessaire de mettre en œuvre au moins deux fois 750 MW d’éolien posé supplémentaires, attribués entre 2021 et 2022, et trois appels d’offres de plus en faveur de la filière flottante. Pour le flottant, cela serait possible dans chacune des 3 régions accueillant une ferme pilote, via le lancement d’un appel d’offres de 250 MW, complété 2 à 3 ans plus tard par une tranche de 500 MW.

Enfin, la PPE, dans son cadre actuel, réduit la perspective des volumes d’appels d’offres engagés après 2024 (500 MW), « alors même que la compétitivité de la filière sera encore améliorée ». Ce qui constitue « un décalage par rapport à l’évolution des machines et standards dans le monde et en Europe, où les projets engagés dorénavant le sont sur des volumes dépassant 1 000 MW. »

Le SER et la FEE signalent qu’en termes d’éolien posé, la compétitivité de la filière est « avérée » avec des prix en Europe très concurrentiels depuis 2016 voire dans quelques cas – comme aux Pays-Bas, au Danemark ou en Allemagne – à parité avec les prix de marché ; la profession fait le même constat que les régions littorales et juge que le volume de projets engagés demeure notoirement insuffisant au regard du gisement disponible en France, le deuxième d’Europe.

Alors que l’appel d’offres en cours sur Dunkerque, avec un prix cible de 70 Euros/MWh, devrait montrer que la technologie permet d’être bien en-deçà de ce prix, le gouvernement doit prendre en compte ce facteur. Jean-Louis Bal rappelle ainsi que « si le prix ressort pour Dunkerque à 60 €/MWh, cela peut se traduire par un engagement pour 1 GW supplémentaire », grâce à l’économie réalisée sur le prix cible, sans augmenter le coût des engagements de la PPE*. En outre, les engagements déjà pris en matière d’offshore sont évalués à 18,7 milliards d’euros, tandis qu’il reste 6,7 md€ à engager.

Pour l’éolien flottant, la profession (et les Régions) juge que « les coûts de production rejoindront rapidement ceux de l’éolien en mer posé » ; ainsi, « les volumes envisagés sont également bien trop faibles pour enclencher une réelle dynamique industrielle porteuse d’emplois et de retombées économiques locales, alors même que la France s’est bien positionnée sur ce marché international émergent. »

*Etude fondée sur un prix de marché de gros évalué autour de 56 €/MWh

Perturbateurs endocriniens : les pistes pour mieux protéger la population

« On menace l’avenir de l’avenir, c’est un sujet inédit » déclare Émilie Gaillard, maître de conférences en droit à Sciences Po Rennes. La jeune femme alerte sur les graves risques que les perturbateurs endocriniens font courir à la population, et notamment aux personnes les plus fragiles. Également membre du Comité de Recherche et d’Information Indépendantes sur le génie Génétique (CRIIGEN), elle insiste sur l’urgence d’agir au nom des générations futures. Cet appel à l’action urgente est lié aux découvertes scientifiques de ces dernières années qui démontrent que l’exposition d’une personne aux perturbateurs endocriniens a également une incidence sur la santé de la descendance. Émilie Gaillard aimerait voir les citoyens se mobiliser pour la santé de leur descendance, dans des mouvements similaires à ceux organisés pour la préservation du climat.

Les industriels commencent à s’en préoccuper

De plus en plus d’industriels ont également conscience que la protection de la santé des consommateurs est une question essentielle. Charles Kloboukoff, président-fondateur de la marque de produits bio Léa Nature en fait partie. Pour lui, rechercher des solutions naturelles et bio pour le consommateur est essentiel. « Les perturbateurs endocriniens sont présents dans les emballages, les ingrédients, les additifs et les pesticides. Nous devons donc trouver les solutions pour limiter les sources d’exposition » déclare le président de Léa Nature. Aujourd’hui, cette firme développe un plan pour éradiquer le plastique de ses produits. La chasse concerne également les nitrites du jambon et les nanoparticules.

Léa Nature a investi durant les quatre dernières années 7 millions d’euros dans de nouvelles unités de transformation. Cette modernisation a permis de limiter la contamination des aliments par l’acrylamide – lors des processus de cuisson – et par les dioxines. Ces dernières ont tendance à s’accumuler notamment dans le foie et dans le lait maternel. Or, leur persistance dans le corps humain est de plusieurs années, et à haute dose ces perturbateurs endocriniens sont potentiellement cancérigènes. Charles Kloboukoff explique également que Léa Nature cherche à éliminer tous les perturbateurs endocriniens potentiels de la composition de ses cosmétiques. « C’est la raison pour laquelle nous n’avons pas de produit solaire, il n’y a pas aujourd’hui de solution bio qui soit satisfaisante » ajoute-il.

Signaler les perturbateurs endocriniens sur les étiquettes

La lutte et la sensibilisation contre les perturbateurs endocriniens se joue également sur le terrain médical. Dans la région Auvergne-Rhône-Alpes, des ateliers s’organisent dans les maternités, à l’adresse des femmes enceintes. Ils sont issus du projet Nesting – Nidification en français – porté par l’association Women Engage for a Common Future (WECF) installée aux Pays-Bas et active dans plusieurs pays d’Europe, dont la France. Lors d’ateliers animés par des sages-femmes, les futures mères apprennent à améliorer la qualité de leur environnement. L’objectif : limiter l’exposition du placenta aux perturbateurs endocriniens. Durant six jours, les participantes en apprennent plus sur l’effet cocktail, le principe de précaution et les outils qui leurs permettent de se prémunir, elles et leur progéniture.

« J’ai la fierté de dire que l’on contribue à expliquer ce qu’est un perturbateur endocrinien en France » se félicite Emilie Delbays, responsable formation santé environnementale de l’antenne WECF France. « WECF souhaite qu’une tolérance zéro s’opère pour les produits destinés aux moins de trois ans. Il faudrait étiqueter les produits contenants des substances à risque comme les bouteilles d’alcool » déclare-t-elle. Une mesure souhaitable dans un contexte où des études scientifiques relayées par l’Anses ont démontré que l’exposition aux « parabènes, phtalates et certains phénols » contenus dans les produits cosmétiques engendraient très probablement des « contaminations placentaires ».

HSE 4.0 : le travailleur sous capteurs

En matière de prévention des accidents, l’arrivée massive de capteurs divers et performants peut réellement apporter des améliorations. Par exemple, les nouveaux capteurs connectés permettent un suivi en temps réel pour des machines et procédés industriels, pour la gestion et la surveillance des entrées dans des espaces sécurisé, clos ou des procédures de consignation ou pour détecter des situations dangereuses ou des accidents (collisions par exemple), ils peuvent aussi apporter des améliorations sur les machines elles-mêmes avec l’intégration d’éléments de maintenance prédictive (surveillance de dispositifs de sécurité, d’usure d’éléments critiques, analyse des pratiques et des procédures de sécurité pour retour sur la conception et/ou la formation à l’utilisation de la machine etc). Cependant, il ne faut pas négliger l’aspect cybersécurité de ces nouveaux éléments avec la possibilité pour des personnes mal-intentionnées de faire des ajustements à distance mettant en danger les travailleurs ou d’autres personnes / biens. Par exemple, des ajustements de niveaux de vitesse, de force, de changements de la programmation pour effacer des données de suivi, d’erreurs, peuvent rendre la machine dangereuse. Et face à cette menace, même si elle est aujourd’hui encore considérée comme faible car le piratage vise plutôt des moyens de récupérer de l’argent que de nuire à une entreprise ou des personnes, les normes et les outils de parade ne sont pas encore développés. Par ailleurs, cette surveillance constante peut rapidement induire des problèmes d’éthique, de respect de la vie privée et induire un stress sur le travailleur constamment sous surveillance. Ces risques émergents sont à prendre en compte lors de l’arrivée massive de nouveaux éléments de surveillance et de suivi.

Ergonomie occupationnelle : la place de l’homme et des machines

Un des principaux risques en matière de SST dans l’industrie 4.0 est celui du couplage machine/technologie et humain. Ce problème, traité par l’ergonomie occupationnelle, c’est-à-dire l’ergonomie au poste de travail, est déjà connu notamment dans les cas de travail posté sur une chaîne de fabrication où l’humain doit s’adapter à la cadence et à la conformation de la chaîne. On sait que ce genre de couplage induit des risques de surcharge physique, cognitive et psychologique et un couplage « serré » avec les machines éliminent les zones tampons (marges de manœuvre, temps de réflexion, d’analyse, d’interprétation) qui permettent à l’humain de réguler son activité en fonction des données de son environnement et de son état personnel. Cela induit généralement un appel à des capacité de réserve qui générent stress, sentiment de perte de contrôle et baisse de satisfaction vis-à-vis de son travail. La question est comment gérer la variabilité des capacités des individus ? Comment mesurer l’état du travailleur (physique et mental) face à la nouvelle situation de travail ? Et après que faire des données, comment intervenir dans le processus du travail ? Et au final, quelle place donne-t-on au travailleur : est-il un simple maillon d’une chaîne de production que l’on essaye d’ajuster au même titre que les machines qui l’entourent – en attendant qu’une machine le remplace lui aussi ?

Le développement de capteurs qui mettent le travailleur sous surveillance de ses postures va-t-il être accepté par l’opérateur ? Les mesures de corrections/compensations vont-elles être trop « autoritaires », « punitives », « moralisatrices » ? Quelles barrières éthiques se donner ? Toutes ces réflexions se nourrissent d’expériences déjà en cours où l’on avance en marchant. Le risque de ces expérimentations est aussi de transformer le « travailleur » en cobaye, lui procurant une place d’objet plus qu’une place d’humain.

Ergonomie cognitive et informatique : le travailleur limité à son cerveau

L’avènement de l’industrie 4.0 transfère une grande partie du travail des opérateurs humains vers des tâches de commandes, de suivi et de contrôle de processus.

Les compétences liées évoluent vers des capacités à visualiser des informations dynamiques symbolisées sur un écran, les analyser, les synthétiser et identifier les éléments critiques et les anomalies et prendre les décisions qui s’ensuivent et adopter les actions aux résultats. Plusieurs défis sont à relever en matière de recherche : en amont, travailler sur la présentation visuelle des données, sur la navigation et l’évaluation de l’interface humain-ordinateur (via le retour utilisateur notamment) et en aval étudier la charge mentale des opérateurs, évaluer la conscience de la situation par ceux-ci, réfléchir aux aides à la décision, aux diagnostics, au suivi. Cette évolution souligne la transformation du travail vers une sédentarisation et une virtualisation des tâches avec des risques pour la santé d’une part et des risques pour la sécurité d’autre part (l’absence de lien avec la machine de production de manière physique tend faire sous-estimer les risques, une certaine monotonie peut induire une baisse de la vigilance etc.

Les capteurs aussi pour les EPI

Mais le développement des capteurs n’a pas que des visées de surveillance, ils peuvent aussi être à la base de nouveaux équipements de protection individuelle (EPI) plus intelligents. C’est notamment toute la dynamique autour des vêtements intelligents qui est en plein essor : adaptation au froid et au chaud avec des matériaux à changement de phase, vêtements lumineux (intégration de diodes par exemple), indicateurs d’usure, soutien mécanique (dos, pieds notamment) via des exosquelettes souples. Cependant, aussi « enthousiasmant » ces développements puissent-ils être, il faut garder à l’esprit qu’ils sont généralement portés par des start-up. Les produits doivent encore faire leurs preuves sur le terrain et l’absence de normes et de méthodes d’évaluation standardisées rend difficile la mise en avant de leur éventuelle plus-value.

 

Cet article est principalement issu des réflexions de Yvin Chinniah, professeur titulaire de génie industriel à Polytechnique Montréal, et membres du Labo Poly Industries 4.0, lors du colloque annuel de l’IRSST en novembre 2017 : « Révolution 4.0 : à l’aube d’une nouvelle SST ? »

L’usine 4.0 change-t-elle les fondamentaux de la santé-sécurité au travail ?

Derrière la mise en place de l’industrie 4.0 et la digitalisation de l’ensemble des activités économiques et/ou sociales, c’est l’ensemble de la société, de la place de l’homme et des relations interpersonnelles qui évoluent. En matière de santé-sécurité au travail (SST), la numérisation des activités et des relations a commencé à être évaluée et les nouveaux risques identifiés comme une charge mentale en augmentation et un décloisonnement des sphères privées et professionnelles. Dans l’industrie, l’automatisation transforme certaines usines en « monstre de production » supervisé par un minimum d’humains ou par le développement du travail collaboratif entre robots et humains (cobotisation). Quels nouveaux risques cela fait-il apparaître ? Les structures et les professionnels de la santé-sécurité sont-ils préparés à faire face à ces risques et la démarche actuelle est-elle pertinente ? Des éclairages et des éléments de réponse commencent à poindre sur ces questions émergentes.

Nouveaux risques, mêmes problèmes

Dans son «  Guide : L’industrie 4.0 ou la transformation numérique de l’industrie », le cabinet de conseil des représentants du personnels Secafi s’appuie sur des retours d’expérience pour donner quelques pistes de prévention des risques et d’évaluation des conditions de travail lors de transformations numériques ou robotiques dans les industries. Tout d’abord, Emmanuel Gastineau, auteur du guide fait remarquer que trop souvent, encore, les entreprises lancent le projet sans vraiment se poser les questions de son impact et n’apprécient le projet de transformation que dans sa dimension technologique et rarement humaine. En cas de raté, ce sont les salariés qui sont en première ligne. Le guide invite ainsi à se poser les questions de base de tout changement majeur dans l’organisation du travail : comment un projet va-t-il faire évoluer les lieux de travail, la charge et/ou l’intensité du travail ? Les relations et les places de pouvoir évoluent-elles ? Le travail réel devient-il plus ou moins intéressant ? Le sens est-il encore perceptible par les travailleurs ? Que vise le projet : augmentation de la productivité, diminution de la masse salariale ? Quels gains sont attendus et seront-ils partagés avec les travailleurs ? Les salariés sont-ils impliqués dans le changement ou cela vient-il seulement de la direction… En appliquant les outils, connaissances et méthodes déjà existants, les transformations de l’usine 4.0 peuvent déjà être bien couvertes en matière de prévention des risques professionnels. Mais encore faudrait-il que ces pratiques soient inscrites dans la culture des entreprises. Ce qui n’est pas forcément encore le cas.

Sabrina Jocelyn, ingénieure à l’IRSST (institut de recherche en SST québecois) et coauteure du rapport « Robotique collaborative – Évaluation des fonctions de sécurité et retour d’expérience des travailleurs, utilisateurs et intégrateurs au Québec » dresse le même genre de constat.

Dans leur étude sur la mise en place de la cobotisation dans certaines industries canadiennes, Sabrina Jocelyn et ses collègues notent que l’augmentation de la productivité est de loin la principale raison avancée par les entreprises pour justifier l’intégration de robots collaboratifs. Les questions de SST, même lorsque elles ont été abordées passent au second plan. Par ailleurs, que l’entreprise soit consciente ou non des exigences en matière d’appréciation du risque, celui-ci n’a jamais été évalué de manière complète et a fait apparaître « une véritable dualité entre les exigences de production et les enjeux de SST ». Si les travailleurs ont plutôt bien accueilli les robots qui allègent des tâches pénibles physiquement et qui les valorisent dans une nouvelle fonction axée sur la supervision, leur implication dans le projet a été minimaliste. La chercheuse ajoute de plus que « la réflexion quant au choix d’intégrer la cobotique dans un milieu de travail mérite d’être poussée davantage. Certaines entreprises auraient pu se munir d’un robot conventionnel et cela aurait suffi à leurs besoins ». On voit donc là aussi, que les fondamentaux des pratiques SST ne sont pas implémentés et qu’ils couvriraient pourtant une bonne partie des risques inhérents et émergents aux changements technologiques. Pour autant, certains auteurs, poussent la réflexion à une échelle plus grande et alertent sur des changements profonds pouvant affecter les pratiques en SST.

Le défi des travailleurs invisibles

A l’échelle de la société, un autre des défis majeurs pour les responsables de la SST posé par les évolutions induites par la digitalisation de la production et de la société est de rendre précaire et invisible pour les structures traditionnelles un certain nombre de travailleurs. Ainsi, soulève Kaj Frick*, professeur à la Lulea University of Technology en Suède «  Le travail, de plus en plus, adopte de nouvelles formes : freelances, travailleurs de plateformes, sous-traitance, contrats atypiques sans horaires, et toute autre forme de coopération où le lien direct avec l’employeur est faible. Dans toutes ces situations, le travailleur n’a absolument aucune prise avec l’organisation qui décide en réalité de ses conditions de travail et l’organisation ne les prend (quasiment) jamais en compte dans sa stratégie HSE. Et ce, même si théoriquement, ce genre de cas est prévu par les normes et les référentiels de management de la sécurité au travail.

Cette idée est d’ailleurs développée par Chris Laszcz-Davis*, présidente de The Environmental Quality Organization (Californie) qui décrit comment le nouveau monde a transformé les relations physiques et territoriales en les faisant passer dans le digital :  les communautés de travail traversent les frontières, les employés d’une structure deviennent des entrepreneurs au service de plusieurs structures, les relations sont ponctuelles autour de projet et non plus permanentes, les communautés sont donc mouvantes au gré du travail, du moment, la relation de « dépendance/fidélité » se fait au profit de structures digitales et non plus physiques, il n’y a plus de « carrières » avec montée en hiérarchie mais « un portfolio d’expériences », l’appartenance à une entreprise se transforme en appartenance à une communauté d’intérêt virtuel etc. En parallèle, elle note que les institutions traditionnelles (santé, éducation, justice, gouvernance en général) changent, s’affaiblissent et souvent ne répondent plus aux attentes. Ces lacunes doivent être comblées par d’autres entités ou par des infrastructures et relations sociales communautaires. Du coup, se pose la question de savoir comment atteindre la population de travailleurs qui n’est plus incluse dans le tryptique « patrons-syndicats-Etat ». Notant que la réflexion sur les changements induits par l’industrie 4.0 se poursuit, il convient de s’interroger sur la manière de diffuser des pratiques et de la culture de base de la SST qui ne sont pas pas encore acquis : « la sécurité n’est pas un fardeau économique mais un atout commercial », « les organismes de régulation doivent être des facilitateurs et non juste des juges de la conformité », « comment impliquer davantage les travailleurs et former, en nombre suffisant les professionnels de la SST ».

Les professionnels de la SST sont-ils eux-mêmes impactés ?

L’arrivée de l’industrie 4.o se fait de manière très hétérogène tant dans son ampleur que dans sa vitesse d’implémentation selon les secteurs d’activité, les pays et les entreprises. Aussi, les impacts sont réellement à évaluer au cas par cas, comme pour tout changement dans l’organisation de l’entreprise. Cependant, notent Paul Schulte et John Howard* du NIOSH américain (National institute for occupational safety and health) clairement les professionnels de la SST doivent impérativement développer de nouvelles compétences : notamment en matière de facteurs psychologiques, de capital humain, de dynamiques des organisations, sur les théories d’éducation et d’apprentissage tout au long de la vie, et sur le développement humain et économique en général. S’il faudra toujours une évaluation proactive des risques et un management de l’implémentation des nouvelles technologies ainsi que la promotion, forte, de la participation des travailleurs dans les projets mis en place, il faudra aussi réussir à développer une vision holistique des risques émergents et des effets secondaires qui pourraient résulter des changements mis en place.

Créer de nouveaux indicateurs pour de nouvelles compétences ?

Cette nécessité d’une vision globale, de l’anticipation de risques émergents est aussi développée par d’autres auteurs dont certains pensent qu’il faut revoir certaines méthodes de la SST. Ainsi, dans un article d’EHSToday,  magazine américain dédié à la SST, Terry Mathis, fondateur et Pdg de l’entreprise de conseil ProAct Safety fait référence à l’entrée dans l’ère des « systèmes cyber-physiques » : si au départ de ce changement on trouve la technologie, les implications sont bien plus profondes. Pour lui, « il apparaît alors essentiel d’accompagner le changement technologique en soutenant activement le changement culturel inhérent – sans quoi l’on s’expose à créer plus de problèmes qu’à en résoudre ». Pour cela il propose tout d’abord de commencer par adopter une posture fondamentale en SST : ne plus voir les travailleurs comme un problème à contrôler mais comme les usagers de l’effort de sécurité. En outre, il insiste sur la nécessité, plus que jamais d’adopter une stratégie globale pour la SST. Et cette stratégie doit donc viser à apporter de la valeur à ces usagers pour qu’ils puissent travailler en toute sécurité. La technologie doit venir appuyer ce but. Pour faire face aux changements de l’industrie 4.0, il insiste sur la nécessité de développer trois nouvelles compétences : pour l’encadrement en général, une bonne connaissance des technologies qui sont implantées et la capacité à les expliquer à leurs collaborateurs avec plus d’humilité et moins d’autoritarisme. Ce qui induit le deuxième point, un changement culturel dans les relations au travail avec plus de collaborations mais sous une forme plus centrée autour de la technique et du langage machine. Enfin, il estime qu’il faut aussi complètement faire évoluer les systèmes d’évaluation et de mesures en les centrant sur l’évaluation des capacités des hommes et des systèmes à intégrer et implémenter les nouvelles technologies d’un point de vue à la fois technique et culturel.

* Les travaux et tribunes de ces auteurs sont publiés sur le site de l’OIT à l’occasion du 100e anniversaire de l’OIT et de la publication d’un rapport sur les évolution de la santé sécurité au travail

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 24 mai 2019 !

Évaluation des risques professionnels- Aspects opérationnels,
un article de Kamel BAHRI

Parrot : le spécialiste du drone se lance dans l’imagerie thermique

Parrot commercialisera le 9 mai prochain son nouveau drone à vocation professionnelle, Anafi Thermal, consacré à l’imagerie thermique. L’entreprise française mentionne plusieurs applications dans des filières aussi diverses que l’énergie, le BTP, la sécurité civile ou la zoologie : analyse de l’enveloppe thermique d’un bâtiment, inspection de fermes de panneaux solaires, repérage des points chauds durant les feux de forêts, comptage d’animaux… Le prix annoncé s’élève à 1900 € HT.

Avec ses 21,8 centimètres de long, une fois replié, et son poids de 315 grammes, l’Anafi Thermal est une version légèrement remaniée de l’Anafi, sorti en juillet dernier à destination du grand public. C’est l’illustration du principe de la «consumérisation» : s’inspirer des usages grand public pour faciliter la vie des professionnels, en misant sur la simplicité et, dans le cas présent, sur la compacité. Laquelle constitue «un point de convergence technologique» selon Henri Seydoux, le fondateur de Parrot.

Bénéficiant d’une autonomie de 26 minutes, ce quadricoptère embarque deux capteurs : l’un de 21 millions de pixels qui produit une image 4K dans le spectre visible, l’autre de 160×120 pixels réservé à l’image thermique. Ce micro-bolomètre, fourni par la société spécialisée Flir, est sensible au rayonnement infrarouge dans les longueurs d’onde comprises entre 8 et 14 micromètres. La mesure des températures est précise à +/-5% (gain minimal) ou à +/-10% (gain maximal).

Un vent plus favorable chez les pros

L’application mobile iOS/Android superpose les deux flux vidéo et laisse le choix parmi trois options d’affichage : relatif (écarts de température), absolu (avec sélection de la fourchette des valeurs) et spot (indication des points les plus chauds et les plus froids). Le fichier enregistré au format MP4 contient deux pistes, l’une relative à la prise de vue en direct avec les paramètres à l’instant T, l’autre avec les métadonnées associées à chaque pixel, permettant de modifier les paramètres thermiques pour une analyse a posteriori. L’Anafi Thermal est par ailleurs compatible avec les outils logiciels de Flir, utilisés pour le traitement de l’image et des données.

Il s’agit d’un lancement important pour Parrot, dont le destin se jouera davantage sur le terrain professionnel désormais. Cette marque emblématique dans l’univers du drone traverse en effet une zone de fortes turbulences. «La bulle du marché grand public se dégonfle» admet Henri Seydoux. L’arrivée d’Anafi l’été dernier n’a pas suffi à relancer les ventes des drones de loisir, dont le chiffre d’affaire a reculé de 32% en 2018. Le titre en bourse a perdu plus de la moitié de sa valeur et une centaine de personnes ont été licenciées, pour l’essentiel aux Etats-Unis et en Asie.

Ce phénomène semble toucher tous les acteurs du marché, dont le leader chinois DJI, qui ne communique aucun chiffre de vente cependant. Deux explications sont avancées : le fort taux d’équipement de la part des utilisateurs les plus technophiles, et la lassitude du grand public, rebuté par la règlementation. On ne se sert pas d’un drone, possiblement dangereux, comme d’un smartphone… En revanche, le segment professionnel s’annonce plus florissant, avec des perspectives de croissance à deux chiffres. Chez Parrot, il est d’ores et déjà majoritaire et son chiffre d’affaires a progressé de 5% en 2018.

RTE prépare au scénario du pire

Constat, la sécurité d’approvisionnement serait dégradée dans certains cas de figure cumulant plusieurs aléas tels que la poursuite du développement des énergies renouvelables, la mise en service de la centrale de Landivisiau et de l’EPR de Flamanville ainsi que l’installation de nouvelles interconnexions avec la Grande-Bretagne et l’Italie. Et ce, sans mesures additionnelles d’ores et déjà anticipées par le gouvernement qui a décidé d’activer plusieurs leviers à la fois sur la demande et sur l’offre électriques.

Le bilan provisionnel de RTE

RTE rappelle que son bilan provisionnel de novembre dernier qui donne une « vision à cinq ans », prend en compte « les orientations de la feuille de route énergétique du gouvernement, déclinée dans le projet de Programmation pluriannuelle de l’énergie (PPE) et la Stratégie nationale bas carbone (SNBC). Parmi ces choix figurent la fermeture des centrales au charbon d’ici 2022, l’accélération du développement des énergies renouvelables et des effacements de consommation, et la diversification du mix électrique d’ici 2035. »

Ce diagnostic que présente RTE chaque année s’établit autour d’un « cas de base » prenant en compte les orientations de politique énergétique, les informations les plus récentes transmises par les acteurs, ainsi que des hypothèses « médianes » pour l’évolution de certains paramètres (consommation, développement d’énergies renouvelables, etc.).

RTE ajoute que son bilan prévisionnel repose également sur des hypothèses de mise en service de nouveaux moyens de production. Néanmoins, RTE signale également que ce « cas de base » ne constitue pas une vision optimiste de l’évolution du mix à moyen terme, mais prend d’ores et déjà en compte des facteurs très « conservateurs ». Ainsi, sur les ENR, RTE intègre des incertitudes sur le développement des projets (par exemple, 1,4GW par an d’éolien terrestre contre 1,9 GW prévus dans le projet de nouvelle PPE). Pour le nucléaire, RTE mise sur un démarrage de l’EPR en 2020, alors que le planning d’EDF (qui risque de glisser à l’aune des récents incidents liés aux soudures) table encore sur fin 2019 et prévoit des indisponibilités dues aux visites décennales sur le parc nucléaire existant, en misant sur des durées d’arrêts provenant du retour d’expérience et non du planning prévu. Il se fonde enfin sur une consommation électrique stable à l’aune des tendances des dernières années et sur un mix à l’étranger (la France étant particulièrement bien interconnectée avec ses voisins européens) prudent intégrant des retraits de capacités en Allemagne et au Royaume-Uni notamment. Ce « cas de base » a en outre fait l’objet de plusieurs variantes.

Les cas critiques de RTE

La demande du gouvernement s’inscrit donc bien dans le cadre des variantes de ce « cas de base », puisqu’elle vise à « forcer » le modèle développé par RTE pour ses projections. RTE signale cependant que son diagnostic sur « la faculté de fermer toutes les centrales au charbon d’ici 2022, sans dégradation significative de la sécurité d’approvisionnement par rapport au critère, résistait à certains aléas, par exemple : un an de retard sur la mise en service des premiers parcs éoliens en mer ; trois ans de retard sur la mise en service de l’EPR de Flamanville (2022 vs. 2019) ; un an de retard sur le calendrier de mise en service de la centrale de Landivisiau ; un an de retard sur la mise en service de toutes les interconnexions actuellement en construction et enfin une légère augmentation de la consommation. »

Les approfondissements souhaités par le ministre, indique RTE, portent notamment sur des retards supplémentaires pour différentes sources de production (nucléaire, centrale gaz de Landivisiau) des retards dans la mise en service de l’interconnexion Eleclink avec la Grande-Bretagne, et surtout des événements précités simultanés deux à deux.

En outre, le ministre a demandé à RTE de prendre en compte une potentielle reconversion du site au charbon de Cordemais par le projet Ecocombust, fondée sur une alimentation de la centrale en bois.

Dans ce cadre de « non-réalisation cumulée de plusieurs hypothèses principales listées dans le bilan prévisionnel », RTE juge que « le critère de sécurité d’alimentation ne serait plus respecté à l’horizon 2022 en cas de fermeture de toutes les centrales au charbon ». Et dans des configurations plus dégradées évoquées par la demande du ministre, le manque de capacité pourrait atteindre en 2022 plusieurs gigawatts (entre 2 et 3 GW). Un manque de capacités qui n’interviendrait, insiste RTE que sur certaines heures dans l’année, et avec une probabilité faible. En outre, le risque serait transitoire et devrait être résorbé au plus tard en 2024.

Les remèdes du gouvernement

Dans ce contexte et pour anticiper l’ensemble de ces cas de figure, le Gouvernement va activer plusieurs leviers, sur la demande et l’offre d’énergie, pour parvenir à mettre en œuvre l’engagement d’arrêt de la production d’électricité à partir du charbon d’ici 2022 sans dégradation de la sécurité d’approvisionnement.

D’abord, de manière prioritaire, en intensifier les efforts en matière de maîtrise de la consommation d’électricité, en particulier celle de la « pointe » de demande électrique en cas de grand froid. Ensuite, « il apparaît ainsi indispensable d’optimiser la date et la durée des arrêts planifiés des réacteurs nucléaires pour gagner des marges en termes de sécurité d’approvisionnement ». François de Rugy a ainsi demandé à EDF d’optimiser les périodes d’arrêt dans le respect des décisions de l’autorité de sureté nucléaire afin de limiter les risques de dépassement sur les périodes hivernales. Le calage précis de ce calendrier sera discuté dans les semaines à venir avec l’entreprise, l’ASN et RTE. Enfin, « si des assurances sur le démarrage de l’EPR ne sont pas obtenues, une production d’électricité pour quelques dizaines d’heures par an (250 heures maximum), à Cordemais, serait nécessaire pour garantir la sécurité d’approvisionnement lors des épisodes de tension sur l’équilibre offre-demande dans l’Ouest de la France. La centrale de Cordemais serait alors mise à l’arrêt et gardée en veille », indique le ministre.

Le retour de la « petite loi »sur l’énergie et le climat

Quelques jours plus tard, le texte de cette loi nécessaire pour modifier la loi de 2015 de transition énergétique pour une croissance verte suite à l’annonce du gouvernement d’un report à 2035 de la réduction de la part du dans le mix électrique à 50%, contre 2025, était soumis au Conseil national de la transition écologique (CNTE). Et comme souvent en matière législative, le texte passe de 5 articles simples à 8 articles avec différentes visées.

D’abord, après le tollé soulevé par de nombreuses ONG par le manque de précision quant à l’objectif de neutralité carbone à l’horizon 2050 contenu dans le texte de loi présenté en février 2019, le gouvernement tient à préciser dans l’article 1 que : « atteindre la neutralité carbone à l’horizon 2050 » se fera « en divisant les émissions de gaz à effet de serre par un facteur supérieur à six entre 1990 et 2050. » Ce qui est au-delà de l’objectif jusqu’alors inscrit dans le droit français (code de l’énergie) qui tablait sur une division par quatre des rejets carbonés. Cet article continue en outre de retenir des modifications issues de la programmation pluriannuelle de l’énergie (PPE), comme la consommation énergétique primaire des énergies fossiles baissera plus vite que prévu, de 40% en 2030 par rapport à 2012 au lieu de 30%. Bien évidemment, puisque c’est le premier objectif de la loi, l’article 1 prévoit toujours que l’objectif 50% de nucléaire sera atteint en 2035.

Sans changement notable, l’article 2 de nouvelle loi énergie-climat crée, comme annoncé en novembre 2018 par le Président de la République, un Haut conseil pour le climat (HCC). Organisme indépendant, placé auprès du Premier ministre et siégeant au sein de France Stratégie, ce HCC devra réaliser et rendre chaque année un rapport « portant sur le respect de la trajectoire de baisse des émissions de gaz à effet de serre eu égard aux budgets carbone définis en application de l’article L 222-1 A, la bonne mise en œuvre des politiques et mesures pour réduire les émissions nationales de gaz à effet de serre, développer les puits de carbone, réduire l’empreinte carbone et développer l’adaptation au changement climatique, y compris leurs déclinaisons territoriales en s’appuyant sur les documents de planification territoriale. Le Haut Conseil pourra également émettre un avis sur les conséquences économique, sociale et environnementale, y compris pour la biodiversité, de ces actions ». Il est « composé d’au plus 13 personnalités qualifiées choisies en raison de leur expertise scientifique, technique et économique dans le domaine des sciences du climat et de la réduction des émissions de gaz à effet de serre. » Il y a urgence, la climatologue franco-canadienne Corinne Le Quéré préside déjà cet aréopage depuis janvier dernier, et son premier rapport pourrait être présenté avant la promulgation de la loi…

Se glisse ensuite l’article 3 du nouveau texte. Un article relatif au plafonnement des émissions des installations de production d’électricité à partir de combustibles fossiles. L’objectif est toujours de fermer les centrales au charbon. Ainsi, afin de concourir aux objectifs de réduction des émissions de GES et de contribuer à atteindre le plafond national des émissions des gaz à effets de serre pour les périodes 2019-2023 et suivantes, comme défini dans le code de l’environnement, « l’autorité administrative définit un plafond d’émissions applicable à compter du 1er janvier 2022, pour les installations de production électrique à partir de combustibles fossiles situées en métropole continentale et émettant plus de 0,550 tonnes d’équivalents dioxyde de carbone par mégawattheure. » Autant dire que seules les centrales au gaz pourront encore tourner après 2022. Les salariés impactés par les fermetures de centrales aux combustibles fossiles et les sous-traitants pourront « faire l’objet d’un accompagnement spécifique afin de favoriser leur reclassement sur un emploi durable, dans des conditions déterminées par décret. »

En outre, l’article 3 s’occupe aussi de la cogénération : « Pour les installations de cogénération, les émissions considérées pour l’application du précédent alinéa sont calculées en divisant les émissions de gaz à effet de serre par la production combinée d’électricité et de chaleur. »

Les articles visant à des mesures de simplification en faveur du développement des énergies renouvelables et l’amélioration des dispositifs d’efficacité énergétique sont peu modifiés par rapport à la version de février 2019. Désormais dans l’article 4 sur les ENR, la loi remet sur pied l’Autorité environnementale. Un sujet qui gêne depuis près d’un an les autorisations de parcs éoliens notamment. L’article 5 s’attaque quant à lui à la fraude aux certificats d’économie d’énergie (CEE), renforçant le contrôle du dispositif mis en œuvre à l’occasion de la loi POPE de 2005.

Vient ensuite l’article 6 qui détaille (alors que la version précédente ne faisait que les mentionner) les conditions de transposition des directives européennes et règlements adoptés dans le cadre du paquet énergie-climat « Clean energy for all ». Autant pour les directives que pour les règlements, « dans un délai d’un an à compter de la promulgation de la présente loi, le Gouvernement est autorisé à prendre par ordonnance les dispositions législatives nécessaires ».

L’article 7, tout nouveau de la loi, revient sur la régulation par la Commission de régulation de l’énergie. Cet article vise à renforcer les procédures du Cordis (comité de règlement des différends et des sanctions) et à un traitement des litiges de paiement de la contribution de service public de l’électricité (CSPE) au titre des années 2009 à 2015, via un recours, une fois encore à l’ordonnance gouvernementale.

Enfin, l’article 8, prend en compte de nouvelles modalités de pénalités financières relatives à l’Arenh (Accès régulé à l’électricité nucléaire historique). Un fournisseur qui fait appel à l’Arenh peut d’ores et déjà être soumis à des pénalités (appelés compléments de prix) quand il a commandé trop d’Arenh par rapport à son portefeuille de clients, mais l’article 8 permet de renforcer ces pénalités. Rappelons que ce complément de prix a pour objectif d’éviter qu’un fournisseur dit alternatif (à EDF) ne tire avantage du prix de l’Arenh (aujourd’hui 42 euros/MWh) pour effectuer de la revente sur le marché de gros du courant.

Recherche et innovation : la HSE version start-up !

Si les problématiques de santé-sécurité au travail (SST) font désormais partie intégrante des directions des grands groupes internationaux, ce n’est pas leur cœur de métier et cela bénéficie donc rarement d’investissements en R&D. Par conséquent, les innovations en la matière passent souvent par de la veille active de la part des responsables HSE (hygiène, sécurité, environnement) de ces entreprises. Assez naturellement, leurs regards se sont donc portés sur les écosystèmes de start-up, notamment pour développer des solutions en lien avec l’industrie 4.0. Trois exemples illustrent assez bien cette tendance : l’incubateur Oil & Gas autour de Total, l’accélérateur à start-up du bâtiment et l’événement de rencontres INNSafety.

Quand les industriels mutualisent la recherche

En 2016, Total ouvre son incubateur à start-up « usine 4.0 » en partenariat avec Impulse Partners, cabinet spécialisé dans la mise en relation entre grandes entreprises et start-up et dans l’accompagnement de ces dernières. Dès sa deuxième année d’existence, l’incubateur Total devient  un espace d’open innovation accueillant d’autres partenaires industriels. On y trouve donc Vinci Energies, Orano (ex-Areva), Eiffage Energies Systèmes, Solvay ou encore Air Liquide…

Il vise à développer des solutions pour digitaliser les process des industries de l’énergie. Cet effort de recherche et d’innovation en commun porte donc sur des problématiques propres au secteur et pour lesquelles les différents partenaires ont même intérêt à développer des standards ou des solutions compatibles. Assez naturellement, la thématique HSE a été choisie en 2018. Sept entreprises ont été sélectionnées pour intégrer l’incubateur pendant 6 mois. Les solutions proposées par ces entreprises tournent principalement autour de ces préoccupations :

  • des systèmes d’alerte (zone de danger, détection et/ou alerte accident)
  • des systèmes de capteurs permettant d’analyser comportement/posture, gestes pour surveiller et alerter en cas de fatigue, risques TMS
  • un système pour l’acquisition de consignes de sécurité – sans barrière de langue.

Dans cette formule, la solution proposée par les start-up est généralement mise à l’épreuve au sein même des sites de donneurs d’ordre. Ce qui permet d’orienter le développement du produit et son éventuelle industrialisation pour une adéquation optimum pour les grandes entreprises intéressées.

Le BTP, à fond sur la prévention

L’accélérateur de start-up « Santé – Prévention dans le BTP » fête son premier anniversaire. Né de l’alliance entre le CCCA-BTP (réseau d’apprentissage du BTP), l’OPPBTP (organisme de prévention du BTP), PRO BTP (groupe de protection sociale du BTP) et la Fondation Excellence SMA (fondation dédiée à la santé-prévention de la SMA, mutuelle du BTP), il vise à soutenir l’innovation dans des domaines comme l’organisation des chantiers, les objets connectés, la gestion de la data, l’utilisation de la réalité virtuelle et augmenté au service de la santé et de la prévention dans le secteur. Là encore, comme pour Total, l’initiative s’appuie sur Impulse Partners pour organiser la sélection des entreprises, les mettre en relation avec les acteurs du BTP et les accompagner dans le développement de leurs projets. Déjà quatre comités de sélection se sont tenus pour auditionner des entreprises et l’accélérateur en accueille à présent une vingtaine. Les problématiques couvertes sont extrêmement variées : exosquelette de manutention, solution anti-collision, système d’alertes, vêtements haute visibilité intelligents, apprentissage et éducation à la SST ou aux premiers secours, suivi des EPI, etc.

Si l’initiative est portée ici par des organismes plus institutionnels, le public lors des sélections est composé de dizaines de représentants du secteur dont bien sûr des responsables HSE de grands groupes du BTP. Mais la formule, a l’avantage ici d’être très ouverte et pertinente pour la variété des tailles des entreprises du bâtiment.

L’audition groupée

Certains grands groupes, eux, ne s’embarrassent pas d’un système d’incubation/accélération. Mais ils veulent néanmoins profiter des innovations qui peuvent apparaître dans l’écosystème des start-up. Cela donne naissance à des événements comme INNsafety dont la première édition s’est tenue à la Défense fin novembre 2018. A l’initiative au départ de L’Oréal en collaboration avec Environnemental Ressources Management (ERM), cet événement a aussi fait se déplacer St Gobain, Danone, Sanofi, Procter & Gamble, Unilever et Plastic Omnium. Il s’agit cette fois, pour les entreprises sélectionnées  en amont (8 en  2018) d’avoir la chance de rencontrer une centaine de partenaires ou clients potentiels et de voir leur dossier étudié par les sept grands sponsors de l’événement. Un gain de temps et d’énergie énorme pour les start-up et un moyen rapide de repérer des solutions innovantes, qui peuvent venir d’autres secteurs pour les entreprises qui se déplacent. Dans ce cas, même si on continue à parler de start-up, la maturité des entreprises candidates est très hétérogène : de la start-up qui cherche ses premiers grands contrats à des entreprises qui sont déjà bien implantées comme Proxipi dont les solutions anti-collisions sont développées et mise en œuvre depuis 2011 ou Essensium dont les traceurs de déplacement existent aussi depuis plusieurs années.

Le petit bout de la lorgnette ?

Quelle que soit la forme prise pour développer l’innovation en matière HSE dans les grandes entreprises, on voit que l’objectif est de trouver des solutions innovantes, là où ça coince encore en HSE : culture santé-sécurité, alerte/protection des personnels isolés, interaction homme/machine en environnement complexe, amélioration des EPI, prévention/surveillance des données de santé notamment pour les troubles musculo-squelettiques et les états de fatigue et connexion des travailleurs avec leur environnement via des objets connectés, réalité augmentée ou virtuelle et robotisation. Evidemment, au regard du panel des solutions sélectionnées, on a surtout l’impression qu’il s’agit d’une nouvelle forme de partenariat plus ou moins poussée mais que surtout, à l’image des salons professionnels de santé-sécurité, les responsables HSE viennent piocher des idées et des produits. En aucun cas, le système start-up, aussi innovant soit-il, ne semble pouvoir permettre de se passer d’une réflexion et d’une adaptation organisationnelle aux changements induits par l’industrie 4. 0.

 

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 24 mai 2019 !

Évaluation des risques professionnels- Aspects opérationnels,
un article de Kamel BAHRI

La durabilité à l’épreuve de l’économie

Pour simplifier, dans le système – capitaliste et libéral – qui est le nôtre, l’activité économique détruit l’environnement.

En y ajoutant la notion de durabilité on le rend pérenne. Facile. Sauf que la durabilité est une chose simple à projeter mais extrêmement complexe à mettre en place pratiquement. Parce que l’évaluation de la durabilité économique d’une activité prend en compte l’intégralité de son cycle de vie.

Ainsi les véhicules électriques, s’ils ne produisent pas de CO2 pendant leur fonctionnement, nécessitent pour la fabrication de leur batterie des métaux rares qui, eux, sont très émetteurs de CO2.

Il en est de même dans une certaine mesure pour les éoliennes et les panneaux solaires.

Les crédits carbone sont un autre exemple. Mis en place pour permettre aux industriels de compenser leurs émissions de GES, il est aujourd’hui devenu un instrument de spéculation, et le moyen pour certaines entreprises de s‘acheter une image de durabilité sans rien changer de leurs pratiques non durables.

Des synergies ?

Autre exemple, le recyclage : selon un rapport de l’ADEME datant de 2002, le recyclage est une solution pertinente pour certains matériaux comme l’acier, l’aluminium ou le verre. Par contre, le recyclage du plastique est plus épineux. S’ils se substitue entièrement au plastique vierge dans les produits transformés, le plastique recyclé fait sens. Si le plastique recyclé est utilisé à la place du bois pour fabriquer des meubles, mieux vaut alors l’incinérer. Même chose pour les papiers et cartons : l’utilité écologique de leur recyclage dépend de plusieurs paramètres locaux comme la présence d’un incinérateur par exemple.

Du coup, une question émerge : étant donné que la notion de développement durable oblige à prendre en compte des contraintes – finitude des ressources, besoins – qui constituent des freins au développement économique, le développement durable et l’économie peuvent-ils être synergique ?

La réponse est non. L’économie de marché que nous connaissons se nourrit d’une croissance perpétuelle et régulière dans le temps. Tel quel, il n’est pas adapté, par définition, pour faire émerger des modèles durables soucieux de la gestion des ressources et des impacts environnementaux.

Ce que l’on observe via les exemples évoqués ci-dessus, c’est que les modèles économiques durables mis en place – pour le recyclage par exemple – sont contraints de s’adapter à la réalité économique. Pas le contraire. L’exemple de l’économie circulaire illustre bien cette adaptation.

Cela est connu, et cela ne changera pas. Ou pas assez vite par rapport à l’évolution des problématiques écologiques que nous connaissons.

Une illusion

Ainsi, la vision du développement durable comme une façon de concilier la croissance économique avec la protection de l’environnement et la cohésion sociale est une douce illusion. Et un contresens par définition.

Le cas de l’éolien en France en est le symbole. Longtemps subventionné pour rendre son prix de vente compétitif, l’électricité éolienne est artificiellement “boostée” par l’État dans le cadre de la transition énergétique.

Et même si le prix de l’éolien terrestre en France est aujourd’hui compétitif, l’État continue à garantir l’achat de l’électricité produite pour favoriser le développement de la filière. Cet exemple, loin d’être isolé, montre que beaucoup de solutions durables doivent être “accompagnées” pour pouvoir exister économiquement.

Les subventions destinées à encourager l’achat de véhicules électriques participent du même mouvement.

Mais le tableau n’est pas si noir. Pour une raison : l’innovation. Qui aurait cru il y a 20 ans que l’électricité solaire ou éolienne serait aussi rentable aujourd’hui ? L’innovation dans ces domaines a permis et permettra d’atteindre des niveaux de rendements exceptionnels.

D’ailleurs, le stockage efficace de l’énergie éolienne est probablement l’innovation qui permettra à l’éolien de se faire une place définitive dans le marché énergétique français et mondial, même si des solutions efficientes existent déjà. Entre-temps, il faudra que l’innovation permette à la filière éolienne de résoudre une autre problématique, celle de son empreinte écologique.

On en est loin. Mais si développement durable et économie de marché sont par essence incompatibles, la première option pour intégrer un modèle durable dans l’économie actuelle est bel et bien l’innovation.

Comment transformer une ligne droite en cercle ?

Nous vivons aujourd’hui dans une économie linéaire : nous prélevons des matières premières dans notre environnement, nous les transformons et les assemblons. Les produits ainsi fabriqués sont ensuite vendus, consommés puis jetés lorsqu’ils sont hors d’usage. Ces processus sont à la fois extrêmement consommateurs en énergie et producteurs de déchets.

L’économie linéaire est donc un système non durable. Depuis quelques décennies la montée en puissance du recyclage est un exemple de tentative d’”arrondir” la linéarité de l’économie.

Le but étant d’arriver à créer un cercle – vertueux – où l’extraction des matières premières et l’énergie consommée pour produire des biens ont un impact nul sur l’environnement.

L’économie n’est alors plus linéaire mais circulaire

L’Ademe définit l’économie circulaire comme “un système économique d’échange et de production qui, à tous les stades du cycle de vie des produits (biens et services), vise à augmenter l’efficacité de l’utilisation des ressources et à diminuer l’impact sur l’environnement tout en développant le bien être des individus”. Pour faire simple, l’économie circulaire est un modèle qui s’intègre dans les modèles économiques existants en y ajoutant les contraintes liées aux exigences de soutenabilité.

Quels sont les ressorts de l’économie circulaire ?

Trois piliers en portent les principes :

  • l’offre des acteurs économiques ;
  • les demandes des consommateurs ;
  • le recyclage.

Faire évoluer l’offre des acteurs économiques

L’offre des acteurs économiques concerne l’approvisionnement en ressources, l’écoconception, l’écologie industrielle et territoriale, ainsi que l’économie de fonctionnalité.

Au sein de l’économie circulaire, l’approvisionnement devient durable. Ainsi, les modes d’exploitation des ressources sont raisonnés :

  • prise en compte de la finitude des ressources ;
  • amélioration de l’exploitation des ressources (en limitant les rebuts d’exploitation par exemple) ;
  • prise en compte des impacts environnementaux liés à l’exploitation des ressources ; dans le modèle linéaire, les industriels veulent avoir accès à toutes les ressources potentielles ; dans une économie circulaire, l’accès aux ressources dépend du prix écologique à payer ;
  • prise en compte des externalités sociales de l’exploitation des ressources, principalement des impacts sociaux au niveau local.

Autrement dit, l’économie circulaire est avant tout un changement de paradigme assez simple à comprendre. En prenant en compte toutes les externalités liées à une activité industrielle, on contraint celle-ci pour la faire entrer dans un cadre pérenne. Et cela peut rapporter de l’argent, où en faire perdre moins, c’est selon. A titre d’exemple, la pollution de l’air coûte chaque année près de 3000 milliards d’euros dans le monde.

Deuxième volet d’action sur l’offre des acteurs économiques : l’écoconception. L’écoconception, en prônant une approche préventive des problèmes d’environnement, et ce dès la conception des produits, s’avère avoir des effets bénéfiques sur les profits des entreprises. En termes de cycle de vie des produits, l’écoconception est plutôt focalisée sur l’amont, alors que l’économie circulaire demande d’accorder une plus grande importance à l’aval, c’est-à-dire au devenir réel du produit, à son usage, à sa fin de vie, et à son insertion dans différents types de boucles de nature industrielle ou naturelle. Parmi toutes les composantes de l’économie circulaire, l’écoconception est l’usage qui s’est le plus banalisé dans les pratiques industrielles.

Pilier de l’économie circulaire, l’écologie industrielle et territoriale porte bien son nom : elle vise à optimiser les ressources – énergies, eau, matières, déchets mais aussi équipements et expertises – en se basant sur une approche systémique biomimétique.

Dernier composant de l’offre construite par les acteurs économiques, l’économie de fonctionnalité : elle se définit comme un système privilégiant l’usage plutôt que la vente d’un produit.

Elle vise à développer des solutions intégrées de biens et services dans une perspective de développement durable. Ainsi, l’échange économique ne repose plus sur le transfert de propriété de biens, qui restent la propriété du producteur tout au long de son cycle de vie, mais sur le consentement des usagers à payer une valeur d’usage.

Les demandes des consommateurs

Les consommateurs en font la demande depuis des années : ils veulent des produits qui durent plus longtemps. Aujourd’hui ce souhait est entendu par les industriels. Réemploi, réutilisation, vente, occasion, don, et plus généralement allongement de la durée de vie… les moyens de proposer aujourd’hui des produits qui “durent plus longtemps” sont très nombreux. Il s’agit là aussi d’un changement de pratique drastique pour les industriels dont l’usage des méthodes d’obsolescence programmée est aujourd’hui jugé intolérable par l’opinion publique.

Seconde tendance, la consommation responsable. Conscients de leurs rôles, les consommateurs assument aujourd’hui la responsabilité personnelle de choisir ou non d’acheter un produit, pas seulement en fonction de sa qualité mais également selon ses conditions de production et de son impact environnemental global (à tous les niveaux de son cycle de vie).

Le recyclage, pierre angulaire de l’économie circulaire

Le recyclage vise à utiliser les matières premières issues de déchets. Si certains matériaux – verre, papier, cartons, acier, aluminium, certains plastiques – sont aujourd’hui facilement recyclables, d’autres – papiers, cartons souillés, certains plastique, polystyrène… – posent plus de problèmes. Des problèmes techniques, ou économiques.

Intégrer le recyclage dans un système d’économie circulaire est à la fois nécessaire et compliqué, car il faut développer un modèle économique viable sur cette partie du process.

Ainsi, les ingrédients de l’économie circulaire, bien que complexes à mettre en place de façon synergique, permettent de construire des modèles économiques durables.

Reste à savoir si le poids des consommateurs, la mise en place de la RSE et l’urgence écologique permettront au modèle circulaire de remplacer l’économie linéaire.

L’économie durable, de la théorie à la pratique

L’économie durable se distingue par une prise en compte des aspects sociaux et environnementaux afin de répondre aux besoins du présent, sans compromettre la capacité des générations futures à répondre à leurs propres besoins.

Le développement durable précise, lui, les contours de l’économie durable en se caractérisant par “une conception de la croissance économique qui s’inscrit dans une perspective de long terme et qui intègre les contraintes liées à l’environnement et au fonctionnement de la société” (définition wikipedia). Bonnet blanc, blanc bonnet. Economie durable = développement durable.

La définition du développement durable publiée par la commission mondiale sur le développement et l’environnement de l’ONU diffère de celle donnée par wikipedia. Pour l’ONU, le développement durable est “un développement qui répond aux besoins des générations du présent sans compromettre la capacité des générations futures à répondre aux leurs« . Deux concepts sont inhérents à cette notion : le concept de « besoins », et plus particulièrement des besoins essentiels des plus démunis, à qui il convient d’accorder la plus grande priorité ; l’idée des limitations que l’état de nos techniques et de notre organisation sociale impose sur la capacité de l‘environnement à répondre aux besoins actuels et à venir« .

Cette définition ne fait pas spécifiquement référence à l’économie comme vecteur de la durabilité. Mais pourtant cette définition est la même que celle de l’économie durable.

Retour à la case départ ? Pas tout à fait.

Les besoins et les limites

L’intrication entre économie et développement durable permet de différencier fondamentalement ce qui distingue l’économie durable de l’économie au sens large. L’économie capitaliste libérale (en place aujourd’hui) est cadrée par l’offre et la demande. L’économie durable est cadrée par les besoins et les limites.

En considérant cette définition, on comprend mieux la difficulté de mettre en place de type de fonctionnement, qui doit sans cesse s’auto-évaluer et se circulariser. Analyse de cycle de vie, études d’impacts, empreinte écologique, recyclabilité… toutes ces notions qui constituent aujourd’hui des outils d’amélioration continue pour les industriels sont les piliers de la construction de modèles économiques durables.

Au-delà de la prise en compte de ces outils, c’est la pondération qu’on leur donne dans le processus de production qui va faire – ou pas – émerger des modèles durables de développement.

Prenons l’exemple des transports : la voiture électrique est un bon moyen de remplacer les voitures thermiques polluantes. Si on considère les émissions des véhicules une fois vendus, cela est vrai. Si on considère l’ensemble du cycle de vie des deux types de véhicules, cela est totalement remis en cause, car les batteries des véhicules électriques sont composées de métaux rares dont l’extraction “produit” beaucoup de CO2.

L’innovation

L’innovation est, avec le développement durable, le second pilier de l’économie durable, mais plus largement un pilier de l’économie au sens large. Et surtout de notre économie capitaliste. La révolution industrielle a financé l’innovation par le crédit, et cela n’a pas cessé depuis.

Le crédit permet de faire de la recherche, d’innover, et in fine de gagner de l’argent grâce à ces innovations.

L’innovation est partie intégrante de notre système économique. D’ailleurs, le fait que les chercheurs cherchent et “trouvent” est un pilier de notre fonctionnement économique au même titre que la capacité des banques à prêter de l’argent aux industriels pour financer leur R&D.

Le défi qui se pose est celui de la capacité de l’homme à s’emparer des enjeux du développement durable pour les transposer dans notre modèle économique préexistant en lui appliquant strictement ses contraintes propres.

Une fois établies les conditions d’une économie durable, reste à élucider une autre question : une économie durable peut-elle se construire et s’épanouir au sein d’un modèle capitaliste libéral ?

Quelles responsabilités pour une transition éco… nomique ?

Il y a quelques mois, une pétition faisait grand bruit : l’affaire du siècle. Soutenue par des ONG et des personnalités publiques, elle est rapidement devenue la pétition la plus populaire de l’histoire française, réunissant à ce jour plus de deux millions de signatures. L’objet ? Assigner l’État français en justice pour “inaction climatique” et l’obliger à respecter ses engagements climatiques internationaux.

Devant le succès de cette entreprise populaire, le gouvernement a reçu, par l’intermédiaire de François de Rugy, une délégation de signataires il y a quelques semaines. Arguant que l’État français avait déjà entrepris des actions pour lutter contre le changement climatique, le Ministre de la transition énergétique n’a pas convaincu ses invités. Ces derniers ont mis en avant l’incapacité de l’État à prendre des décisions “à la hauteur de l’urgence écologique”.

La situation écologique mondiale est en effet décrite comme une bombe à retardement depuis plusieurs décennies. Il semble aujourd’hui que l’explosion soit en cours. Les espèces disparaissent à une vitesse jamais observée auparavant, les effets de la pollution et du réchauffement ont des conséquences que nous avions sous-estimées… Et pourtant l’État donne l’impression de mettre des pansements là où on aurait tendance à amputer.

Pourquoi ? En 2008, le monde a connu une crise financière sans précédent. Et force est de constater que les États, notamment la France sous l’impulsion du Président Sarkozy, ont réagi rapidement et massivement pour renflouer les banques les plus impactées, ceci afin d’éviter un krach encore plus catastrophique et, selon les termes de l’ancien Président français, pour sauver l’économie mondiale.

Le système économique mondial a été sauvé, mais la crise de 2008 a tout de même ruiné des millions de foyers, détruits des millions d’emplois et fragilisé des économies nationales durablement.

Court terme Vs long terme

Ainsi, la politique, c’est avoir une vision à long terme pour un pays, mais c’est aussi et surtout la gestion du court terme. Traduisons : on ne peut pas s’occuper de développement durable que si la santé économique du pays le permet.

Est-ce le cas en France ? Non. La crise des gilets jaunes a commencé après les annonces sur la hausse du carburant. Elle a empiré lorsque le gouvernement a proposé de subventionner – un peu – l’achat de véhicules électriques hors de prix.

Pourtant la France est un pays qui a une sensibilité écologique. Sans tomber dans l’analyse de comptoir, on imagine que la majorité des gilets jaunes pourrait être signataire de la pétition “l’affaire du siècle”.

Mais voilà, chez les gilets jaunes comme au gouvernement, la gestion du lendemain devient tellement problématique – pour des raisons économiques – qu’y ajouter des contraintes de durabilité et de long terme paraît presque démagogique. Et pourtant c’est l’équation qui nous est posée, Emmanuel Macron est le premier à le rappeler.

Prenons l’exemple de la RSE (Responsabilité sociale des entreprises). Mise en place pour améliorer les conditions de travail en entreprise, prendre en compte l’éthique, développer l’intérêt managérial…, la notion de RSE est aujourd’hui accolée à celle de développement durable. Ainsi la responsabilité de l’appréhension des conséquences écologiques d’une activité industrielle est passée de l’Etat vers les entreprises. Dernier acte de ce glissement, un article de la loi PACTE à venir, exigeant une modification de l’article 1833 du code civil, et qui pourrait préciser qu’ « une société doit être gérée dans son intérêt propre en considérant les enjeux sociaux et environnementaux de son activité ». Alors, est-ce un désengagement de l’État ? Une responsabilisation des entreprises ?

Comme l’État, les entreprises obéissent à la contrainte – économique – du court terme.

Comme l’État, les entreprises doivent maintenir une croissance pour continuer se développer.

Une fois ces conditions remplies, il est temps de se pencher sur les conséquences de nos activités sur le long terme.

De fait, la mise en place de la RSE et son évolution visent à intégrer dans l’ADN du secteur privé la notion de préservation des ressources et plus globalement de développement durable. Ainsi, l’Etat n’ayant pas réussi à imposer à ses entreprises ni à lui-même une contrainte native de durabilité, il en transfère la responsabilité au secteur privé.

Plus de marge de manœuvre pour les entreprises

Comme dit plus haut, la manœuvre pourrait s’avérer payante, et il est évident que les entreprises doivent être partie prenante dans la problématique écologique. Elles ont également souvent un fonctionnement plus agile que les États.

La réalité économique s’impose aux États comme aux entreprises. Il en est de même pour la réalité écologique. Tout est question de temporalité.

Le secteur privé est aujourd’hui sur le devant de la scène pour s’emparer des questions de long terme. Et plus seulement pour une question d’image. Il est vital que cette prise en main soit un succès, car il est certain que la crise écologique, si elle n’est pas prise en compte, sera à l’origine d’une crise financière sans précédent. Mais à quel terme ?

Si cela se produit, les États et les entreprises seront impactés ensemble, au-delà de leurs responsabilités.

Le numérique au service de Notre-Dame

Vieille de 850 ans, la cathédrale pourrait profiter des différentes reproductions numériques pour renaître de ses cendres. Aussi surprenant que cela puisse paraître, les architectes pourraient s’appuyer sur le jeu vidéo Assassin’s Creed Unity qui se déroule pendant la Révolution française. A cette occasion, son éditeur, Ubisoft, a reproduit une version de Notre-Dame à l’échelle 1 : 1.

Autre piste très utile : l’extraordinaire travail de l’historien d’art Andrew Tallon. En 2010, ce professeur à la faculté du Vassar college de New York, a numérisé le bâtiment grâce à une technologie laser. Le chercheur, décédé il y a quelques mois, avait créé un site internet dédié à la numérisation des cathédrales gothiques françaises, en open source, « Mapping gothic France ».  Et son mentor, un pionnier de l’utilisation de l’ingénierie moderne en architecture historique, Robert Mark, est décédé début de 2019.

Une précision à cinq millimètres

Les scanners laser qui avaient été utilisés par Andrew Tallon avaient capturé la totalité de l’intérieur et de l’extérieur de la cathédrale dans des nuages de points 3D méticuleux.

Les scanners laser, avec leur précision exquise, ne manquent rien. Monté sur un trépied, le rayon laser balaye le chœur d’une cathédrale, par exemple, et mesure la distance entre le scanner et chaque point touché.

Chaque mesure est représentée par un point coloré qui crée de manière cumulative une image tridimensionnelle de la cathédrale. « Si vous avez bien fait votre travail », expliquait Tallon, l’analyse est « précise à cinq millimètres [0,5 centimètre] près ». Résultat, son travail avait révélé une structure « vivante » et extraordinaire.

« Le principal défi consiste à reconstruire dans la forme à l’identique, mais pas forcément avec les mêmes matériaux, ni les techniques d’origine », note Hervé Cazelle, architecte du patrimoine qui a participé à une vingtaine de chantiers de reconstruction de bâtiments historiques, contacté par France 24.

Xavier Roy: « L’Europe est très présente dans les territoires »

Editions Techniques de l’ingénieur: Présentez-nous France Clusters

Xavier Roy: France Cluster est une association qui regroupe environ 200 pôles de compétitivité et clusters et développe des actions auprès de plus de 60 000 entreprises. Les actions menées sont à destination des clusters, des pôles de compétitivité et des outils d’accélération des PME, avec une orientation très “territoires”.

E.T.I: Quelles sont les objectifs de l’association ?

X.R: Le réseau que nous formons a trois ambitions. D’abord, soutenir l’innovation sous toutes ses formes: nous ne sommes pas focalisés uniquement sur l’innovation technologique. Les innovations organisationnelle ou commerciale constituent par exemple des angles d’amélioration pour les entreprises qui sont souvent un peu négligés en France, en tout cas par rapport à ce qu’on peut voir chez certains de nos voisins européens. La seconde ambition qui nous anime est le soutien de la coopération entre entreprises, qui pour nous peut être un moteur fort pour la croissance. Enfin, nous croyons beaucoup à une coopération entre les différents acteurs de l’innovation ancrée au niveau territorial.

E.T.I: Justement, comment s’articule le soutien de l’Europe à l’innovation en France ?

X.R: L’Europe est très présente dans les territoires. Toutes les régions françaises développent d’ailleurs des stratégies régionales d’innovation en cohérence avec les orientations européennes. Grâce à cette articulation l’Europe a beaucoup soutenu, par exemple via le programme S3, l’innovation au sein des territoires.

E.T.I: Dites-nous en plus sur la stratégie S3 ?

X.R: S3 signifie Smart specialization strategy : il s’agit pour l’Europe de favoriser l’innovation au niveau régional et donc pousser chaque région à concentrer ses ressources sur les domaines d’innovations pour lesquels elle a les meilleurs atouts par rapport aux autres régions européennes.

Du coup, S3 incite les régions à se spécialiser de manière cohérente par rapport à leur potentiel mais aussi en fonction de ce qui est fait dans les autres régions. Ce faisant, on assiste à un renforcement des synergies entre les politiques de recherche et d’innovation développées aux niveaux européen, national et régional. Cela permet de concentrer les investissements.

Aussi, les porteurs de projets innovants que sont les pôles et les clusters, quand ils sont soutenus au niveau régional, ont tendance à l’être également au niveau européen grâce à ce croisement de stratégies. Cette cohérence est importante car elle a un effet démultiplicateur financièrement parlant, mais aussi au niveau de l’ouverture sur les marchés.

E.T.I: Vous effectuez également un gros travail de fond pour améliorer l’accès aux subventions pour les porteurs de projets…

X.R: Nous avons une marge de progression très importante quant à l’utilisation de l’argent européen, c’est certain. C’est aussi pour cela que nous incitons largement les porteurs de projets sur nos territoires à se rapprocher toujours plus des partenaires européens. Mais pour cela il faut trouver les bon cadres, les bonnes informations. Et cela prend du temps.

Ce travail se fait au niveau des porteurs de projets, mais aussi au niveau des collectivités territoriales, principalement des régions qui sont souvent les interlocuteurs pour tout ce qui touche à la gestion de ces crédits européens.

Et bien sûr nous rapportons aussi à la commission européenne, en faisant remonter de l’information sur les difficultés que les porteurs de projets peuvent rencontrer sur certaines de leur propositions.

Propos recueillis par Pierre Thouverez

Le modèle européen face à ses limites ?

Xavier Roy est directeur général de France Clusters, une association qui fédère pôles de compétitivité et clusters, et accompagne plus de 60 000 entreprises dans leurs démarches innovantes.

Editions Techniques de l’ingénieur: Aujourd’hui l’Europe doit impulser l’innovation dans les territoires tout en prenant en compte les spécificités de ces derniers. Comment faire?

Xavier Roy: Les discussions que nous avons avec les institutions européennes à ce niveau sont très intéressantes: la notion de région n’a pas du tout la même signification en France ou en Autriche par exemple. Il faut bien mesurer ces différences.

Prenons l’exemple des trois pôles de compétitivité de l’eau en France: Montpellier, Nancy et Orléans. Ces trois organismes ressentent très fortement le besoin de travailler ensemble pour pouvoir développer une offre «France» à l’international.

Du coup, ils ont créé une marque, France Water Team, pour, tout en gardant la spécificité de chacun de ces pôles territoriaux, avoir la possibilité de profiter de la marque «France».

E.T.I: Cette orientation territoire au niveau européen est parfois critiquée…

X.R: C’est vrai, l’Europe est très orientée sur les territoires, et ceci est très structurant pour la réflexion de nos acteurs industriels. Si cette approche peut parfois crisper, puisque la notion de territoire n’est pas la même dans tous les pays européens, il faut se dire que c’est la même chose en ce qui concerne l’innovation.

Certains pays vont avoir une vision très orientée innovation technologique, d’autre plus innovation commerciale… C’est l’Europe qui doit faire cette synthèse là, et cela fait émerger des discussions très intéressantes.

E.T.I: L’Europe est également souvent accusée de favoriser les très grandes entreprises

X.R: C’est vrai qu’aujourd’hui les règles sont plutôt écrites pour les «grands» que pour les «petits». Et il est trop compliqué pour les petits de s’adapter aux règles faites pour les grands. C’est un peu la limite de la politique européenne, quand veut appréhender les choses à la fois au niveau global et territorial.

E.T.I: Justement, ces grandes entreprises françaises leader sur leurs marchés, que doivent-elles faire pour le rester ?

X.R: Si par exemple on veut défendre la place de la cosmétique en France, qui héberge des entreprises leader au niveau mondial, il est important de ne pas être frileux sur les conditions de l’innovation. Car on ne reste pas leader mondial sans innover. Et quand on voit ce qui est débloqué pour l’innovation au niveau européen par rapport à ce qui est fait en Asie, on comprend que le défi est immense.

Nous avons besoin de «champions», de grands groupes qui sont à a fois des fleurons nationaux mais également des locomotives. Mais nous avons également besoins d’entreprises de taille intermédiaires, qui ont un potentiel différent mais bien réel : agilité, capacité à s’adapter rapidement, à faire évoluer son offre… c’est en mettant tout cela en cohérence qu’on pourra développer un écosystème global innovant et compétitif.

Propos recueillis par Pierre Thouverez

La France au travers du prisme européen

Même si la politique industrielle est souvent moins commentée que la politique, force est de constater que dans l’opinion publique l’idée selon laquelle les intérêts européens sont incompatibles avec les intérêts français a fait son chemin.

Dernier exemple en date, le projet de privatisation des barrages français. Devant la pression de Bruxelles, l’état envisage de privatiser une partie du secteur énergétique français, en l’occurence 150 de ses barrages. L’idée est de se mettre en conformité avec les réglementations européennes de mise en concurrence sur le marché de l’hydraulique.

Aujourd’hui, le sujet est symbolique puisqu’il est le signe, pour certains, que l’Europe impose à la France des mesures qui vont contre son intérêt général. D’autant plus qu’avec les barrages, on touche à un secteur hyper stratégique, celui de la production nationale de l’électricité. On oublie souvent que les barrages hydroélectriques servent aussi de réservoir d’eau froide pour refroidir les centrales nucléaires. Cela rajoute à l’intérêt stratégique.

Pour autant, l’exploitant privé d’un barrage français pourrait-il refuser de refroidir une centrale nucléaire qui en aurait besoin ? Non, bien sûr. C’est l’état qui gère les appels d’offres, et qui choisit le meilleur candidat par rapport au cahier des charges qu’il a lui-même établi.

Nous sommes donc là dans un cas de transfert d’exploitation commerciale, pas de souveraineté. Pour autant, le sujet crispe. Le cas de la privatisation des autoroutes a eu beaucoup d’écho, et les usagers ont pu constater que privatisation ne rimait pas toujours avec baisse des prix.

Ainsi, l’image de l’Europe pour ses concitoyens est fragilisée. Mais au-delà des réglementations économiques, qui évoluent pour s’adapter à un marché mondialisé, l’Europe a aussi un rôle à jouer plus en amont, au niveau de la recherche et de l’innovation. Car c’est bien là que se jouent les enjeux industriels de demain. Enjeux qui ont beaucoup plus à voir avec notre souveraineté.

Que fait l’Europe pour l’innovation ?

L’Europe abrite seulement 7 % de la population du monde, mais représente 20 % de l’économie mondiale en termes de PIB.

Outre un leadership sur certains secteurs comme la transition énergétique ou la santé, la création d’organismes comme le conseil européen de la recherche, créé en 2007, et destiné à financer des projets à fort potentiel mais dont le retour sur investissement n’offre que peu de garanties, montre que l’Europe s’est saisie de ces enjeux.

Mais est-ce suffisant ? Aujourd’hui les investissements engagés par les géants américains et chinois sur des domaines comme l’intelligence artificielle, la e-santé, la robotique, les batteries, défient l’imagination. Et surpassent la puissance de feu européenne dans les grandes largeurs, d’un facteur 4 en moyenne.

Pourtant, ce qu’on appelle la troisième révolution industrielle, et qui va changer drastiquement nos modes de vie, se joue aujourd’hui. L’Europe connaît parfaitement les implications stratégiques à long terme immenses derrière ces enjeux. Mais elle n’a pas aujourd’hui la puissance financière suffisante pour engager ces combats de front. Au risque de devenir à moyen terme un simple marché et plus une force industrielle ? Ce n’est pas exclus.

Le problème de l’investissement

Des politiques européennes sont menées, aux niveaux territorial et national pour rendre l’industrie continentale plus agile, plus synergique, et donc plus compétitive.

Et ceci sur l’ensemble des secteurs de l’industrie. Les cinq Fonds structurels et d’investissement européens ont, depuis 4 ans, investit aux alentours de 405 milliards d’euros dans l’économie réelle. C’est tout de même une somme colossale. Qui doit être utilisée plus efficacement.

Au total, ce sont tout de même près de 1,7 million de projets d’investissement qui ont été sélectionnés en vue d’un soutien de l’UE dans l’ensemble de l’Europe, en plus des 2,7 millions de bénéficiaires des programmes de développement rural.

Dans ce contexte économique hyper polarisé, difficile d’imaginer qu’un pays puisse, sans l’Europe, dégager les financements nécessaires pour innover aujourd’hui sur les domaines technologiques à fort potentiel.

C’est bien la contradiction qui se pose aujourd’hui aux citoyens qui voteront à partir du 23 mai. S’il est facile de trouver les limites du modèle européen, il paraît bien ambitieux d’imaginer s’en affranchir.

Par Pierre Thouverez

L’Europe croit à une politique d’innovation territoriale

Xavier Roy est directeur général de France Clusters, une association qui fédère pôles de compétitivité et clusters, et accompagne plus de 60 000 entreprises dans leurs démarches innovantes.

Editions Techniques de l’ingénieur: Quel regard portez-vous sur les élections européennes à venir (23-26 mai 2019) ?

Xavier Roy: Les élections européennes sont intéressantes pour nous surtout via le collectif innovation. Il s’agit d’un collectif de tête de réseau qui s’occupe d’innovation. France cluster coopère avec ce collectif pour faire remonter efficacement des informations au niveau de l’Europe.

E.T.I: Quel est votre constat sur la politique d’innovation au niveau européen ?

X.R: On observe que l’Europe est très attentive aux questions d’innovation. Notamment en ce qui concerne l’innovation technologique, qui permet à notre économie européenne de rester dans la course au niveau mondial. Après, il ne faut pas oublier qu’aujourd’hui inventer ne suffit pas. Il faut réussir à vendre.

Nous travaillons beaucoup sur les problématiques de mise sur le marché, de commercialisation, de la recherche de marchés applicatifs pour les innovations que l’on porte. C’est d’ailleurs dans ce sens qu’ont été mises en place les SATT sur la valorisation des brevets universitaires et la recherche de marchés applicatifs. Cela répondait à un besoin du côté des universités. Nous faisons pareil, mais au niveau des entreprises. Par exemple nous repérons des marchés applicatifs et nous sollicitons alors l’innovation pour qu’elle vienne répondre à des enjeux de marché.

E.T.I: D’autant plus que l’Europe fait aujourd’hui face à une concurrence exacerbée de la part de l’Asie et des Etats-Unis…

X.R: Il est très problématique de voir des concurrents américains et asiatiques racheter les entreprises européennes qui innovent et commercialiser leurs solutions.

Je pense par exemple au cas d’un cluster qui fédère des acteurs locaux de la distribution, du petit commerçant aux grandes surfaces. Aujourd’hui pour ces acteurs la réalité est de se dire qu’ils n’ont aucun intérêt à développer une concurrence entre eux, car les vrais concurrents sont Amazon ou Alibaba, qui ont un pouvoir financier sans commune mesure et face auxquels il est nécessaire d’avoir une stratégie concertée.

C’est là que doit se faire l’accompagnement de nos entreprises, pour qu’elles puissent continuer à innover tout en développant des stratégies commerciales adaptées à l’offre et à la concurrence. C’est un grand enjeu.

E.T.I: En France quels sont les grands chantiers à mener pour «rester» dans la course à l’innovation ?

X.R: Les défis sont nombreux. D’abord la redynamisation de notre tissu industriel évidemment. Ensuite, un grand enjeu est celui des compétences, car nos PME expriment de vraies difficultés de recrutement. Enfin, il y a la transition écologique: se demander comment les collaborations inter-entreprises, dans ce qu’elles ont mis en place font de l’économie circulaire par exemple.

Les opportunités d’innovation au sens large liées à la transition écologique sont nombreuses: innovation organisationnelle, écologie industrielle, RSE…

E.T.I: On a parlé des articulations Europe/régions. Qu’en est-il au niveau national ?

X.R: Nous interpellons beaucoup nos interlocuteurs européens sur la relation Europe/territoire. D’autant plus qu’en France, on a souvent le sentiment que les acteurs qui comptent sont l’Europe et les régions. Nous pensons qu’il faut aussi se concentrer sur le niveau national. Quand on essaie d’attaquer des marchés au niveau international, ce qu’on vend -entre autres- c’est la marque France. Donc il faut veiller, au niveau des régions, à ce que des acteurs n’entrent pas dans une concurrence inutile sur une même activité par exemple.

Dans le cadre de la loi NOTRe, il est dit que le développement économique est sous la responsabilité des régions, ce qui a du sens pour permettre une prise de décision au niveau territorial. Pour autant, il faut rester mesuré. Le territoire national a toute sa place à jouer, d’autant plus que la marque «France» constitue un atout fort.

Propose recueillis par Pierre Thouverez

Transformation numérique : pourquoi les PME françaises sont à la peine ?

Alors qu’en France la population est désormais habituée à l’achat en ligne (7 consommateurs sur 10), seule 1 PME sur 8 fait usage de solutions de vente en ligne. Et deux tiers des TPE/PME possède un site internet contre trois quarts dans le reste de l’Union européenne. Pour les auteurs de l’étude de l’Apec « ce retard pris sur la transformation numérique prive ainsi ces entreprises d’un marché à fort potentiel ». L’étude menée par l’Observatoire de l’Apec grâce à des entretiens qualitatifs auprès d’entreprises, de cadres ou d’accompagnants, révèle les processus à l’œuvre dans la transformation des TPE/PME françaises et les freins qui y sont rencontrés.

Une transformation au fil de l’eau

Comme le souligne le document, dans la majeure partie des TPE/PME les changements sont de faible envergure. Ils se font petit à petit, au gré des besoins internes ou externes. Ils sont alors perçus comme des projets « informatiques » et ne sont pas ressentis comme une transformation numérique. Il s’agit par exemple de la création d’un site internet, d’une page ou d’un compte sur un/des réseaux sociaux dans le cas d’objectif de communication externe ou alors de la mise en place d’outils de relations clients (CRM) ou de type ERP (intégration informatique des commandes/facturation et/ou des ressources humaines).

Dans ce cas, leur impact sur l’organisation et le travail est faible et limité et la transition assez fluide. Les projets sont menés sur fonds propres, généralement sans aide extérieure. Cependant ce schéma général est très variable selon les entreprises et surtout selon les secteurs d’activité. Dans les secteurs très concurrentiels comme l’hôtellerie-restauration, dans des secteurs du médical ou des services, ou dans la sous-traitance avec des grands groupes, les transformations sont plus rapides et de plus grande envergure.

Des freins identiques aux autres entreprises

Dans ce cas, on voit alors apparaître des résistances tant chez les collaborateurs que chez les cadres à l’instar des difficultés rencontrées lors de changements majeurs dans une grande entreprise. On retrouve alors les mêmes écueils : absence de prise en compte du temps d’adaptation nécessaire à la nouvelle organisation et aux nouveaux outils avec une prévisible baisse de productivité temporaire, formation insuffisante, résistance par peur de la nouveauté ou du transfert de pouvoir, de contrôle ou des connaissances, charge de travail supplémentaire non reconnue et non valorisée etc. La réussite tient alors souvent à l’implication de la direction et éventuellement à l’intervention de ressources extérieures.

Par ailleurs, pour certaines problématiques, les TPE/PME sont très démunies voire n’y pensent même pas. Il s’agit par exemple des questions de gestions des données, de sécurité et d’hébergement.

Des aides méconnues

Sur la question des aides, les TPE/PME sont peu demandeuses. Elles manquent généralement de temps et de moyens pour les chercher et restent méfiantes vis-à-vis de tout élément extérieur, parfois pour des raisons de confidentialité. De plus, elles connaissent rarement l’existence de telles aides et quand elles en ont connaissance, elles trouvent que le vocabulaire et les dispositifs proposés sont inadaptés à leur situation et à leur réalité. Pourtant, elles ont rarement les ressources internes pertinentes pour établir un bon diagnostic, pour rédiger un cahier des charges ou pour le suivi de la mise en place des nouveaux outils.

Les accompagnements existent et sont multiples, ils peuvent être humains ou financiers et sont présents à toutes les étapes du processus, du préfinancement au suivi. Ils proviennent d’organismes institutionnels ou professionnels et sont parfois gratuits ou proviennent de cabinets et d’entreprises spécialisées. Mais, l’étude le souligne, les entreprises font appel à eux souvent après démarchage et peu spontanément. Aussi, pour soutenir l’évolution des TPE/PME vers la numérisation des activités, l’Apec insiste sur la nécessité que les différents accompagnateurs, qu’ils soient payants ou gratuits, adaptent leurs offres aux spécificités des petites entreprises : communiquer plus intensivement sur les services qu’ils apportent, employer du vocabulaire simple (parler de logiciel de gestion de production et pas d’ERP par exemple), présenter des outils simplifiés par rapport à ceux déployés dans les grandes structures, mettre en relation les pairs car leur expérience est reconnue comme pertinente et fiable par les TPE/PME, et savoir s’adapter aux spécificités de l’entreprise cliente car il s’agit souvent, pour ces entreprises, de pouvoir faire du sur-mesure.

La géo-ingénierie pour refroidir la planète bientôt testée ?

Qu’arriverait-il si l’humanité décidait de lancer des avions pour répandre des particules de dioxyde de soufre ou de calcium dans le ciel ? C’est la réponse que cherchent des scientifiques d’Harvard, du MIT et de Princeton dans une nouvelle étude parue dans Nature Climate Change.

Entre réduction des effets et nouveaux risques

La théorie est connue : ces particules renverraient une partie de la lumière du soleil dans l’espace, augmentant l’albédo planétaire. L’effet direct serait de refroidir temporairement la planète. En utilisant un modèle informatique dernier cri (HiFLOR), les chercheurs ont examiné les effets de cette technique si elle était utilisée pour réduire de moitié la hausse de la température mondiale due au réchauffement climatique.

Alan Robock, professeur de sciences de l’environnement à Princeton, a évalué 27 risques potentiels liés à cette technologie. De l’appauvrissement de la couche d’ozone à des sécheresses accrues, en passant par la réduction de la production d’énergie solaire. En pratique, le fait de réduire les températures de l’air en surface pourrait « réduire ou inverser les effets négatifs du réchauffement planétaire, notamment les inondations, les sécheresses, les tempêtes plus fortes, la fonte des glaces de mer et l’élévation du niveau de la mer ». Si la technique était globalement déployée, elle serait bénéfique à la majeure partie de la population. À la marge, moins de 0,5% de la population mondiale pourrait constater une augmentation des impacts du changement climatique.

Des tests avec du carbonate de calcium

 Plutôt que le dioxyde de soufre qui peut accélérer la destruction de la couche d’ozone, les chercheurs d’Harvard étudient la possibilité d’utiliser du carbonate de calcium. Ce produit peu dangereux – composant de la craie ou présent dans les dentifrices – pourrait éviter certains risques.

L’équipe réfléchit ainsi à effectuer une expérience sur le terrain. Elle consisterait à lancer un ballon dans la stratosphère. Suite à la libération d’une petite quantité de carbonate de calcium, les chercheurs mesureraient la dispersion de la lumière et les modifications de la chimie atmosphérique. L’équipe espère réaliser l’expérience cette année, mais attend l’avis d’un comité consultatif externe indépendant.

Une gouvernance à définir

« Pour nous, la gouvernance de ceci est tout aussi importante que les objectifs scientifiques de l’expérience », déclare Elizabeth Burns, directrice du programme de recherche en géo-ingénierie d’Harvard, à Fast Company. La question de la gouvernance est en effet fondamentale. Le coût du processus est estimé à moins de 10 milliards de dollars par an, contre des centaines de milliards de dollars pour s’adapter au réchauffement climatique. Alors qu’il pourrait affecter toute la planète, un seul pays pourrait donc décider d’agir unilatéralement.

« C’est une technologie très effrayante, reconnaît Elizabeth Burns. Mais le monde avec de graves impacts du changement climatique peut aussi être très effrayant. C’est nous effectuons des recherches afin de mieux comprendre les avantages potentiels ainsi que les risques potentiels liés à cette technologie. »

Un moyen temporaire pour mieux s’adapter

La géo-ingénierie est un domaine d’étude restreint qui renferme de nombreuses inconnues. « La géo-ingénierie ne peut se substituer à la réduction des émissions, car elle ne s’attaque pas à la cause fondamentale du changement climatique, rappelle Elizabeth Burns. Donc, si nous voulons instaurer un climat stable, nous devons réellement réduire les émissions à zéro, puis éliminer également le dioxyde de carbone présent dans l’atmosphère et le stocker sous terre ou ailleurs ». Alan Robock complète : « Cette solution ne pourrait être utilisée que temporairement, pendant que nous réduirions rapidement nos émissions dans l’atmosphère et trouverions des moyens peu coûteux de séparer le dioxyde de carbone. »

Plus il fait chaud, plus le pouvoir isolant des forêts augmente

Grâce à l’étude de données relevées sur une centaine de sites à travers le monde, une équipe de recherche internationale vient de démontrer que la couverture forestière agit comme un isolant thermique à l’échelle globale, en refroidissant le sous-étage forestier quand les températures de l’air sont élevées. Cet effet tampon est bien connu, mais c’est la première fois qu’il est évalué mondialement, à la fois pour des forêts tempérées, boréales et tropicales. Ainsi, les températures maximales sont en moyenne 4°C plus basses en forêt qu’en dehors, avec des écarts beaucoup plus importants pour les forêts tropicales que pour les autres. Les chercheurs ont également montré que plus les conditions extérieures sont chaudes et plus le pouvoir tampon des forêts augmente.

Sur la base de ce constat, il est possible de proposer des stratégies de gestion permettant d’agir sur le microclimat forestier et ainsi de limiter les effets néfastes du réchauffement climatique sur la biodiversité. Cette étude, publiée dans Nature Ecology & Evolution le 1er avril 2019, a été engagée à l’initiative de Pieter De Frenne, de l’Université de Gand, et de Jonathan Lenoir, chercheur CNRS au laboratoire Écologie et dynamique des systèmes anthropisés (CNRS / Université de Picardie Jules Verne).

(Gauche) Illustration du tampon microclimatique et du découplage entre microclimat sous couvert forestier et macroclimat hors couvert forestier. (Droite) Coupe verticale d’un couvert forestier (forêt domaniale de Compiègne) réalisée avec un LiDAR. La courbe la plus basse indique les différences de températures entre couvert et hors couvert : plus le couvert est dense et plus la topographie est confinée, plus le microclimat est frais en été. Le couvert végétal et la topographie jouent un rôle dans le pouvoir isolant des forêts. (voir : https://doi.org/10.1111/ecog.02788) ©Lenoir et al./ONF/CNRS
Bibliographie : Global buffering of temperatures under forest canopies. Pieter De Frenne, Florian Zellweger, Francisco Rodríguez-Sánchez, Brett Scheffers, Kristoffer Hylander, Miska Luoto, Mark Vellend, Kris Verheyen and Jonathan Lenoir. Nature Ecology & Evolution, le 1er avril 2019, DOI : 10.1038/s41559-019-0842-1
Source : cnrs

Les tarifs réglementés à nouveau au cœur du débat

Le gouvernement assume ainsi la future forte hausse des TRV qui, à l’origine, devait intervenir en février dernier. Mais le mouvement des Gilets Jaunes étant passé par là, le gouvernement avait choisi de « jouer la montre » en repoussant cette hausse des TRV à une date ultérieure, en utilisant les trois mois dont il dispose par rapport au dernier avis de la Commission de régulation de l’électricité (CRE) chargée de calculer ces tarifs auxquels sont encore la très grande majorité des ménages français et des « petits » professionnels. Le gouvernement a donc jusqu’au 7 mai.

Un délai que l’Autorité de la concurrence a mis à profit pour « s’autosaisir » de la question en ajoutant de la discorde dans le débat.

Dans un avis daté du 25 mars dernier, l’Autorité de la concurrence avait en effet déconseillé d’augmenter les tarifs réglementés de vente sans clarifier au préalable les objectifs qu’ils doivent poursuivre.

L’Autorité de la concurrence estime que le dispositif envisagé est défavorable pour 28 millions de clients aux TRV (sur quelque 35 millions de foyers), puisqu’il conduirait à une augmentation des tarifs de 7,7% HT (soit 8,3€/MWh), dont 40% (soit 3,3€/MWh) ne correspondent pas à une augmentation des coûts de fourniture d’EDF mais ont pour but de permettre aux concurrents d’EDF de proposer des prix égaux ou inférieurs aux TRV.

Avant d’aller plus loin dans les motifs qui ont poussé à cette décision, il convient de revenir sur la formation de ces tarifs.

Comme le rappelle la CRE dans son avis du 7 février fixant une hausse de 5,9% des TRV, ces derniers sont construits, depuis 2014, par « empilement » de différentes composantes. Ils comprennent ainsi le coût de la garantie de capacité, les coûts d’acheminement (transport et distribution, qui sont régulés par la CRE via le Tarifs d’utilisation des réseaux publics d’électricité ou Turpe), les coûts de commercialisation et la rémunération « normale » de l’activité de fourniture. Enfin, ils comprennent une composante coût d’accès régulé à l’électricité nucléaire historique, le fameux Arenh, dont l’objectif au moment de la libéralisation du marché des particuliers était de permettre de développer la concurrence sur ce marché en facilitant l’accès aux concurrents de l’opérateur historique EDF à l’électricité produite par les réacteurs nucléaire à un prix compétitif (aujourd’hui 42 €/MWh). Ces derniers peuvent en bénéficier jusqu’à concurrence de 100 TWh par an, comme fixé par la loi. A cette composante, s’ajoute une autre : le coût du complément d’approvisionnement au prix du marché, c’est-à-dire le coût auquel EDF doit s’approvisionner (en plus du nucléaire) pour pouvoir livrer ses clients aux TRV. Ce sont ces deux composantes que l’autorité de la concurrence met en cause dans son avis.

Un prix de marché qui fluctue largement en fonction de l’électricité disponible… En France, mais aussi en Europe, puisque le marché électrique est interconnecté.

La CRE régule donc le Turpe, applicable aux TRV et aux tarifs de marché, et propose des évolutions des TRV régulièrement en prenant en compte les évolutions sur le prix des marchés de gros européens… Donc, la « part » production joue un rôle prépondérant dans les évolutions tarifaires, mais, comme le fait remarquer l’Autorité de la concurrence, cette part ne représente « que » 40% de la facture globale payée par les clients.

Ainsi, comme elle l’avait déjà indiqué lors de la décision de construire les coûts par empilement, en 2014, l’Autorité de la concurrence demande au gouvernement de réexaminer, avant le 7 mai, la légalité et l’opportunité de la méthode et de solliciter auprès de la CRE une nouvelle délibération.

L’Autorité de la concurrence estime ainsi : « Il ne fait à cet égard pas de doute qu’une régulation du marché, destinée à favoriser le développement de la concurrence, est nécessaire en France. L’Arenh a été mise en place à cette fin et permet aux fournisseurs d’électricité d’accéder à des volumes d’électricité issus du parc historique électronucléaire dans des conditions déterminées. Ce système a cependant des limites et nécessite aujourd’hui une réforme aussi rapidement que possible ».

La limite évoquée par l’autorité administrative concerne directement le plafond de l’Arenh.

En effet, tant que le prix de l’Arenh est supérieur aux prix du marché de gros, tout va bien, puisque les concurrents d’EDF ne se bousculent pas au portillon pour réclamer leur part, préférant se fournir en bourse. En revanche, et c’est le cas depuis deux ans quasiment, quand le prix du marché dépasse le prix de l’Arenh, les concurrents se bousculent pour avoir leur part… Mais comme le volume est plafonné à 100 TWh, il faut partager.

L’Autorité de la concurrence signale donc que : « Néanmoins, augmenter les TRV et les utiliser pour pallier les limites de l’Arenh conduit à un changement de nature de ces tarifs, qui n’a pas, à la connaissance de l’Autorité, fait à ce jour l’objet d’un débat public transparent et éclairé. Cela a pour conséquence de faire supporter la charge financière aux consommateurs plutôt qu’aux fournisseurs et semblerait donc contraire à la volonté du Parlement de proposer aux consommateurs des tarifs réglementés permettant de leur restituer le bénéfice de la compétitivité du parc nucléaire historique ».

Le gouvernement semble donc avoir choisi d’assumer la hausse, mais François de Rugy a aussi dit qu’il repassera par la case CRE.

Transformation numérique dans la santé : la gouvernance fait toujours défaut

D’un côté, une étude internationale menée par le cabinet d’avocats Simmons & Simmons, publiée fin janvier 2019, révèle que 64 % des décideurs et investisseurs des secteurs des technologies, de la santé et des sciences de la vie voient l’e-santé comme une « priorité stratégique » et qu’ils se préparent à « anticiper la révolution digitale de la santé et capitaliser sur sa valeur économique ».

De l’autre, selon le premier « observatoire de la formation en santé » présenté en décembre 2018 lors des Assises nationales hospitalo-universitaires, 73 % des professionnels de santé interrogés s’estiment mal formés en matière de numérique, d’intelligence artificielle et de robotisation. Ils sont presque 90 % à penser que les changements apportés par ces technologies posent des questions en matière d’éthique, qu’elles vont transformer leurs métiers et qu’elles nécessitent de former mieux et plus souvent les acteurs de la santé. Mais ils sont moins nombreux à penser que cela peut améliorer les diagnostics (65 %) et la qualité des soins (48%).

Face à ces constats, on note un réel dynamisme autour des start-up de l’e-santé en général et un gouvernement qui affiche ses ambitions numériques dans sa stratégie de transformation du secteur médical « Ma santé 2022 ». Pour autant, cet ensemble est mal ficelé, la gouvernance est floue et faible, la transformation numérique du secteur de la santé présente des faiblesses structurelles et organisationnelles fortes que le rapport Pon/Coury a mis en évidence. On le voit, l’arrivée du numérique en santé place ce secteur à la croisée des chemins. Elle va le forcer à remettre à plat à la fois son fonctionnement et ses pratiques au quotidien (rapport soignants/patients par la télémédecine, l’accès aux données de santé, l’intelligence artificielle, la robotisation etc.), les liens entre ses différentes structures (publiques/privées, médecine de ville/spécialités par un parcours du patient retravaillé) et sa gouvernance à la fois réglementaire, éthique et technique car le partage des données numériques nécessite une plus grande collaboration entre ces structures.

Dans ce contexte, la plupart des acteurs attendent donc que l’exécutif donne un cadre, une vision et une organisation à l’ensemble. Et c’est là que le bât blesse… Cela fait maintenant deux ans que tout le monde attend.

Une gouvernance temporaire qui dure trop ?

Il faut dire que la gouvernance de la santé est déjà complexe et pour l’instant celle de l’e-santé est calquée dessus ; on trouve ainsi un empilement de structures et d’interlocuteurs incroyables. Parmi les structures pilotant un volet e-santé, on peut citer la direction générale de l’offre de soins (DGOS), la direction générale de la santé (DGS), la direction générale de la cohésion sociale (DGCS), mais aussi la délégation à la stratégie des systèmes d’information en santé (DSSIS) et l’Agence des systèmes d’information partagés de santé (Asip santé), sans compter bien sûr les autres acteurs qui voudraient avoir leur mot à dire…

Sous le quinquennat précédent, la stratégie « e-santé 2020 » avait mis en place le comité stratégique du numérique en santé (CNSS), dont la première réunion s’est tenue en janvier 2017. Ce comité avait l’avantage de réunir autour d’une même table les représentants de tous les acteurs : professionnels de santé, établissements de santé, industriels, les administrations (centrales et agences etc.), la recherche et des personnalités qualifiées telles qu’un représentant du conseil national du numérique ; mais sa dernière réunion date d’octobre 2017. Cette absence d’activité s’accompagne d’autres signes reflétant un manque de visibilité sur la gouvernance : une direction par intérim de la DSSIS depuis juin 2017 et de l’Asip depuis mars 2018 – agence qui n’a d’ailleurs plus de contrat d’objectifs et de performances.

Sans compter que le gouvernement actuel semble indécis sur la forme à donner à cette gouvernance. En mars 2018, il annonce la création d’une mission unique « e-santé » au sein du ministère des solidarités et de la santé et désigne deux pilotes (Dominique Pon et Annelore Coury) pour dessiner la stratégie de transformation du système de santé. Finalement, cette mission unique ne verra pas le jour. En attendant, les deux pilotes ont rendu leur rapport à l’automne 2018. Une partie de leurs préconisations sont intégrées au volet numérique de la stratégie de santé « Ma santé 2022 ».

Un rapport qui donne le LA

Le rapport Pon/Coury dresse un constat sans appel : « usagers réduits à un rôle passif », professionnels « confrontés à une offre morcelée rendant les usages complexes dans la pratique quotidienne », « outils souvent peu interopérables » ne répondant pas aux besoins les plus basiques, « stratégie du numérique en santé peu lisible et incomplète », « gouvernance et organisation insuffisamment structurée pour être efficace ». Bref, (presque) tout reste à faire.

Le diagnostic a bien été entendu par le gouvernement qui s’en est servi comme socle pour intégrer une réelle vision stratégique du numérique en santé dans sa stratégie de transformation du système de santé « Ma santé 2022 » présenté en septembre 2018. En effet, cette dernière comprend 54 mesures visant à regagner du temps médical, veiller à la bonne orientation des patients par une bonne coordination des acteurs, et améliorer la qualité ainsi que la pertinence des soins ; pour beaucoup, ces mesures comptent s’appuyer sur le développement de technologies et d’outils numériques sécurisés et interopérables à l’échelle nationale. « Ma santé 2022 » prévoit notamment la mise en place d’un « bouquet de services numériques intégrés » pour les professionnels : accessible même en mobilité, il doit notamment comprendre des outils de transmission sécurisée d’avis médicaux et de partage des données de santé grâce au DMP (dossier médical partagé) ; des outils d’e-prescription devraient aussi s’y implémenter. Le début du déploiement est prévu fin 2019 avec une généralisation d’ici 2021. Pour les patients, le gouvernement prévoit d’ici 2022, la création d’un « espace numérique personnel de santé » dans lequel le patient pourra par exemple accéder à ses données de santé (compte rendu d’hospitalisation, résultats d’examens, prescriptions dématérialisées…).

La transformation numérique va tout remettre à plat

Du coup, à défaut d’être encore très clair sur la gouvernance de l’ensemble, le gouvernement a opté pour la mise en place d’une « task force » au sein du ministère de la santé. A la tête de cette « direction des services numériques du système de santé », on trouve Dominique Pon et Laura Létourneau. Ils doivent « favoriser les synergies » entre l’Etat, l’assurance maladie et les agences régionales de santé (ARS), en concertation avec les citoyens et représentants des professionnels et industriels du secteur pour assurer le « virage numérique » du système de santé. L’objectif est d’assurer un pilotage des chantiers en cours et de donner aux pouvoirs publics un rôle d’État plate-forme qui définit un cadre général pour la mise en place des systèmes d’informations de santé, en posant des garde-fous pour l’éthique et la sécurité des données mais en laissant le développement de services à valeur ajoutée aux acteurs privés.

Ainsi, la structure de gouvernance actuelle doit permettre de continuer de dérouler les grands projets comme le dossier médical partagé, la création d’un Health Data Hub (agrégation des données de santé pour leur exploitation) ou encore de nouveaux programmes de financements en attendant une gouvernance claire, solide et arbitrée. Les deux pilotes expliquent d’ailleurs en substance que la transformation digitale exige une remise à plat de gouvernance et que cela ne se fera pas en jour.

Blockchain : Fujitsu et Sony à la recherche de nouveaux cas d’usages : éducation, énergie & propriété intellectuelle

Fujitsu Limited, Fujitsu Research Institute, et Sony Global Education ont annoncé le 27 février 2019 la mise en place d’un système permettant de certifier les résultats et diplômes scolaires d’élèves grâce à la blockchain, en remplacement des traditionnels certificats papier. Ce système sera dans un premier temps destiné à certifier le niveau en langue japonaise d’élèves souhaitant venir étudier au Japon. Il sera déployé en partenariat avec Human Academy Co, un centre d’éducation japonais pour les élèves étrangers. Avec ce système, les instituts académiques pourront s’assurer du niveau en japonais des élèves en regardant directement le certificat stocké sur la blockchain.

Cette expérimentation s’inscrit dans un contexte où le nombre d’étudiants et de travailleurs étrangers au Japon augmente d’année en année. L’application de l’Immigration Control Act en avril 2019, qui créé de nouvelles catégories de visa, va contribuer à accentuer encore cette dynamique. L’initiative lancée par Fujitsu et Sony souhaite répondre à la difficulté que peuvent rencontrer les institutions académiques pour confirmer la validité des résultats scolaires transmis par les étudiants étrangers. Une mauvaise évaluation pouvant engendrer des situations compliquées pour les deux parties, en particulier lorsqu’il s’agit des capacités en langue japonaise.

Du côté de Sony, bien que le développement de la technologie blockchain soit axé sur l’éducation, son utilisation est envisagée dans une large variété de domaines. En particulier, Sony annonçait en octobre 2018 le développement d’une solution de gestion des droits numériques (DRM : digital rights management), visant à protéger les contenus digitaux (films, musiques, e-books etc.). Selon Sony, les transformations technologiques permettant la création et la diffusion de contenu digital doivent aussi s’appliquer à la gestion des droits relatifs à ces contenus, en particulier le respect de la propriété intellectuelle. Ce système, encore au stade de prototype, pourrait être prochainement commercialisé par Sony s’il s’avère concluant.

Autre exemple, fin janvier 2019, Fujitsu communiquait sur la possibilité d’utiliser la blockchain pour optimiser le mécanisme de « réponse à la demande » (demand response, DR) sur le marché de l’électricité. L’objectif de ce mécanisme est d’améliorer le contrôle de la production d’énergie électrique et la gestion des pics de charge en faisant coopérer les fournisseurs et les consommateurs d’énergie. En effet, le taux de succès est actuellement relativement faible, du fait de l’incapacité des consommateurs à adapter leur consommation. Le système conçu permet aux acteurs d’échanger entre eux leurs surplus d’énergie, qu’ils soient dus à leur propre génération d’énergie ou bien à une réduction de leur consommation. Fujitsu annone une amélioration du taux de succès des « réponses à la demande » de l’ordre de 40%.

A travers ces différents exemples, les deux acteurs Japonais cherchent à gagner en maturité quant aux cas d’usages potentiels de la blockchain. Fin 2018, l’agence de transformation digitale australienne (DTA) se faisait plus critique à l’égard de la mode autour de cette technologie, indiquant que « pour toute utilisation envisagée de la blockchain (technologie intéressante mais encore dans les premières phases de son développement), il existe à l’heure actuelle une meilleure solution ».

Sources : www.diplomatie.gouv.fr
www.fujitsu.com
www.sony.net
www.fujitsu.com

Rédacteur : Guillaume Barraud, Chargé de mission Numérique, Matériaux et Sciences de l’ingénieur, Ambassade de France au Japon

Comprendre une technologie n’est pas nécessaire pour l’améliorer !

Produire des outils complexes et s’adapter à différents milieux : on pense souvent que l’être humain a pu y parvenir grâce à son imposant cerveau, qui le rendrait plus ingénieux et inventif que d’autres espèces. Pourtant, l’efficacité de technologies telles que l’arc ou le kayak dépend de nombreux paramètres qu’il est encore aujourd’hui difficile de comprendre et de modéliser, même pour des physiciens. Pour cette raison, certains anthropologues ont suggéré que ces technologies résultent non pas de nos capacités de raisonnement mais de notre propension à copier les autres membres de notre groupe : de petites améliorations seraient sélectionnées successivement, conduisant à l’émergence de technologies efficaces et pourtant incomprises des individus.

Les chercheurs ont voulu tester cette théorie en laboratoire. Pour cela, ils ont recruté des étudiants qui devaient optimiser une roue afin qu’elle parcoure le plus rapidement possible la distance d’un mètre sur des rails inclinés (photo). Chacun avait cinq essais pour produire la configuration la plus efficace, avant de répondre à un questionnaire qui testait sa compréhension des mécanismes physiques pouvant influencer la vitesse de la roue. Afin de simuler la succession des générations humaines, les chercheurs ont créé des chaînes de cinq individus : chacun avait accès, sur un écran d’ordinateur, à la configuration et à l’efficacité de la roue des deux derniers essais du participant précédent.

Tandis que la roue gagnait en vélocité au cours des « générations », la compréhension des individus est restée médiocre. En d’autres termes, il n’y avait aucun lien entre la performance de la roue et le niveau de compréhension des participants ! Chaque individu avait produit des configurations plus ou moins aléatoires et c’est la combinaison entre ces essais-erreurs individuels et la copie des configurations les plus rapides qui avait suffi à optimiser la roue.

Dans une seconde version de l’expérience, les participants transmettaient à l’individu suivant, en plus de leurs deux derniers essais, un texte décrivant leur théorie sur l’efficacité de la roue. Les résultats furent similaires : les roues gagnaient en vitesse mais, là encore, sans que les individus comprennent pourquoi. La transmission de théories fausses ou incomplètes pouvait même empêcher les générations suivantes de développer une compréhension correcte du système, les rendant comme aveugles à une partie du problème.

Cette expérience illustre l’importance des processus culturels dans l’apparition d’outils complexes : notre aptitude à copier les autres individus permet l’émergence de technologies que nul n’aurait su inventer de lui-même. Elle invite à se montrer prudent dans l’interprétation des vestiges archéologiques en termes de capacités cognitives, ces aptitudes n’étant pas le seul moteur de l’évolution technologique.

Dispositif utilisé dans l’expérience

Illustration : les participants pouvaient modifier la position des poids le long des rayons entourant la roue, afin d’augmenter sa vitesse sur le rail incliné.
Deux facteurs influencent cette vitesse : la distribution de la masse autour de l’axe de la roue, ou moment d’inertie (plus la masse est condensée, proche de la roue, plus celle-ci est rapide), et la position du centre de masse de la roue (plus celui-ci est haut, plus l’accélération est importante).
© Maxime Derex

Bibliographie : Causal understanding is not necessary for the improvement of culturally evolving technology, Maxime Derex, Jean-François Bonnefon, Robert Boyd et Alex Mesoudi. Nature Human Behaviour, le 1er avril 2019. DOI : 10.1038/s41562-019-0567-9

Source : cnrs

L’énergie éolienne en Europe : où en est-on en 2019 ?

En 2018, les pays européens ont installé 10,1 gigawatts (GW) de nouvelles capacités éoliennes, contre 14,8 GW l’année précédente. Le parc éolien a atteint précisément 178,95 GW à la fin de l’année pour une production de 379,3 TWh. Soit une hausse de la production de 4,7% par rapport à 2017. Malgré un volume de nouvelles installations en baisse, « la part de l’éolien commence à devenir substantielle au sein du mix électrique européen car elle représente à elle seule 11,4% du total de la production de l’Union européenne à 28 », analyse le Baromètre éolien 2019 d’EurObserv’ER.

L’éolien continue à se développer en Europe, mais à des vitesses très variables selon les pays. La baisse de la dynamique s’explique en partie par le recul des nouvelles installations de 48 % en Allemagne (3,2 GW) et de 23,6 % en France (1,6 GW). D’autres marchés sont au contraire fortement dynamiques : la Suède (796 MW, +350 %), le Danemark (+645 MW, +168 %) et l’Espagne (+336 MW, +258,2 %). Le développement de l’éolien est par ailleurs au point mort dans douze pays.

Et pour l’éolien offshore ?

Les raccordements pour l’éolien offshore se sont également faits plus rares en Europe en 2018. Selon EurObserv’ER, ils se sont élevés à 2667,7 mégawatts (MW), contre 3200,6 MW l’année précédente. La puissance offshore atteint 18,46 GW, soit tout de même un taux de croissance de 16,9 % par rapport à 2017. L’Union européenne est toujours un espace primordial pour le déploiement de l’éolien offshore. 80% de la capacité mondiale offshore reste ainsi localisée en Europe.

Malgré un ralentissement du développement de l’éolien en Europe et des conditions météorologiques moins avantageuses qu’en 2017, la production éolienne a augmenté. « Cette croissance a plus particulièrement été tirée par l’éolien offshore, note le Baromètre. La part de l’éolien offshore dans le total de la production d’électricité éolienne gagne en importance et passe de 14 % en 2017 à 15,1 % en 2018 ».

De durs jours à venir en Allemagne

EurObserv’ER explique le ralentissement brutal en Allemagne en partie par le fait qu’une part importante des projets attribués par les derniers appels d’offres l’ont été à des « projets citoyens ». Bénéficiant de délais supplémentaires pour leur réalisation, cela crée un décalage dans le volume annuel mis en service.

« Plus préoccupants pour la filière, les résultats des deux derniers appels d’offres terrestres ont montré que les volumes cibles ne parvenaient plus à être atteints », fait savoir EurObserv’ER. Ainsi, seulement 363,2 MW ont été attribués sur 670,2 MW en octobre dernier et 476 MW sur 700 MW en février 2019. Selon WindEurope, cela est dû au délai grandissant d’obtention des permis de construire. Celui-ci peut désormais « prendre plus de deux ans, contre dix mois il y a deux ans ». De plus en plus de recours judiciaires ont également lieu, avec « au moins 750 MW » de projets bloqués.

Un petit point sur le monde

L’éolien représente environ 4,7 % de la production mondiale d’électricité. Fin 2018, la puissance éolienne installée atteignait 591 GW, dont 23 GW en mer. Sur l’année 51,3 GW ont été installés, contre 53,2 GW l’année précédente, soit une baisse de 3,6%. « Cette nouvelle baisse du niveau d’installation mondial, la troisième année consécutive, s’explique cette année par une contraction importante des marchés européens et indiens qui n’a pas été entièrement contrebalancée par le retour à la croissance des marchés chinois et états-uniens », analyse EurObserv’ER. Les marchés les plus dynamiques ont été la Chine (+23 GW), les Etats-Unis (+7,6 GW) et l’Allemagne (+2,4 GW).

Chine : le déploiement des applications de la 5G s’accélère en 2019

Le système de navigation satellite Beidou (BDS) est opérationnel depuis la finalisation du projet BDS-3 fin 2018, et les évaluations et tests menés à échelle globale ont démontré que sa précision de géo-positionnement est inférieure à 10 mètres.

Cette année, la Chine va progressivement avancer dans l’innovation de BDS et son intégration avec les technologies de l’information comme internet, le big data ou encore l’intelligence artificielle. Les données collectées à partir du réseau 5G permettraient par exemple d’améliorer la précision du positionnement (la présence de plus de stations de bases qu’en 4G permettant un meilleur positionnement par triangulation fourni par l’opérateur réseau).

Il y a quelques semaines, la première tentative de campus universitaire équipé d’un réseau 5G a également été lancée à la Huazhong University of Science and Technology (HUST située dans la province de Hubei). Le réseau, développé conjointement par la branche locale de China Mobile et Ericsson, est supposé permettre in fine des innovations telles que l’apprentissage à distance au moyen de réalité virtuelle augmentée ou bien encore la surveillance de nuit du campus par des drones à vision nocturne.

À ce jour, selon Fan Bingheng (Directeur Général de la branche de Hubei de l’entreprise), China Mobile a installé une centaine de stations de base 5G à Wuhan (la capitale de Hubei) et a lancé des tests de performance à grande échelle (vitesse de transfert de données, latence…).

On retiendra aussi de ces dernières semaines la présentation par la Chine, lors de la conférence mondiale des télécommunications mobiles à Barcelone, d’un bateau autonome équipé de technologies 5G. Ce dernier, développé par Yunzhou Smart en association avec China Mobile et Ericsson a fait l’objet d’une démonstration avec un public invité à lui donner des instructions et à observer le fonctionnement du navire sans équipage en temps-réel (démonstration d’équipements de réalité virtuelle, analyse de la qualité de l’eau…).

Avec les technologies 5G, et notamment la possibilité d’utiliser des technologies d’accès radio complémentaires pour en améliorer la couverture et le débit, l’intégration et l’analyse de données issues de stations de base terrestres et de communications satellites va probablement continuer de faire émerger de nouvelles applications innovantes dans différents secteurs d’activité.

Sources :

www.diplomatie.gouv.fr

www.ecns.cn/news/

eng.chinamil.com.cn

Rédaction : Srikanth Ramanoudjame, chargé de mission au service pour la science et la technologie du consulat général de France à Canton,

Qu’est-ce que notre relation à l’intelligence artificielle dit de nous ?

Si l’intelligence artificielle attire de plus en plus les chercheurs et les investisseurs dans de multiples domaines, elle n’en reste pas moins un sujet de méfiance. L’inquiétude vis-à-vis de la privatisation des données a mené à l’instauration de la RGPD pour protéger les datas dont se nourrit l’IA pour fonctionner. Nous avons interrogé Alban Leveau-Vallier, philosophe et chercheur spécialisé dans l’intelligence artificielle, pour comprendre ce que nos pensées et nos actions concernant l’IA disent de nous.

Pourquoi lier la philosophie et l’intelligence artificielle ?

L’IA est un projet philosophique car elle s’interroge sur l’intelligence humaine. En construisant des programmes, nous tentons de comprendre comment on pense. Pourtant, s’inspirer de notre intelligence pour créer l’IA est compliqué car nous n’arrivons toujours pas à définir ce qu’est l’intelligence. Le terme d’ « intelligence » pose donc question. D’ailleurs, Luc Julia, vice-président de l’innovation chez Samsung, a écrit le livre L’intelligence artificielle n’existe pas pour dénoncer cette appellation, qui donne l’illusion que des machines pensantes vont nous remplacer.

Que vous apprennent vos recherches sur la relation humain/machine ?

Si nous sommes disposés à opposer l’humain et la machine, je pense qu’il faudrait plutôt s’interroger sur ce que nous racontons à travers les machines que l’on crée. Nous avons tendance à imaginer une machine totalement autonome, ce qui crée des fantasmes et des craintes. Pourtant, ça n’existe pas. Pour remplir son rôle, une machine doit être conçue, mise à jour et maintenue par des humains. Si nous laissons un smartphone sans le charger ni le mettre à jour, il ne fonctionnera plus et c’est pareil pour toutes les technologies. Plutôt que de se focaliser sur les machines autonomes, nous pourrions davantage nous intéresser aux technologies qui aident à résoudre des problèmes concrets, donc à l’ »intelligence augmentée ». Aujourd’hui, nous attendons les voitures autonomes, annoncées depuis des années. En parallèle, des startups introduisent dans les voitures des technologies comme la reconnaissance d’images pour détecter les piétons, des limitateurs de vitesse etc.  Ces évolutions technologiques sont concrètes car elles existent déjà dans nos véhicules et modifient nos pratiques. Pourtant, elles font moins rêver car elles ne remplacent pas le conducteur.

La peur d’être remplacé par une machine dans son travail est-elle fondée ?

Oui et non. D’un côté, il n’y a pas de remplacement par une machine autonome car elles seront maintenues par des humains. En revanche, l’introduction de programmes va changer les manières de travailler donc certains vont en bénéficier et d’autres en pâtir. Par exemple, si un programme intégré dans une entreprise permet de faire beaucoup d’économies, cet argent ne sera pas redistribué aux employés. Il serait intéressant de profiter de ce gain de productivité pour mettre en place des semaines de 30h par exemple, mais je n’ai jamais entendu parler de cela. À mon avis, il faut plus s’inquiéter de la répartition des gains que d’un remplacement par les machines.

Pourquoi y a-t-il autant de fantasmes et de craintes autour de l’IA ?

Le rêve d’une machine intelligente n’est pas récent, nous en trouvons déjà des traces chez Homère. L’IA est souvent assimilée à une forme de magie. Nous sommes actuellement dans la 3e vague d’enthousiasme concernant l’IA, et comme les précédentes dans les années 50-60 puis 80, elle s’accompagne de grands espoirs et de promesses excessives. Cependant, cet engouement donne énormément de crédit à l’intelligence artificielle et les investissements financiers suivent, donc des innovations très intéressantes naissent. Les craintes qu’elle crée en parallèle sont pour moi inévitables. Déjà, la méfiance envers ce qui pourrait modifier nos façons de vivre et de se relier les uns aux autres nous poussent à nous refermer aux changements. Ensuite, les scandales autour de l’utilisation de nos données légitiment ces craintes. Mais selon moi, ces deux pans confèrent chacun trop d’importance à la technologie et sont le reflet de peurs du monde qui nous entoure.

Est-ce que les lois sur la protection des données limitent le développement de l’IA, qui a justement besoin de ces données ?

On aime bien se lamenter et dire que l’Europe sera en retard parce que les chercheurs pourront moins utiliser les données que les Chinois par exemple. Mais définir des premiers et des derniers dans le développement de l’IA, c’est se placer dans un monde de compétition clair. Or, il est compliqué de classer les pays selon leur avancée car l’intelligence artificielle est un domaine très ouvert, dans lequel  les chercheurs publient en open source et circulent à travers le monde. Selon moi, les règles de protection des données sont un avantage et nous placent justement en avance sur cet aspect. Avant de déployer une technologie, nous ne pouvons pas prévoir les effets, autant positifs que négatifs. Mais une fois que nous commençons à distinguer les scandales et les abus, il est sain de se demander quelles nouvelles lois doivent l’encadrer. C’est d’ailleurs le rôle de l’Etat.

Quel avenir imaginez-vous pour l’intelligence artificielle ?

J’aime bien prendre l’exemple de Blade Runner, réalisé en 1982, et dont l’intrigue se déroule en 2019. Il y a des voitures autonomes, des androïdes intelligents, mais pourtant, les personnes téléphonent encore depuis des cabines téléphoniques à pièces. Cette scène prouve bien que nous pouvons imaginer l’avenir, mais pas faire de prévisions stables car tout sera radicalement différent.