Une peinture permettant un refroidissement passif pour éviter la climatisation

Le rapport de l’IEA qui inquiète

Il y a des chiffres parfois surréalistes qui font beaucoup réfléchir. 10% de la consommation électrique mondiale, c’est énorme. Pire : la situation va s’aggraver d’ici les 30 prochaines années, car de nombreux pays chauds et très peuplés tels que l’Inde sont encore peu équipés en air conditionné.

Si rien ne change, l’air conditionné deviendra bientôt l’une des premières sources de consommation électrique. Fort heureusement, ce constat de l’International Energy Agency (IEA) est suivi de propositions de solutions. Selon l’IEA il serait urgent de miser sur le déploiement de systèmes d’air conditionné plus efficaces et de travailler également sur les technologies permettant de réduire efficacement la facture énergétique des bâtiments (cf. Figure 1).

Figure 1 : Pourcentage d’habitations non équipées en air conditionné, classement par pays. Source : IEA

Comment la recherche peut-elle résoudre le problème de l’air conditionné?

Et si la solution était tout simplement de se passer d’air conditionné ? Une équipe de chercheurs de l’université américaine de Columbia semblent envisager sérieusement cette possibilité au regard des résultats de leurs travaux. La solution proposée par l’équipe du docteur Jyotirmoy Mandal est plutôt audacieuse : élaborer un revêtement polymère super réfléchissant et possédant une quantité importante de porosités à l’échelle micrométrique et nanométrique. Comment un tel revêtement peut-il servir à refroidir un bâtiment ? Grâce à un processus physique appelé « passive daytime radiative cooling » ou PDRC, par lequel un matériau est capable à la fois de réfléchir le rayonnement solaire et d’émettre de la chaleur par radiation dans les parties froides de l’univers lointain. Du point de vue des propriétés physiques, un tel matériau doit donc avoir une haute réflectance et une excellente émissivité.

Comment l’effet de PDRC est-il possible ?

Au premier abord, il semble impossible de refroidir une surface exposée en plein soleil sans utiliser d’énergie. Les choses sont en réalité plus complexes : le soleil émet la majorité de son énergie dans les domaines de longueur d’onde du proche infrarouge et du visible. Les matériaux à effet PDRC sont donc conçus pour réfléchir ces longueurs d’onde ; jusqu’ici rien d’étonnant. La subtilité réside en fait dans la capacité du matériau à réémettre de l’énergie radiative dans une plage de longueurs d’onde qui n’est pas absorbée par l’atmosphère. En clair, cette énergie part dans l’espace lointain et ne contribue pas à l’effet de serre sur terre !

Une peinture blanche qui n’absorbe pas les UV

Bien que des matériaux réfrigérants passifs soient déjà commercialisés, ils sont en revanche onéreux, sensibles à la corrosion et non applicables sur des surfaces existantes. Les seuls revêtements facilement applicables qui existent sont des peintures blanches classiques dont la réflectance n’excède pas 85 %.

Pour améliorer les propriétés de ces peintures, l’équipe de chercheurs a donc eu l’idée de remplacer les pigments par des cavités remplies d’air et c’est une réussite : le bilan thermique du matériau affiche une perte de 100 W par mètre carré, soit une réduction de 6°C dans l’environnement aride de l’Arizona et 3°C dans l’atmosphère tropicale du Bangladesh.

Un matériau ayant la structure d’une éponge

Cette peinture a été synthétisée à partir d’eau, d’acétone ainsi que d’un polymère appelé poly(vinylidene fluoride-co-hexafluoropropene). Lors du séchage de la peinture, l’évaporation de l’acétone et de l’eau laisse derrière elle un film polymère criblé de poches d’air (cf. Figure 2). Ces petites cavités dont la taille varie de 200 nm à quelques micromètres ont la particularité de réfléchir plus de 96 % de la lumière du soleil incidente.

Figure 2 : le polymère constituant cette peinture possède plusieurs échelles de porosités, ce qui lui donne l’apparence d’une éponge. Source : J. MANDAL ET AL/SCIENCE 2018

Une solution polyvalente et économique

La solution proposée par cette équipe de chercheurs semble être idéale. En plus d’être économique et facile à appliquer, il semblerait qu’elle puisse également être colorée et utilisée sur toute surface qui peut être peinte. Concrètement, les applications vont bien plus loin que les façades et les toits des bâtiments : ce revêtement pourrait bientôt être appliqué sur tous types de véhicules comme les avions les voitures et même des engins spatiaux.

À la découverte des MXenes, de nouveaux matériaux 2D inspirés du graphène

Les matériaux 2D, une famille qui ne cesse de s’agrandir

Les matériaux 2D – ou matériaux bidimensionnels – sont en réalité des objets 3D d’une finesse extrême, limitée à une épaisseur atomique, ou à quelques atomes. Si le plus connu d’entre eux est le graphène, isolé en 2004 en détachant des feuilles de graphite extrafines, son application en électronique reste problématique, car il n’est pas semi-conducteur. Heureusement, d’autres matériaux ont depuis été synthétisés pour combler ce manque. C’est par exemple le cas du silicene, du germanène, du stanène ou encore du phosphorène. Mais là encore, des inconvénients subsistent : ces matériaux sont rarement stables ou s’oxydent rapidement.

La nouvelle catégorie des MXenes

Les MXenes sont produits à partir de matériaux ternaires, c’est-à-dire constitués de trois éléments de type carbures ou nitrures. Si leur composition n’est pas nouvelle en soi, les céramiques massives entrant dans cette catégorie, appelées phases MAX, ont la particularité de présenter une structure hexagonale et d’être ductiles. Ces céramiques s’appellent ainsi en raison de leur formulation Mn+1AXn où M est un métal de transition, A un élément de type aluminium ou silicium et X est du carbone ou de l’azote, avec n=1, 2 ou 3.

Les MXenes s’obtiennent généralement par exfoliation, c’est à dire en dissolvant la phase A dans de l’acide fluorhydrique. Ce procédé permet ainsi de passer d’un matériau massif à des nanofeuilles quasi bidimensionnelles. L’exemple le plus célèbre de MXene est Ti3C2, le premier nanocristal élaboré à l’université Drexel à partir de la MAX phase Ti3AlC2.

Mieux comprendre les MXenes

Les MXenes peuvent être utilisés pour la désalinisation de l’eau de mer, la capture de produits chimiques ou encore, la fabrication d’antennes. Mais pour passer au stade d’industrialisation, les propriétés de ces matériaux doivent être totalement maîtrisées. C’est ce que cherche à faire l’équipe de chercheurs du professeur Yury Gogotsi depuis leur découverte des MXenes en 2011. Car si à l’heure actuelle ils savent que les MXenes sont d’excellents conducteurs électriques, extrêmement résistants et capables de bloquer les interférences électromagnétiques, ils ne savent pas précisément pourquoi. Pour tenter d’en savoir plus, la dernière étude de l’Université de Drexel s’est donc concentrée sur la caractérisation de ces matériaux par Microscopie Electronique à Balayage (MEB) et par spectroscopie de perte d’énergie.

Selon les chercheurs, l’optimisation de ces nanomatériaux nécessite de contrôler “ce qui se passe entre les nanofeuilles”. En effet, comme les espèces atomiques qui subsistent après exfoliation varient en fonction du décapant utilisé et de la nature de la phase MAX, l’équipe de chercheurs supposait que cela influençait la conductivité. Les résultats obtenus pour 3 des principaux MXenes, sur les 30 produits par l’université de Drexel, ont ainsi confirmé leurs hypothèses.

 

Les MXenes en phase d’optimisation

L’optimisation des MXenes est donc en bonne voie. Il reste cependant à résoudre un problème important : améliorer la stabilité de ces matériaux dans des conditions atmosphériques, ce qui permettrait d’augmenter leur durée de vie.

Source.

Légende en Une de l’article : Cliché MEB de feuilles de MXenes, vue en coupe (Source : Université de Dexel)

L’assistant vocal de Simsoft Industry primé aux Global Industrie Awards

D’abord destiné à un usage personnel avec Siri d’Apple ou Alexa d’Amazon, les assistants vocaux font leur apparition dans l’industrie avec l’innovation de Simsoft Industry.

« Un assistant vocal sert à gagner du temps et à éviter les erreurs », explique Philippe Crespin, le co-fondateur et président de la jeune entreprise.

Équipés d’un casque et d’un micro, les techniciens interagissent avec l’assistant, via une tablette ou un PC, ou directement par la voix afin d’effectuer des opérations les mains libres. Cette technologie est principalement utilisée pour les tâches de maintenance et de fabrication dans des grands groupes industriels.

Selon le co-fondateur, l’innovation réside dans le système de dialogue en langage naturel : « Le système par mots-clés utilisé jusqu’à lors ne fonctionne pas car il est limité : si le technicien prononce un mot qui n’est pas connue par la machine, rien ne se passe. Avec cette innovation, le langage passe par des phrases, des expressions, des synonymes donc le dialogue paraît intelligent. »

La jeune entreprise, composée aujourd’hui de 25 employés, est également finaliste au Challenge Industrie du Futur organisé par Atos, SKF et ArianeGroup, pour lequel Techniques de l’Ingénieur est partenaire.

Le photovoltaïque de grande taille est compétitif en France, estime la CRE

L’analyse de la CRE a porté sur l’ensemble des coûts d’investissements et d’exploitation pour les projets déposés lors des appels d’offres de 2017 et 2018. Le régulateur du secteur énergétique y constate que les effets d’échelle observés sont importants et recommande notamment de faciliter l’émergence de projets de plus grande taille que 30 MW, jusqu’à 100 MW, « afin d’atteindre des prix encore plus compétitifs et de permettre à certains projets de ne plus recourir aux mécanismes de soutien public, comme on a commencé à l’observer dans les pays voisins. »

En effet, pour les grands parcs au sol, « les coûts des installations les plus compétitives sont aux environs de 48 €/MWh, taxe IFER ((impôt forfaitaire sur les entreprises de réseaux, ndlr) de 6 €/MWh incluse », se félicite le régulateur. Ainsi, la filière française « est parfaitement compétitive avec celles des pays comparables. » C’est particulièrement vrai avec le pays qui compte le plus de solaire en Europe, l’Allemagne, où les coûts de production sont compris entre 40 €/MWh et 70 €/MWh, selon le dernier rapport de l’Institut Fraunhofer, publié en mars 2018.

Recul des coûts d’investissement « et » d’exploitation

En outre, la CRE constate que « sur les trois dernières années seulement, les coûts d’investissement ont diminué d’en moyenne 32 %, cette dynamique étant largement due à la baisse du prix des modules photovoltaïques à l’échelle mondiale. Les coûts moyens d’investissement observés aujourd’hui se situent autour de 800 €/kWc (kilowatt-crête) pour les installations au sol et autour de 1 100 €/kWc pour les installations sur bâtiments et ombrières de parking. Les projets les moins chers, au sol et de grande taille, avoisinent désormais les 600 €/kWc. »

Le régulateur souligne qu’au-delà de cette baisse des coûts d’investissement, qui continuent de peser pour 80% du coût complet de production d’un parc solaire, « la professionnalisation des acteurs » a permis un recul des coûts d’exploitation, en moyenne de 27% sur les trois dernières années, pour tomber à 20 €/kWc sur la plupart des segments de ce marché des grands parcs.

Soutien continu

La CRE indique que la mise en place de nouveaux mécanismes de soutien, notamment les appels d’offres pluriannuels, combinés à la baisse des coûts, ont permis de donner de la visibilité à la filière. Les capacités raccordées annuellement, qui était de 0,5 GW à 1 GW sur 2010-2018, atteignent désormais 2 GW en moyenne à l’occasion de la vague d’appels d’offres CRE4 lancés l’an dernier. Néanmoins, la CRE tempère à l’aune de la 5ème période de l’appel d’offres « Centrale au sol de puissance comprise entre 500 kW et 30 MW », dit CRE5, dévoilé le 6 mars par le ministère de la Transition écologique et solidaire. La participation aux appels d’offres CR5 s’est réduite, notamment pour les familles d’installations sur bâtiments et ombrières. Et le prix moyen proposé par les développeurs lauréats est en effet de 62,7€/MWh pour l’ensemble des projets, soit une hausse de 3 % par rapport à la 4ème période en août dernier. Cela ne remet pas en cause la compétitivité de la filière et offre d’ailleurs un rééquilibrage territorial des projets, indique la CRE.

Le productible (le niveau espéré d’un parc en fonction de l’ensoleillement) d’une installation constitue un facteur déterminant dans la rentabilité d’un projet, insiste la CRE. Et les régions les plus ensoleillées du sud de la France constituent à ce titre des zones préférentielles pour l’implantation d’une installation. Ainsi, la CRE « constate que 68 % du volume déposé dans le cadre des appels d’offres de la vague « CRE4 » au sol et sur bâtiments concerne des projets situés dans les quatre régions du sud pour lesquelles le productible moyen observé est 17 % plus élevé que sur le reste du territoire ». Un avantage cependant compensé par un surcoût sur certains postes de dépenses, comme par exemple la location des terrains ou encore les coûts de raccordement, qui peuvent varier entre 50 et 279 €/kWc selon le type, la taille et l’emplacement (rural/urbain et selon les régions) de l’installation. En fixant, parmi les critères de notation, la valorisation du recours à des terrains dégradés, la CRE signale que les régions du nord relèvent la tête et ainsi « les taux de réussite moyens constatés par région sont relativement homogènes sur l’ensemble du territoire pour les premières périodes des appels d’offres en cours ». Et de conclure qu’étendre de 30 MW à 100 MW le périmètre des appels d’offres pour les projets portant sur ces terrains, comme la CRE « l’avait déjà appelé de ses vœux », permettrait de rééquilibrer les puissances installées entre les régions, tout en développant des projets moins coûteux et évitant les conflits d’intérêt.

20 finalistes pour le challenge Industrie du Futur

Plus de 200 participations ont été enregistrées, avec 47 nationalités représentées. Un succès, donc, pour cette deuxième édition qui s’ouvrait pour la première fois à l’international.

Les finalistes, par catégorie :
Cybersécurité :

  • Awen Collective (GBR) : Suite logicielle permettant de réduire les coûts des cyber menaces impactant les usines et les infrastructures nationales critiques.
  • QuantiCor Security (DEU) : Solution de cybersécurité pour l’IOT permettant de résister aux attaques d’ordinateur quantique.

Datascience :

  • GreenTropism (FRA) : Composants logiciels et algorithmes basés sur l’intelligence artificielle indépendants des capteurs pour analyser la composition et la qualité de la matière en temps réel.
  • Panga (FRA) : Building Network Operating System dédié à la gestion des bâtiments & infrastructures, basé sur une architecture en Edge & Swam Computing.
  • Mechanica AI (NL) : Exploitation des données industrielles pour améliorer l’efficacité de la production grâce au machine learning et à l’intelligence artificielle

Matériaux du futur :

  • Carbon Waters (FRA) : Dépôt de graphène pour améliorer la résistance à la corrosion, la régulation thermique ou la conductivité électrique.
  • NanoPrint (DEU) : Dépôts de couches nanométriques de molécules de matériaux conducteurs détectant et corrigeant les matériaux en surfaces.
  • SolCold (ISR) : Revêtement de nano matériau régulant naturellement la température sans apport d’énergie.

Procédés du futur :

  • Cevotec (DEU) : Solution de déposition automatique de fibres de composites en 3D sur des surfaces complexes.
  • Castor Technologies (ISR) : Outil d’aide à la décision pour la conception de pièces réalisées en impression 3D ou en usinages conventionnels.
  • EMSProto (FRA) : Plateforme web associée à une ligne de production pour le chiffrage et le prototypage rapide de cartes électroniques.
  • SES Imagotag (FRA) : Venant du monde du retail, l’affichage digital sur étiquette est utilisé pour la signalétique dynamique dans l’entrepôt & pour l’information au poste de travail.

L’écologie dans l’industrie :

  • Holipresse (FRA) : Holipresse est une machine modulaire permettant de fondre du plastique et de l’injecter dans des moules grâce à la force manuelle afin de fabriquer des objets en petites séries à partir de plastiques broyés (recyclage) ou en granulés.
  • ID-NRJ / Otonohm (FRA) : Une solution dédiée aux professionnels pour charger & alimenter les appareils électriques, intégrant les fonctions de charge et de convertisseur. Une batterie s’adaptant à la tension d’entrée ou/et de sortie, voulue plus légère et mobile.

L’humain au centre de l’usine :

  • Simsoft Industry (FRA) : Assistant vocal intelligent dédié à l’industrie, qui met en œuvre des technologies de synthèse et de reconnaissance vocale, de dialogue, d’intelligence artificielle, de rendu graphique 2D et 3D, de fouille de données .
  • KypSafe (FRA) : Une solution connectée et intelligente permettant de géolocaliser et prévenir, en temps réel, les techniciens dès qu’ils se trouvent dans une zone de danger potentiel ou non-autorisée..

L’usine connectée :

  • InBolt (FRA) : Module intelligent, à mettre sur chaque outil de serrage (clés, tournevis), capable de se repérer et de proposer automatiquement les consignes de serrage adaptées.
  • WH Monitoring (FRA) : Solution permettant de mesurer en 4D et d’interpréter les vibrations , pour la maintenance prédicitive, le design et l’opérabilité des structures.
  • CoreTigo (ISR) : Solution de communication sans fil sécurisée entre capteurs, actionneurs et unités de mesure, basée sur le protocole IO-Link Wireless.
  • Saagie (FRA) : Solution bout-en-bout qui orchestre des technologies Big Data pour automatiser le déploiement d’applications analytiques et d’IA à grande échelle.

Pour se préparer à la finale du 6 juin 2019, les 20 finalistes vont maintenant travailler avec des mentors, « experts–métiers » issus des entreprises ArianeGroup, Atos et SKF.

 

ENOVA 2019 : un salon au cœur de l’écosystème de l’innovation en région Nantaise

Enova Nantes sera la plateforme régionale de convergence des technologies de l’électronique, de la mesure, de la vision et de l’optique. Cet événement va fédérer les acteurs de l’industrie et de la recherche à l’affût de solutions innovantes pour leurs projets de développement. 170 exposants présenteront leurs produits, services et dernières innovations.

Des conférences, en accès libre, animées par des spécialistes et experts de la région enrichiront les échanges, avec des sujets tels que :

– “Smartworld” (IOT, 5G, intelligence artificielle embarquée…), organisée par CAP’TRONIC & WE NETWORK ;

– la mesure et les risques au cœur de l’aéronautique ;

– les enjeux de la métrologie dans l’agroalimentaire, organisée par le Collège français de métrologie.

– le CND & SHM, lors de la journée technique du mercredi 3 avril, organisée par PRECEND (accès payant).

Les participants pourront également bénéficier de rendez-vous d’affaires gratuits programmés sur les deux jours.

Recherche de solutions dans le cadre d’un projet ou veille technologique : ce salon a pour vocation de répondre aux problématiques de modernisation et d’innovation. Chercheurs, ingénieurs, techniciens, bureaux d’études, startups, pôles industriels et scientifiques sont donc attendus à la Cité des Congrès de Nantes.

 

Brexit et recherche scientifique : quel financement après la sortie de l’UE ?

Si la continuité des recherches entamées dans le cadre de la programmation européenne en matière de recherche scientifique Horizon 2020 n’est pas vraiment menacée par le Brexit, avec ou sans accord, la place des Britanniques dans le programme suivant (2021-2028) reste encore incertaine.

Jusqu’en 2020, la participation des Britanniques devrait se poursuivre à l’identique en cas de sortie avec accord moyennant une participation financière du Royaume-Uni pour 2019 et 2020. Sans accord, la participation se poursuivra mais pas les fonds que le gouvernement britannique a promis de compenser pour les projets déjà lancés. A ce sujet, Chris Skidmore, le ministre de la recherche et de l’enseignement supérieur, a d’ailleurs rappelé ce 5 mars que le gouvernement a mis en place un portail de déclaration des subventions pour pouvoir compenser le manque à gagner des fonds européens. Au 5 mars, 6700 des 8200 bénéficiaires basés au Royaume-Uni se seraient déjà enregistrés. Rappelons que l’’implication des Britanniques dans la recherche européenne est majeure*. Le Royaume-Uni compte ainsi 11 863 participations dans des projets de recherches européens et assume 3 771 rôles de coordination (plus que l’Espagne (2 614) ou l’Allemagne (2 380). En valeur, ces rôles de coordinations sont associés à des fonds de 2,75 milliards d’euros (devant l’Allemagne 2,55 Md€). Au total, Horizon 2020 représente un apport de plus de 5 Md d’euros dans la recherche britannique.

Création d’un fonds international britannique

Le ministre anglais a aussi annoncé que le gouvernement étudiait la possibilité de créer un fonds de recherche international qui serait donc ouvert aux Britanniques et aux ressortissants du monde entier. La faisabilité et les modalités de fonctionnement de ce fonds sont à l’étude jusqu’à cet été.

Ce fonds vise à pouvoir compenser à l’avenir les subsides européens auxquels le Royaume-Uni ne pourrait plus prétendre même en cas de Brexit avec accord tels que les subventions du Conseil européen de la recherche (European Research Council – ERC) ou les bourses Marie Sklodowska Curie qui sont pour l’instant strictement réservées à des membres de l’UE. Ces subventions représentent pour le Royaume-Uni plus d’un milliard d’euros par an. Cependant, des discussions ont lieu actuellement à Bruxelles pour élargir l’accès aux fonds européens de la recherche à d’autres pays que les pays associés ou candidats à l’entrée dans l’Union. Dans ce cas, le Royaume-Uni pourrait retrouver l’accès à certains fonds. Ainsi, si le Brexit change les règles, le plus difficile n’est pas forcément le changement mais bien l’incertitude autour des nouvelles règles à venir, qui empêche les différents acteurs d’anticiper ou de se projeter dans l’avenir.

Des partenariats pour ré-entrer dans l’UE

Pour rester éligibles à des financements en provenance de l’UE, les universités, laboratoires et centres de recherche britanniques doivent être présents légalement dans un pays membre de l’UE. Du coup, plusieurs alliances ont vu le jour ces derniers mois. Parmi elles, on peut citer l’université d’Oxford et quatre institutions berlinoises. Elle se base sur la mise à disposition de locaux, des échanges de personnels et des projets communs et la recherche de fonds privés permettant d’assoir la présence d’Oxford Allemagne pour ensuite pouvoir accéder aux fonds européens. L’investissement est estimé à 800 000 euros mais l’université espère générer plusieurs millions d’euros en projet et activités de recherche. D’autres partenariats de ce type sont en construction, principalement entre Britanniques et Allemands. L’université de Warwick, quant à elle, a choisi d’intégrer une alliance universitaire européenne (Eutopia) constituée par plusieurs entités du continent, notamment l’université Paris Seine (dont le campus international se développe essentiellement autour du pôle d’enseignement de Cergy-Pontoise). En réalité, nombre de ces partenariats préexistaient ou étaient en projet avant le Brexit. Celui-ci les a accélérés ou leur a fait prendre une forme légale plus approfondie et plus contractualisée.  Ainsi, si le Brexit affaiblit momentanément la recherche par les incertitudes qu’il a créées, il force aussi à plus d’intégration, plus d’échanges et de travaux collaboratifs étroits entre des structures britanniques et continentales – ce qui à terme pourrait aussi être bénéfique.

*Chiffres de la commission européenne

Brexit et Reach : les transferts de dossier s’organisent

A ce titre, les dossiers de certaines substances chimiques enregistrées outre-Manche doivent être transférés.  Les démarches à effectuer sont détaillées dans un document de l’Echa (en anglais). De plus, une note explicative de France Chimie* vient éclairer les enjeux et les démarches à effectuer selon les différentes situations qui peuvent se présenter.

Brexit avec ou sans accord

Si un Brexit sans accord venait à se produire, les enregistrements Reach basés au Royaume-Uni ne seront plus valables. Pour éviter une rupture d’approvisionnement, les entreprises doivent donc s’assurer, pour ces substances, soit d’avoir un autre fournisseur soit que le dossier sera bien transféré en UE. Une période de transition jusqu’au 31 décembre 2020 a été proposée mais n’est pas encore actée. L’Echa a dénombré près de 1200 substances qui ont été enregistrées uniquement par une entreprises britanniques (liste ici). Pour ces substances, pas d’autres fournisseurs possibles donc. Seul un transfert de dossier vers une entité légale ou un représentant exclusif basé dans l’UE des 27 est possible pour éviter une rupture d’approvisionnement. Ce transfert pourra uniquement se faire du 12 au 29 mars 2019 sur l’application Reach-IT via la « Brexit Windows ».

En route pour UK-Reach

Après la sortie, le Royaume-Uni convertira le règlement Reach en une loi britannique. Les mêmes exigences réglementaires devraient donc s’appliquer et il est probable que seules les importations à partir d’une tonne par an au sein du Royaume-Uni seront concernées par le système UK-Reach. Que la sortie se fasse avec ou sans accord, une période de transition de 2 ans est prévue pour soumettre les enregistrements selon UK-Reach s’ils existaient déjà dans EU-Reach.

Ainsi, une fois encore, la réglementation Reach va nécessiter une vigilance pour toutes les entreprises ; mais il ne faut pas que l’arbre cache la forêt : en matière de produits chimiques, le Brexit change aussi la donne pour d’autres réglementations, notamment le règlement PIC relatif à l’importation et l’exportation de produits chimiques dangereux ou encore le règlement sur les produits biocides.

France Chimie a organisé d’ailleurs plusieurs conférences d’information sur ces sujets et la prochaine, en ligne le 13 mars, sera consacrée à l’impact du Brexit sur les droits de douane et Reach.

*nouvelle identité de l’Union des Industries chimiques -UIC – depuis fin septembre 2018

Techniques de l’Ingénieur encourage l’innovation robotique avec Proxinnov

Jeudi 7 mars, Techniques de l’Ingénieur et Proxinnov, la plateforme spécialisée dans la robotique pour les PME et ETI, ont profité du Global Industrie à Lyon pour signer une convention sur la formation professionnelle en robotique industrielle.

« Ce partenariat a pour vocation de concentrer les ressources intellectuelles et techniques françaises liées à la robotique pour les mettre à disposition de tous les acteurs du secteur et ainsi promouvoir l’innovation robotique », explique Pierre Loonis, directeur de Proxinnov.

Ils s’allient également au centre technique du CTCPA, au centre de formation de l’APAVE et au syndicat professionnel du Symop, et laissent le partenariat ouvert aux acteurs du secteur qui voudraient en faire partie.

Grâce à son réseau de chercheurs et à ses éditions dans le domaine, Techniques de l’Ingénieur apportera les ressources nécessaires au développement et à la diffusion des connaissances dans le secteur. « T.I. a toujours été partenaire de l’innovation dans toute sa diversité. Il est important pour nous de mettre en valeur la robotique, un milieu autour duquel la France est en retard par rapport à l’Allemagne par exemple », explique le directeur général Yves Valentin.

Pierre Loonis a constaté que, même si de nombreux secteurs sont équipés en robotique, certaines entreprises n’osent pas se lancer faute de sensibilisation ou de connaissances. « La complexité technologique de la robotique freine les PME et ETI, tout comme le manque de temps pour l’intégrer aux méthodes de travail déjà existantes. La convention va permettre de faciliter la prise d’informations concernant la robotisation industrielle », explique le directeur de la plateforme.

Proxinnov étant un Digital Innovation Hub (DIH), c’est-à-dire membre d’un réseau dédié à la digitalisation de l’industrie à l’échelle européenne, le directeur voit aussi en ce partenariat une façon de porter les méthodes et les normes françaises à l’échelle européenne.

Le plan national de gestion des matières et déchets radioactifs en débat

Le Plan national de gestion des matières et des déchets radioactifs, dit « PNGMDR », résulte de l’application de la loi de programme du 28 juin 2006 relative à la gestion durable des matières et déchets radioactifs. Mis à jour tous les trois ans, le PNGMDR dresse le bilan des modes de gestion existants des matières et des déchets radioactifs, recense les besoins prévisibles d’installations d’entreposage ou de stockage, et précise les capacités nécessaires pour ces installations et les durées d’entreposage.

Son élaboration, qui a en réalité débuté dès 2003, se fait sous l’égide de l’ASN, l’Autorité de sûreté nucléaire. Mais, pour la première fois cette année, un débat public particulier (CPDP) va précéder l’élaboration du plan. Le premier débat public sur le PNGMDR avait été réalisé entre septembre 2005 et janvier 2006.

Cette planification distingue les matières radioactives des déchets nucléaires. Les premières concernent certaines substances radioactives mises en jeu dans le cycle du combustible nucléaire et qui sont considérées comme valorisables. C’est dans ce cadre qu’entrent clairement les combustibles usés sortis des réacteurs nucléaires. Ces matières nucléaires sont pour partie actuellement valorisées, puisque les combustibles usés issus d’un premier passage en réacteur sont retraités et transformés en MOX (oxyde mixte d’uranium et de plutonium), un combustible utilisé dans une bonne partie des réacteurs d’EDF de la série 900 MW. Si à ce jour le retraitement des combustibles MOX est envisagé, ils restent dans les piscines en attente d’un développement de nouveaux types de réacteurs.

« Ces substances radioactives ne sont donc pas considérées comme des déchets mais comme des matières radioactives au sens de l’article L. 542-1-1 du Code de l’environnement », précise l’ASN.

« Leurs modalités de gestion, leurs perspectives de valorisation, ainsi que l’examen des possibilités de stockage dans l’hypothèse où des changements de politique énergétique impliqueraient de les considérer comme des déchets sont traités dans le cadre du PNGMDR », indique l’Autorité de sûreté nucléaire. Ce sera d’ailleurs le cas dans le cadre du débat autour de ce cinquième PNGMDR.

« Concernant les déchets radioactifs qui ne disposent pas d’un mode de gestion définitif, le PNGMDR détermine les objectifs à atteindre », précise l’ASN. « À ce titre, Il organise la mise en œuvre des recherches et études sur la gestion des matières et des déchets radioactifs en fixant des échéances pour la mise en place de nouveaux modes de gestion, la création d’installations ou la modification des installations existantes de nature à répondre aux besoins et aux objectifs définis. »

Dans le cadre du cinquième PNGMDR, devrait également être sur la table la question de la valorisation possible des déchets dits de très faible activité (essentiellement des bétons et des ferrailles), dont le volume augmente et progressera d’autant plus que certains réacteurs vont devoir être arrêtés d’ici à 2025, comme l’a annoncé récemment le gouvernement, à l’aune de la programmation pluriannuelle de l’énergie (PPE).

Le débat portera également sur les déchets plus dangereux (dits à haute activité), mais qui sont les moins volumineux, ainsi que sur des sujets clés, comme la sûreté et la sécurité, ou l’économie de la gestion des déchets. En revanche, la CNDP précise que le débat ne sera pas le lieu de débattre des installations en projet ou en cours, comme par exemple le centre de gestion des déchets de haute et moyenne activité à vie longue (Cigéo, à Bure) ou de la création d’un nouveau site de stockage pour les combustibles usés, qui ont fait ou feront l’objet de débats publics particuliers. Néanmoins, le débat abordera des questions techniques comme l’entreposage à sec ou en piscine des combustibles usés.

Le débat, prévu du 17 avril au 25 septembre, respectera « une période de réserve, lors du déroulement de la campagne des élections européennes, du 26 avril au 26 mai, ainsi qu’une trêve estivale, du 12 juillet au 3 septembre », précise la CNDP.

Isabelle Harel-Dutirou a été chargée de présider la Commission particulière du débat public.

Fin mars, un site internet dédié (pngmdr.debatpublic.fr) sera mis en service pour recueillir les contributions et une première réunion publique aura lieu à Paris, à la maison de la Mutualité, le 17 avril 2019.

Parallèlement, la CPDP a mis sur pied un « groupe miroir » de 15 citoyens « recrutés dans les treize régions métropolitaines avec un effort de représentativité de la population française ». Il s’impliquera tout au long du débat, notamment lors des temps forts que seront « la sensibilisation et formation des citoyens aux enjeux du débat, l’approfondissement des connaissances et la rédaction collective de recommandations », indique la CPDP. Des jeunes seront impliqués dans le débat, via « l’atelier de la relève », qui va réunir des étudiants de diverses formations afin de disposer d’éclairages pluridisciplinaires. Cet « atelier de la relève » sera notamment en charge de donner un « avis sur l’amélioration de la gouvernance ».

La viande in vitro pourrait accentuer le réchauffement climatique

Cultiver et commercialiser de la (fausse) viande in vitro sera bénéfique pour la planète et favorisera la lutte contre le réchauffement climatique. En substance, ce sont les promesses faites par différentes start-up dans le monde, qui cherchent à cultiver un faux steak de bœuf in vitro. En théorie, une telle avancée technologique pourrait contribuer à répondre à la demande toujours grandissante en viande dans le monde. Si tant est que la question du coût ne soit pas prise en compte. Autre bienfait annoncé de la viande in vitro : grâce à elle, les émissions de méthane seraient considérablement réduites.

Cependant, une équipe de chercheurs de la Martin School d’Oxford au Royaume-Uni n’envisage pas tout à fait la culture de viande in vitro avec autant d’optimisme. Dans une étude publiée dans la revue Frontiers in sustainable food system, la dimension écologique sur le long terme de ce substitut carné est débattue. En cause : l’empreinte carbone d’un tel procédé. Afin d’établir ces hypothèses, les chercheurs ont fait des projections à 1 000 ans, dans lesquelles sont comparées différents scenarii au sujet de l’élevage bovin traditionnel et de la culture de steak in vitro.

Des émissions de CO2 à la longue plus néfastes que le CH4

Pour créer de la viande en laboratoire, des cellules prélevées sur une vache (vivante) sont mises en culture dans une boîte de Petri. Après deux à trois semaines de culture, les cellules souches nourries avec du blé ou du maïs se transforment en un sosie miniature de steak. À l’heure actuelle, cette pièce de viande 2.0 reste trop chère pour être commercialisée. L’entreprise israélienne Aleph Farms indique par exemple que son prototype de steak vaudrait environ 50 dollars. Une somme qui reste encore trop élevée pour une consommation de masse.

Autre promesse des fabricants : la culture de viande en laboratoire permettrait de réduire drastiquement les émissions de gaz à effets de serre. Une question primordiale à l’heure où 15 % des émissions mondiales sont liées à la production de viande, qui dégage beaucoup de méthane. La culture en laboratoire, elle, implique surtout des émissions de dioxyde de carbone. Or, le CH4 a un pouvoir de réchauffement global 25 fois plus puissant que le CO2.

Mais c’est justement cet aspect qui dérange les scientifiques d’Oxford. Selon leurs recherches, le dioxyde de carbone, même s’il est émis en moindre quantité que le méthane, serait à long terme plus néfaste pour l’environnement. « Par tonne émise, le méthane a un impact beaucoup plus important sur le réchauffement climatique que le dioxyde de carbone », explique Raymond Pierrehumbert, professeur en physique à l’université d’Oxford. « Cependant, il ne reste dans l’atmosphère que pendant environ douze ans, lorsque le CO2 persiste et s’accumule pendant des millénaires » ajoute-il.

Le steak in vitro, un véritable défi énergétique

Dans ce contexte, il est clair que le défi du steak in vitro est indissociable du développement des énergies renouvelables. C’est ce qu’expliquait John Lynch, auteur principal de l’étude, à la BBC. « L’impact sur le climat de la production de viande dépendra du niveau de production d’énergie durable pouvant être atteint, ainsi que de l’efficacité des processus de culture futurs. Si la viande en laboratoire nécessite beaucoup trop d’énergie, elle pourrait devenir pire pour le climat que le sont les vaches », déclare-t-il.

Les deux chercheurs expliquent également qu’ils ne considèrent pas, en l’état actuel des projets, la viande cultivée comme meilleure que la viande traditionnelle. Tout dépendra du niveau d’énergie décarbonée qui sera utilisée pour la production de cette fausse viande de laboratoire. L’hypothèse de l’équipe d’Oxford n’est pas nouvelle. En 2015 déjà des chercheurs déclaraient dans la revue Environnement Science & Technology que « fabriquer de la viande in vitro demande plus d’énergie industrielle – souvent produite avec des combustibles fossiles – que le porc, la volaille, et peut-être même le bœuf ».

Flexibilité et 5G, maîtres-mots de l’édition 2019 du Mobile World Congress

Deux thématiques fortes ont marqué l’édition 2019 du Mobile World Congress, qui a fermé ses portes le 28 février dernier à Barcelone : la 5G et l’écran flexible. La cinquième génération de téléphonie mobile faisait en effet partie intégrante de prototypes de smartphones et de plusieurs modèles prêts à la commercialisation. Ces derniers venaient de la part des principaux fabricants mondiaux, dont Samsung (Galaxy S10 5G), Huawei (Mate X) ou encore Xiaomi (Mi Mix3 5G). Le taïwanais HTC se distinguait avec la présentation d’un routeur, le 5G Hub, à destination des particuliers ou des entreprises. Grâce à son débit maximum de 20 Gbits/s, très théorique il est vrai, la 5G pourrait menacer le Wifi et amener le très haut débit jusqu’aux foyers hors d’atteinte de la fibre.

Pour ce qui concerne les cas d’usage de la 5G, l’entreprise française Shadow, spécialisée dans le «cloud gaming» (jeu vidéo qui s’exécute dans le cloud), cherchait à démontrer les bénéfices de la très faible latence des communications, de l’ordre de la milliseconde. Il était possible de jouer à un jeu PC sur un smartphone Android, de marque Oppo ou OnePlus en l’occurrence, et de constater que les actions du joueur étaient reproduites à l’écran de façon quasi-instantanée. Même si l’expérimentation était à prendre avec du recul, étant données les conditions idéales de l’installation, l’objectif était de montrer de nouvelles applications s’appuyant sur les performances de la 5G.

La 5G freinée par l’affaire Huawei

Faut-il rappeler cependant que la 5G n’est pas encore une réalité. A l’instar du Snapdragon 855 de Qualcomm et son modem X50 associé, les nouveaux jeux de composants qui équipent les terminaux sont loin de tirer tout le potentiel de la 5G. Et quand bien même ils le feraient, les réseaux commerciaux commencent à peine à être déployés par les opérateurs, en Corée du Sud notamment. En France, les débuts de la 5G sont prévus l’an prochain, selon la feuille de route du gouvernement. Au 1er mars, l’Agence nationale des fréquences (ANFR) comptabilisait 78 stations 5G expérimentales sur le territoire. Mais l’affaire Huawei pourrait entraver le processus, l’industriel chinois (le plus gros fournisseur mondial d’équipements réseaux telecom) étant soupçonné d’espionnage par les autorités européennes et nord-américaines.

L’écran flexible constituait l’autre vedette du salon. De plus en plus utilisés dans les smartphones, les écrans Oled peuvent être déposés sur des substrats plastiques souples, propriété désormais exploitée par plusieurs fabricants. Royole, marque chinoise, avait devancé la concurrence en présentant le FlexPai, en novembre dernier puis à nouveau au MWC : un smartphone qui, une fois l’écran déplié, prend la forme d’une tablette de 7,8 pouces. Le Mate X de Huawei reprend cet aspect mi-smartphone (6,6 pouces) mi-tablette (8 pouces), l’écran flexible s’articulant autour d’une charnière. Samsung a fait le choix d’une autre design pour le Galaxy Fold, qui combine un double écran : le premier de 4,6 pouces sur la coque externe en position fermée, le second de 7,3 pouces qui apparaît une fois le téléphone ouvert.

Ces mêmes fabricants devront toutefois prouver l’utilité de ce nouveau concept, qui se révèle très onéreux (plus de 2000 € pour le Mate X et le Fold, qui devraient être commercialisés ces prochains mois). Le multitâche est une piste explorée par Samsung, le Fold permettant une fois déplié de répartir l’affichage entre trois applications. Mais il en faudra davantage pour convaincre. Par ailleurs, on s’interroge sur la solidité et l’étanchéité du film plastique recouvrant l’écran Oled. C’est habituellement du verre, étanche aux gaz, qui protège les composés organiques de l’Oled, sensibles à l’oxydation. Ce matériau n’est pas naturellement souple, mais le Willow Glass, invention de la société Corning, n’a pas cet inconvénient. Quoi qu’il en soit, l’industrie du smartphone, confrontée à un fléchissement des ventes (-4% en 2018 selon IDC), espère que ces innovations relanceront la croissance du marché… ce qui n’arrivera probablement pas en 2019.

 

Les cinq innovations à retenir

 

Huawei Mate x

Attendu au second semestre 2019 au prix astronomique de 2299 €, le Mate X, par ailleurs compatible 5G, passe d’une configuration smartphone de 6,8 pouces à une configuration tablette de 8 pouces en un tournemain. Les utilisateurs se plieront-ils à ce concept ?

 

Microsoft Hololens 2

La deuxième version du casque de réalité augmentée Hololens bénéficie d’un champ de vision doublé et se révèle plus léger et plus confortable. Microsoft espère que sa clientèle industrielle le verra d’un meilleur œil.

 

Nokia 9 Pureview

Cinq capteurs photo (deux en couleur, trois en noir en blanc) qui produisent après traitement une image finale de 12 millions de pixels : le Nokia 9 Pureview promet des gains de contraste et de sensibilité à la lumière.

Sony Xperia 1

Disponible au printemps à 999 €, le Xperia 1 est gratifié d’un écran Oled HDR de 6,5 pouces en ultra haute définition. Ou presque (3840×1644 pixels) en raison de son format 21/9. Sony insiste sur la qualité d’image, pour séduire photographes et vidéastes.

 

HTC Hub

Muni d’un écran tactile de 5 pouces, ce routeur, signé HTC, prend en charge la 5G, le Wifi et dispose également d’un port Ethernet. Il est à vocation fixe ou nomade, grâce à l’appoint d’une batterie de 7660 mAh, et gère jusqu’à 20 connexions simultanées.

Vers des fermes de plus en plus efficaces en énergie

L’agriculture représente 3 % de la consommation d’énergie finale française. Toutefois, les dépenses énergétiques d’une exploitation s’élèvent en moyenne à 13 000 euros HT chaque année. Une charge importante pour les agriculteurs et les éleveurs, liée avant tout au machinisme agricole ainsi qu’au chauffage des serres et des bâtiments d’élevage. Sur ces deux postes, les énergies fossiles demeurent largement majoritaires.

L’ADEME reconnaît les nombreux progrès réalisés ces dernières années, notamment « la récupération de chaleur sur les appareils de refroidissement ou le stockage d’eau chaude dans les serres ». L’agence identifie 43 solutions pour aller encore plus loin dans les champs, dans les serres et dans les bâtiments d’élevage. Citons pêle-mêle : pompes à chaleur, ventilateurs économes, goutte à goutte, réduction du travail du sol, remplacement des engrais azotés par des légumineuses, etc.

Des solutions à déployer dans toutes les exploitations agricoles

En déployant largement ces solutions techniques, l’ADEME envisage une baisse de la consommation énergétique en agriculture de 26 % d’ici 2050. En modifiant les pratiques agricoles et notamment en simplifiant le travail du sol, l’agence voit même une baisse de 43 %. En labourant moins, on consomme tout simplement moins de carburant.

Les équipements plus performants peuvent déjà être acquis dans le cadre du dispositif des certificats d’économie d’énergie (CEE). En plus de ces aides, l’ADEME insiste sur l’importance de multiplier les démarches collectives territoriales. « Les groupes existants ou à créer tels que les GIEE (Groupement d’Intérêt Economique et Environnemental), les CUMA (Coopérative d’Utilisation de Matériel Agricole), les CETA (Centre d’Etudes Techniques Agricoles), les groupements de producteurs et notamment les coopératives agricoles qui s’impliquent dans des démarches de progrès sur l’énergie auront un rôle essentiel à jouer », prévient l’ADEME.

Blockchain : entre buzz word et réalité

Publiée par FUTURS.IO, l’agence de communication du groupe Maltem dédiée aux technologies et aux usages innovants (Blockchain, AI, Data Science, IoT), une étude récente indique que la blockchain est principalement déployée dans deux secteurs d’activité : la fintech et l’e-santé. Cela confirme une tendance mondiale.

Un rapport publié par Accenture et McLagan en 2017 indiquait qu’environ huit des dix plus grandes banques d’investissement du monde avaient prévu de développer des projets reposant sur la blockchain (lutte contre le blanchiment d’argent et contre la fraude, réduction des coûts…).

Scandales alimentaires

Les principales difficultés actuelles, en particulier dans les paiements transfrontaliers et le financement du commerce, peuvent être résolues par cette technologie qui réduit le nombre d’intermédiaires nécessaires et qui est géographiquement « agnostique ».

Concernant l’e-santé, le déploiement d’une blockchain n’a pas pour objectif de sécuriser les données, mais leur accès tout en respectant l’anonymat des patients. Elle permettrait aussi de s’attaquer aux contrefaçons de médicaments. Selon l’Organisation mondiale de la Santé, les faux médicaments sont à l’origine de 700 000 décès par an.

La blockchain pourrait-elle aussi empêcher la répétition des scandales alimentaires ? Scandale de la viande de cheval en 2013, viande de bœuf avariée, lait infantile contaminé aux salmonelles… Autant d’affaires qui pourraient ne plus faire la une des médias s’il y avait une meilleure traçabilité ? Rien n’est moins sûr.

Les informations qui seraient « déclarées » dans la Blockchain système peuvent être faussées… Vitalik Buterin lui-même, fondateur d’Ethereum (regroupant un réseau opérateur, un registre des transactions et une cybermonnaie dénommée l’Ether), a rappelé que les « Blockchain ne fournissent certainement pas des garanties à 100 %, surtout dans le monde réel. »

Vidéos truquées

Malgré tout, la Blockchain peut être utile pour repérer les « deepfake ». Il s’agit de vidéos trafiquées, car générées par des algorithmes d’intelligence artificielle. Développé par Shamir Allibhai, un spécialiste de la technologie vidéo, Amber Authenticate est un programme capable d’authentifier un contenu dès la prise de vue.

À intervalles réguliers, déterminés par l’utilisateur, la plate-forme génère des « hachages » – des représentations cryptographiques brouillées des données – qui sont ensuite enregistrées de manière indélébile sur la blockchain Ethereum.

Lorsque vous exécutez à nouveau ce même extrait de séquence vidéo dans l’algorithme, les hachages seront différents si quelque chose a changé dans les données audio ou vidéo du fichier, ce qui peut laisser penser à une manipulation possible.

Ne pas faire confiance à la blockchain !

La blockchain est une technologie prometteuse. Elle peut en particulier résoudre des problèmes de confiance dans l’économie numérique. Mais sa légitimité peut être ternie par une mauvaise gestion au niveau des plates-formes.

Différents spécialistes ont commencé à signer la fin de la récré : il est urgent de ne plus être ébloui béatement par la blockchain. Ainsi Bruce Schneier, un expert en sécurité informatique reconnu mondialement, a rappelé qu’il fallait arrêter de croire aux déclarations du genre « in crypto we trust » ou « in math we trust ». La réalité est que les blockchains, comme tout mécanisme, sont porteurs de failles exploitables.

Toyota pourrait quitter le Royaume-Uni en cas de Brexit sans accord (média)

« Si l’environnement des affaires devient très très difficile », un retrait « doit figurer aussi parmi les options », a déclaré Johan Van Zyl, en marge du salon de l’automobile de Genève, selon les propos rapportés par le quotidien économique japonais Nikkei.

D’après la même source, M. Van Zyl a également évoqué d’autres possibilités, dont la réduction de la production ou des investissements.

Une porte-parole de Toyota à Tokyo a confirmé auprès de l’AFP la teneur de l’échange de M. Van Zyl avec les journalistes, précisant qu’il s’agissait de « propos généraux » en réponse à une question sur la possibilité de quitter le sol britannique.

« Un Brexit dur n’est pas souhaitable », a ajouté M. Van Zyl.

Toyota emploie plus de 3.000 salariés dans ses deux usines en Grande-Bretagne, dont une fabrique de moteurs au pays de Galles.

Le mois dernier, son compatriote et concurrent Honda a annoncé l’abandon de la production en terre britannique via la fermeture de son usine de Swindon en 2021.

Ce site, le seul en Europe du géant nippon, est le principal employeur de la ville du sud-ouest de l’Angleterre, avec 3.500 salariés.

A moins d’un mois de la date officielle du Brexit, les discussions entre négociateurs britanniques et européens n’ont toujours pas permis de sortir de l’impasse, augmentant le risque d’un nouveau rejet de l’accord de divorce par les députés britanniques.

Cet échec renforce aussi le spectre d’une sortie brutale de l’UE le 29 mars avec toutes ses conséquences dommageables pour l’économie.

« Tous droits de reproduction et de représentation réservés. © 2019 Agence France-Presse. »

La réalité virtuelle au service de la formation

La réalité virtuelle est une technologie qui présente de nombreux avantages pour la formation professionnelle : possibilité de simuler l’activité sans danger réel, flexibilité dans la présentation de l’information, ou encore contrôle précis des paramètres de la simulation permettant de reproduire des situations particulières. Elle permet ainsi la conception d’environnements virtuels pertinents et efficaces pour l’apprentissage humain. Mais pour qu’elle soit efficace, il est important de réfléchir à son utilisation pédagogique.

Apports de la simulation

Les simulateurs informatiques ont constitué historiquement les premières applications des technologies informatiques qui ont donné naissance aux environnements virtuels d’apprentissage. L’une des principales valeurs ajoutées communes à ces systèmes réside dans la possibilité de changer les contextes de pratique pour l’apprentissage et d’engendrer des évènements, comme des perturbations externes, des dysfonctionnements ou des pannes. Les variables de situation sont contrôlées par les instructeurs. Les simulations sont, à ce titre, bien plus flexibles que les situations réelles.

Les simulateurs de vol pleine-échelle, qui utilisent de vrais cockpits, répondent à l’objectif de placer l’apprenant dans une situation proche du vol réel. Le simulateur est alors supposé réagir comme le système réel qu’il figure, de façon à procurer à l’apprenant certains aspects de l’expérience qu’il pourrait tirer de ses actions dans la situation réelle.

L’utilisation de tels systèmes pour la formation permet d’accomplir diverses manipulations :

  • mise en situation quand la réalité ne le permet pas, parce qu’elle est difficilement accessible (par exemple, espace, terrain ennemi), trop coûteuse (par exemple, avion), trop dangereuse (par exemple, site à haut risque), ou parce qu’elle n’existe pas encore (par exemple, avion, usine, plate-forme off-shore en construction) ;
  • simulation de conditions rares(par exemple, incidents techniques, accidents), sans danger pour soi et autrui (par exemple, opérations médicales, explosion) sans gravité pour les matériels (par exemple, détérioration des matériels) ;
  • contrôle précis de certains paramètres de la situation, les faire varier, les modifier (par exemple, terrains, conditions climatiques, dysfonctionnements).

Avantages spécifiques à la réalité virtuelle

Plus spécifiquement par rapport à d’autres médias informatiques, la réalité virtuelle permet d’engager le corps dans la simulation, d’augmenter la motivation des apprenants grâce à l’utilisation de dispositifs innovants, de présenter des informations en trois dimensions, de former au geste, d’immerger les apprenants dans un environnement à l’échelle 1, etc.

La réalité virtuelle permet, en plus, de faciliter les apprentissages en permettant l’enrichissement ou l’augmentation de la réalité. Ainsi, des informations peuvent compléter celles qui seraient normalement perçues par l’apprenant en réel.

Par exemple, il est possible de proposer :

  • augmentation de la réalité en informations sensorielles : les capacités perceptives de l’utilisateur sont augmentées. Il peut, dès lors, voir au travers des objets, voir ce qui est caché, voir dans l’obscurité, changer d’échelle temporelle ou spatiale, bref, percevoir ce qui n’est normalement pas accessible à ses organes des sens (ultrasons, radiations). Il acquiert des capacités supranaturelles. Sa perception du monde n’est plus limitée de la même façon par ses sens. Cette approche peut aider un apprenant à se créer des représentations mentales de phénomènes naturels ;
  • réification : la réification est un processus par lequel des données abstraites telles que des équations mathématiques sont matérialisées par des figures concrètes ;
  • enrichissement métaphorique de la réalité : afin de supprimer toute ambiguïté et de rendre les données plus explicites, des figures, diagrammes, flèches ou autres signes peuvent être surajoutés afin de faciliter la compréhension des phénomènes qui sont montrés. Ces approches plus structurées peuvent faciliter le passage de la représentation mentale au modèle mental ;
  • enrichissement conceptuel de la réalité : des données plus abstraites, des règles, des noms, des concepts peuvent venir enrichir l’environnement virtuel. Cette démarche conceptuelle contribue à la constitution d’une culture commune entre les participants et à l’acquisition de connaissances.
Création d’une nouvelle formation en réalité virtuelle au sein de l’Institut d’Informatique Appliquée (IIA) de Laval (France)

Aujourd’hui, la grande tendance est de peupler les environnements virtuels de personnages virtuels autonomes, aussi appelés « personnages non-joueurs » dans les jeux vidéo (PNJ) pour permettre des apprentissages collaboratifs.

Facteurs de motivation : l’apport des serious game

À la fin des années 1990, on supposait que le simple fait d’utiliser la réalité virtuelle allait motiver les apprenants, et suffire à augmenter leur engagement dans leurs apprentissages. En effet, son utilisation apportait de l’inédit aux formations et l’attrait pour les nouvelles technologies suscitait un fort intérêt. Malheureusement, la technologie était encore récente et limitée. On passait encore plus de temps à apprendre à se servir des interfaces, qu’à apprendre les véritables objectifs de formation. La réalité virtuelle a fait du chemin depuis, et des verrous technologiques forts ont été levés pour qu’elle soit facilement utilisable.

Aujourd’hui, les films d’animations et les jeux vidéo avec des images de synthèses précalculées sont arrivés à un tel degré de fidélité esthétique que les concepteurs d’environnements virtuels pour l’apprentissage humain, avec des contraintes temps réel et économiques, proposent des environnements qui peuvent paraître désuets et peu motivants, au simple regard de l’utilisation de la technologie .

Jusqu’à récemment, les jeux électroniques étaient associés à de nombreux clichés, et étaient réputés avoir un impact négatif sur les capacités mentales et physiques des joueurs. Cependant, des études ont montré que, même si leur utilisation irraisonnable pouvait avoir des effets négatifs, comme toute autre activité pratiquée à l’excès, la mise en place de bonnes habitudes (par exemple, temps de jeu et environnement approprié, etc.) pouvait transformer ces jeux en une activité sûre et épanouissante. Par la suite, le mouvement des jeux sérieux serious games  est apparu, dans le but d’utiliser les nouvelles technologies de jeux pour la formation et l’éducation.

Néanmoins, la fidélité esthétique n’est pas gage d’efficacité pédagogique. Comme l’importance de la réflexion sur les situations didactiques, la notion de scénario est importante. Comme pour un film, l’esthétique visuelle n’est pas le plus important si le scénario n’est pas à la hauteur.

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 5 avril 2019 !

Réalité virtuelle et formation, un article de Domitile LOURDEAUX

L’empreinte carbone et énergétique de l’alimentation décortiquée

Selon une nouvelle étude de l’ADEME et d’autres organismes de recherche, les émissions de gaz à effet de serre dues à l’alimentation des Français s’élèvent à 163 millions de tonnes de CO2 équivalent. Soit environ un quart de l’empreinte carbone d’un ménage. C’est la phase de production agricole qui est la plus émettrice (67 %), suivie du transport de marchandises (19 %). Les phases de transformation (6 %), de distribution et de restauration (5 %), ainsi que de consommation (5 %), ont une empreinte carbone beaucoup plus nuancée.

La consommation globale d’énergie liée à l’alimentation s’élève à 367 térawattheures, soit 23 % de l’énergie finale consommée par les Français. L’empreinte énergétique est mieux répartie sur l’ensemble de la chaîne agro-alimentaire, de la production à la consommation. L’agriculture compte pour 27 % de cette empreinte, le transport pour 31 % (dont 9 % pour les déplacements des ménages aux magasins), la transformation pour 16 %, la distribution pour 13 % et la consommation à domicile pour 14 %.

Favoriser l’agroécologie pour réduire les émissions

La surface agricole utile française couvre environ 29 millions d’hectares, soit 54 % du territoire national. Pour satisfaire l’ensemble de la demande française, 26 millions d’hectares sont nécessaires en France et dans le monde, dont 80 % pour les produits animaux (viande et lait). Les pratiques agricoles liées à ces surfaces cultivées et à ces prairies, ainsi que les types d’élevage, vont déterminer la quantité de gaz à effet de serre émis. Par exemple, le méthane lié à l’élevage représente 44 % des émissions de carbone liée à la production agricole. Le protoxyde d’azote lié à l’utilisation des engrais azotés compte pour 34 % de ces émissions.

Il est toutefois difficile de contrôler ces émissions. « La maîtrise est complexe car elles proviennent de processus naturels directement liés au système de production », analyse l’ADEME. Les pratiques agroécologiques permettent d’augmenter les stocks de carbone et de réduire l’empreinte énergétique. Elles passent par exemple par la valorisation des engrais organiques, la méthanisation des déjections, la bonne gestion des prairies, la réintroduction de couverts végétaux, de haies et le développement de l’agroforesterie.

Mieux penser son assiette

Pour réduire son empreinte carbone et énergétique liée à l’alimentation, l’ADEME recommande aux Français de privilégier les produits locaux et de saison. Une empreinte réduite passe par le fait de favoriser les légumineuses, les céréales, les fruits et légumes. En échange, il faut diminuer la viande, les produits transformés, les boissons sucrées et l’alcool. Enfin, une meilleure alimentation passe par le fait de favoriser l’eau du robinet et de diminuer le gaspillage alimentaire. L’ADEME crée ainsi un panier responsable pour une famille de 4 personnes émettant 68 kg de CO2 équivalent par semaine, contre 109 kg de CO2 équivalent pour un panier standard. Et ce, pour le même prix de 189 euros.

Des super héros pour assembler des avions

Les travailleurs du futur vont-ils ressembler à des super-héros ? S’ils ne connaîtront certainement pas la même gloire, ils pourraient cependant presque soulever des montagnes!

En revêtant un exosquelette, comme celui porté par Iron Man, ils pourraient passer leurs journées à soulever des matériaux et à tenir des outils dans des positions jusqu’à présent inconfortables. Le tout sans les contraintes physiques associées.

Récemment, Boeing a entrepris d’équiper ses mécaniciens d’exosquelettes. « On a les capacités d’un robot et les capacités d’un être humain mises ensemble », a expliqué à Reuters Christopher Reid, qui a conçu des combinaisons spatiales pour la NASA avant de travailler pour Boeing.

7 000 dollars, la combinaison

Ces machines pèsent généralement entre 15 et 20 kg, sont dotées de deux à six moteurs et disposent d’une autonomie de quatre heures environ.

Le coût de ces combinaisons exosquelette varie entre 4500 et 7000 dollars par pièce. Malgré ces tarifs élevés, l’avionneur a décidé d’investir dans ces équipements afin d’accroître la rapidité et l’efficacité à long terme de ses mécaniciens en Caroline du Sud.

Avant l’intégration de ces combinaisons, Boeing a également installé un échafaudage auto-propulsé. Construit sur mesure, il embrasse la cellule de l’avion et la soulève sur la chaîne de montage afin que les mécaniciens puissent travailler avec moins de contraintes.

Dans ses usines de Dreamliner, en Caroline du Sud et dans l’État de Washington, le géant américain compte également installer des machines équipées de la technologie Bluetooth. Cette installation permettra de vérifier que le technicien utilise le bon outil pour la bonne pièce. Quant aux postes de travail des ingénieurs, ils comprennent des ordinateurs, une imprimante 3D et un système de réalité virtuelle.

Tous ces investissements doivent permettre à l’avionneur de porter à 14 la cadence mensuelle de production du Dreamliner, contre 12 actuellement.

D’autres industries s’apprêtent à utiliser, ou intègrent déjà, des combinaisons exosquelette. En France, l’usine de Flins, du groupe Renault, procède à des tests. Les combinaisons permettent à une opératrice sur une ligne de fabrication de porter une charge de 15 kg (un pot catalytique) sans effort.

Le WWF veut mettre fin à la pollution plastique d’ici 2030

« D’ici 2030, la production mondiale de déchets plastiques pourrait augmenter de 41 % et la quantité accumulée dans l’océan pourrait doubler et atteindre 300 millions de tonnes », assure le WWF dans son nouveau rapport « Pollution plastique : à qui la faute ? ». Les émissions de CO2 résultant du cycle de vie du plastique devraient augmenter de 50 % tandis que celles issues de l’incinération de plastiques devraient tripler d’ici 2030. La consommation de plastique augmente ainsi beaucoup plus vite que les infrastructures pour traiter ses déchets.

À qui la faute ?

La pollution plastique dans l’environnement est due à un manque de responsabilité sur l’ensemble de vie du plastique. En résumé, les acteurs qui tirent profit de la production et de l’utilisation de ce matériau ne supportent pas le coût de la pollution engendrée par les déchets plastiques dans l’environnement. « Il est plus rentable de rejeter leurs déchets dans la nature que de gérer efficacement le plastique jusqu’à la fin de sa vie », dénonce le WWF.

Voici pour le tableau noir. Alors, comment fait-on pour éviter ce funeste destin ? Le WWF fait appel à tous les gouvernements, toutes les entreprises et industries impliquées dans la production, la promotion et la vente de produits en plastique, à la société civile et au grand public.

Mettre fin à la pollution ?

Pour mettre fin à la pollution, le WWF dresse une longue liste de propositions. En particulier, il appelle les gouvernements à signer un traité international juridiquement contraignant pour mettre fin à la pollution plastique des océans. Ce traité se déclinerait sous la forme d’objectifs nationaux pour favoriser la réduction, le réemploi et le recyclage du plastique. Il permettrait aussi de créer un mécanisme mondial de responsabilité élargie des producteurs dans tous les secteurs producteurs de plastique pour répartir les responsabilités de manière appropriée tout au long du cycle de vie du matériau. Cela permettrait d’investir dans des systèmes de gestion des déchets efficaces, notamment pour développer le recyclage, diminuer l’incinération et la mise en décharge.

Pour stopper totalement les pollutions, des solutions existent déjà et doivent être renforcées. Citons l’interdiction du plastique à usage unique, le soutien au réemploi, l’élimination des additifs toxiques qui freinent le recyclage ou encore la recherche d’alternatives durables. Voter des lois, c’est bien, mais les faire respecter, c’est encore mieux. Il faudra que les gouvernements se dotent de moyens de contrôle suffisants pour vérifier le respect des nouvelles réglementations par l’industrie du plastique.

Les entreprises pourraient de leur côté réduire le plastique excessif et inutile et s’engager à mettre sur le marché des produits recyclables, intégrer des matières recyclées et favoriser les alternatives compostables. Les citoyens ont aussi un rôle important à jouer et peuvent commencer par signer la pétition du WWF. « La pollution plastique a été créée en une génération. Si chacun prend ses responsabilités, elle peut également être résolue en une génération ! », estime Isabelle Autissier, présidente du WWF France.

Par Matthieu Combe, journaliste et auteur de Survivre au péril plastique, à paraître le 21 mars

Les enzymes au secours du recyclage des emballages multicouches

« L’objectif du projet est de cibler une partie bien particulière des emballages, celle des multicouches qui représente environ 10 % des emballages européens », explique Alexis Beakou, directeur-adjoint de l’école d’ingénieurs SIGMA Clermont et participant aux recherches du projet Terminus. Les emballages multicouches présentent plusieurs couches de films plastiques de familles différentes collées les unes aux autres. À ce jour, ils posent problème, car ils ne sont pas recyclés, faute de technologie performante pour décoller les différentes couches.

Des enzymes d’origine animale et des adhésifs biodégradables

Des études préliminaires ont montré l’intérêt de la dégradation enzymatique pour séparer ces différentes couches. Le projet Terminus, coordonné par Sigma Clermont, cherche donc à inclure des enzymes, protéines produites par des cellules vivantes, dans les adhésifs apposés entre les différentes couches composant ces types de matériaux. Dans le cadre de ce projet, l’Université de Bologne est en charge d’étudier et de sélectionner les enzymes les plus performantes, et les adhésifs compatibles. « Le projet s’intéresse avant tout aux enzymes d’origine animale et aux adhésifs biodégradables », précise Alexis Beakou. Des industriels prennent part au projet, notamment le géant Tetra Pak et le groupe allemand de chimie des matériaux Covestro.

Le procédé envisagé repose sur une dégradation enzymatique en solution aqueuse qui sera déclenchée par le biais de rayons ultra-violets. L’objectif est de permettre la séparation des différentes couches de façon à obtenir des films plastiques constitués d’un seul type de polymère. « Nous allons étudier la qualité de ces films afin de voir s’ils sont de qualité suffisante pour être directement réutilisés ou s’il faut trouver d’autres formes de valorisation, explique Alexis Beakou.Nous travaillons pour concevoir un prototype de 50 litres qui sera, nous espérons, fonctionnel d’ici 2 ans ».

 Les aspects sanitaires largement étudiés

 Un plastique recyclable c’est bien, un plastique sans impact sanitaire c’est encore mieux ! Le projet s’attachera donc à mener une analyse du cycle de vie complète du matériau retenu. Il qualifiera le contact alimentaire et entreprendra une étude de migration sur les enzymes. Par ailleurs, « il y aura une phase de protection de ces enzymes, car nous redoutons qu’elles se dégradent lors du laminage multicouches, assure Alexis Beakou. C’est uniquement en solution aqueuse que les enzymes seront libérées de leur dispositif de protection et pourront dégrader l’adhésif ».

Alternatives aux pesticides : place aux odeurs !

Les solutions de biocontrôle des nuisibles via des médiateurs chimiques ont été mis en avant à l’occasion du salon international de l’agriculture (SIA) lors d’une conférence de presse où Emmanuelle Jacquin-Joly, directrice de recherche à l’Inra, a présenté les différents aspects des recherches sur les médiateurs chimiques et lors du pitch des start-up, vendredi 1er mars, avec l’intervention d’Agriodor.

Les insectes choisissent leur nourriture et leur lieu de reproduction principalement grâce à l’odorat et la gustation. Les chercheurs étudient donc à la fois, le génome, le fonctionnement des récepteurs olfactifs et gustatifs et les interactions avec les plantes hôtes des insectes ravageurs pour mettre au point des méthodes de biocontrôle. Il s’agit notamment de semer la confusion chez l’insecte pour le détourner de son objectif (se nourrir ou s’accoupler par exemple) ou de l’attirer dans des pièges.

La noctuelle du coton dans le viseur

La noctuelle du coton (Spodoptera littoralis) est un papillon de nuit dont les larves sont particulièrement voraces et qui menacent aujourd’hui de nombreuses cultures. En effet, d’abord établie en Méditerranée sur les plants de coton, la noctuelle a la particularité d’être polyphage et elle s’est propagée à l’ensemble de l’Europe, jusqu’en Suède et s’attaque désormais à d’autres cultures horticoles et maraîchères comme les tomates, le maïs, le piment ou les pommes de terre. Les chercheurs ont identifiés les récepteurs olfactifs de la chenille de la noctuelle et ont testé toute une gamme d’odeur sur eux. Plusieurs voies s’ouvrent alors pour trouver des parades à ces ravageurs : créer des bio-olfaticides, c’est-à-dire des molécules qui miment des odeurs et occupent les récepteurs des insectes à la place de molécules habituelles. Cela fonctionne alors soit comme bloquant (l’insecte devient indifférent à l’odeur habituellement stimulante) ou comme boostant (la réponse comportementale est amplifiée). Le travail est fait sur le papillon lui-même ou sur les chenilles. C’est ainsi que les chercheurs ont découvert que les chenilles de noctuelle étaient sensibles aux phéromones sexuelles. Un paradoxe puisque une chenille est par nature immature. Une piste supplémentaire pour concevoir des pièges. Dans tous les cas, l’intérêt de cibler ces récepteurs olfactifs est qu’ils sont très spécifiques. Ils ne ressemblent pas à ceux des herbivores, des mammifères ou à ceux d’autres insectes « utiles » comme les abeilles et s’y attaquer permet donc un contrôle minimisant les perturbations collatérales.

Brevets et start-up à la clé

Ces méthodes de biocontrôle ne sont pas nouvelles, elles sont déjà utilisées en viticulture sur le ver de la grappe par exemple, mais les connaissances fines pour identifier les récepteurs, mettre au point les molécules de synthèse qui vont activer les pièges et les tests in situ ne cessent de s’élargir et ont permis le dépôt de nombreux brevets et la création d’une start-up, Agriodor. Fondée par Ené Leppik et Brigitte Frérot, deux chercheuses de l’Inra, Agriodor commercialise notamment les solutions pour la bruche de la Féverole. Il s’agit pour l’instant d’un système d’alerte de sa présence. Un système de piégeage massif est en développement et devrait voir le jour après avoir été validé par des tests in situ.

Ces recherches d’alternatives aux produits phytosanitaires sont devenues une priorité et vont entrer dans le cadre plus général du programme prioritaire de recherche « Cultiver et Protéger Autrement » qui doit être doté de 30 millions d’euros – en provenance du 3e Programme d’investissement d’avenir. A l’occasion du SIA, l’Inra a remis le rapport qui définit les lignes directrices de ce programme, les appels à projet devraient suivre ensuite au cours de l’année 2019.

2019 : Le marché de l’emploi des cadres reste très dynamique

Au total, le nombre d’embauches devrait se situer entre 270 700 et 292 000. La progression par rapport à 2018 pourrait aller jusqu’à 10%, selon les 10 000 entreprises interrogées.
«Enfin, un mot sur 2018, pour souligner les 73 400 créations nettes d’emploi cadre en France, en progression de 36 % par rapport à 2017» ajoute-t-il. Portée par 266 400 recrutements de cadres mais aussi 60 200 promotions internes de salariés à des postes cadres. Preuve que la dynamique d’acquisition des compétences à l’intérieur même des entreprises est à l’œuvre.

 

  • La quasi-totalité des régions a le vent en poupe. L’Île-de-France s’impose toujours comme la 1ère région avec près d’un recrutement sur deux. Suit Auvergne-Rhône-Alpes avec plus de 30 000 recrutements annoncés. La 3e place du podium est détenue à quasi égalité par les Hauts de France, Provence-Alpes-Côte d’Azur-Corse et l’Occitanie (plus de 16 000 embauches chacune). À noter que la Nouvelle Aquitaine et Pays de Loire, deux régions qui attirent beaucoup de cadres, font preuve d’un beau dynamisme.
  • Sans surprise, les Services affichent jusqu’à 210 000 embauches de cadres pour l’ensemble de l’année 2019, soit une hausse de 10 % par rapport à 2018. Mais la bonne nouvelle vient de l’Industrie dont les besoins en compétences cadres pourraient dépasser les 44 000 recrutements (jusqu’à + 12 %). La Construction n’est pas en reste : entre 13 000 et 14 000 recrutements sont attendus. Seul le Commerce semble moins dynamique avec un niveau proche de celui de 2018.
  • Par ailleurs, la fonction Informatique continuerait sa progression pour dépasser les 59 000 embauches, après les 50 000 déjà réalisées en 2018. Les prévisions concernant les cadres de la fonction Etudes, recherche & développement et les commerciaux sont aussi bien orientées. Au total, ces trois grandes fonctions représenteraient un peu plus de la moitié des recrutements en France.
  • En termes d’expérience professionnelle requise, ce sont toujours les cadres ayant 1 à 10 ans d’expérience qui seraient les plus recherchés par les recruteurs. Les débutants ayant moins d’un an d’expérience, quant à eux, profitent aussi d’un marché de l’emploi cadre dynamique.
  • À moyen terme, «Des aléas subsistent, notamment, sur l’environnement international cependant, il est vrai que le marché de l’emploi cadre est un marché particulier» explique Bertrand Hébert, «Tout nous incite à tabler sur une croissance économique modérée, et dans ce scénario, les recrutements de cadres continueraient à progresser pour atteindre le niveau record de 300 000 recrutements en 2021, selon notre modèle économétrique. »
  • « Reste un point de vigilance » souligne-t-il, «Les entreprises rencontrent des difficultés de recrutements sur certaines fonctions. Ces tensions sont à mettre en lien avec les transformations à l’œuvre dans les entreprises, des cycles d’innovation de plus en plus courts, et des modes de management qui évoluent. Les entreprises sont confrontées à un besoin crucial de compétences nouvelles pour se développer et, in fine, contribuer au développement économique des territoires. Se former, et anticiper ces changements s’imposent comme de nouveaux enjeux, pour les cadres comme pour les entreprises.» conclut-il.

Source : apec

La Chine a dominé le marché éolien en 2018

Si en 2018 les constructions marquent le pas, avec 3,6% de capacités en moins implantées par rapport à 2017 (53,2 GW), le GWEC s’attend à ce que d’ici à 2023, plus de 55 GW par an soient édifiés, notamment porté par les éoliennes en mer, qui devraient représenter 7 GW à 8 GW de nouvelles capacités sur les années 2022 et 2023.

Ces ajouts se feront sur les marchés matures européens et américains, mais un développement significatif est également attendu en Asie et sur le marché mondial offshore, signale le lobby mondial de l’éolien.

Côté éolien terrestre, le recul des installations s’est surtout porté sur les marchés déjà fortement développés en Europe et Outre-Atlantique, mais le GWEC indique que l’Amérique latine, le Sud-Est asiatique et l’Afrique se montrent des « régions très prometteuses », et ont représenté près de 10% des nouvelles éoliennes en 2018. La France occupe la sixième position en termes de nouvelles capacités installées, avec 1,563 GW.

Ces augmentations l’an dernier portent la capacité mondiale en éolien à 591 GW, soit une progression de 9,6% par rapport à fin décembre 2017. L’éolien terrestre progresse de 9% et atteint 568 GW  tandis que l’éolien marin fait un bond de 20% atteignant les 23 GW.

Côté éolien en mer, 4,5 GW ont été ajoutés en 2018 et pour la première fois, la Chine est également en tête des nouvelles implantations, avec 1,8 GW, devant le Royaume-Uni (1,3 GW), pays leader mondial pour l’offshore éolien, et l’Allemagne (0,9 GW). Le lobby éolien mondial estime que, si les engagements des gouvernements demeurent dans la durée, et si l’investissement ne mollit pas dans les projets, l’Asie devrait installer quelque 5 GW par an. Aux Etats-Unis, où la filière offshore est naissante, le GWEC s’attend à un peu plus d’un GW construit dès 2022-2023.

Le rapport annuel du GWEC sera publié dans son intégralité début avril, avec notamment le détail des fabricants mondiaux.

Les dix marchés porteurs de l’éolien terrestre en 2018 (capacité ajoutée dans l’année en MW) :

  • Chine – 21 200 MW
  • Etats-Unis – 7 588 MW
  • Allemagne – 2 402 MW
  • Inde – 2 191 MW
  • Brésil – 1 939 MW
  • France – 1 563 MW
  • Mexique – 929 MW
  • Suède – 717 MW
  • Royaume-Uni – 589 MW
  • Canada – 566 MW

Les cinq marchés porteurs de l’éolien en mer en 2018 (capacité ajoutée dans l’année):

  • Chine – 1 800 MW
  • Royaume-Uni – 1 312 MW
  • Allemagne – 969 MW
  • Belgique – 309 MW
  • Danemark – 61 MW

Au secours, la France manque d’ingénieurs !

Fin janvier, le syndicat professionnel des métiers de l’ingénierie, Syntec-Ingénierie, présentait la première édition de son baromètre économique de l’ingénierie*. Parmi les constats révélés par cette étude, le sous-effectif structurel du secteur qui atteint 2 à 4 % a particulièrement alarmé le syndicat. Pierre Verzat, son président commentait ainsi « Alors qu’elles créent des richesses partout dans l’hexagone, nos entreprises sont confrontées à un défi majeur : il n’y a pas assez d’ingénieurs et de techniciens formés en France ! Cela occasionne pour elles un manque à gagner allant jusqu’à 1 Md d’euros par an ».

Des métiers en tension dans les nouvelles technologies

En réalité, la tension de recrutement concerne encore plus les techniciens que les ingénieurs. Ainsi, précise l’étude, si le secteur prévoit 50 à 60 000 recrutements par an entre 2018 et 2021, ce sont 27000 créations nettes qui sont prévues dont 17200 ingénieurs et 9800 techniciens. Sur le marché du travail, les diplômés de niveau III (bac+2) ne sont plus assez nombreux. Non pas que l’on n’en forme pas assez, mais surtout parce que 58 % des diplômés des filières courtes préfèrent poursuivre leurs études. Les employeurs en arrivent à embaucher des ingénieurs à la place des techniciens. L’attractivité des emplois et les perspectives de carrière et de passage d’un niveau III à un niveau II ou I au cours de la vie professionnelle ne semblent pas assez lisibles et visibles pour retenir les jeunes diplômés d’IUT ou de STS.

Parmi les métiers particulièrement en tension, l’étude met en avant des profils liés à l’introduction massive et rapide des nouvelles technologies dans des métiers traditionnels : ingénieur des procédés, projeteur (dont projeteur BIM), manager BIM, architecte internet des objets, expert cybersécurité, data scientist. Dans le top 10, deux métiers concernent directement le BTP (directeur et conducteur de travaux) et soulignent le besoin en compétences managériales de ce secteur dont les grands projets et le changement d’échelle des entreprises nécessitent plus de postes d’encadrement.

Dynamiser la formation à tous les stades

L’état des lieux dressés par cette étude souligne aussi les défis que la branche de l’ingénierie doit relever d’ici 2025. Notant que les 73000 entreprises recensées sont de tailles très diverses, elle pointe un risque de concentration encore accrue dans le secteur avec l’arrivée de la numérisation des activités qui créent un « ticket d’entrée », notamment avec des technologies comme l’IA et les datas pour lesquelles l’investissement n’est pas toujours accessible aux petites structures et qui pourtant seront les principaux atouts différenciant dans les prochaines années. Le document alerte sur le paradoxe rencontré par le secteur : une demande et des marchés porteurs mais des marges faibles en raison d’une pression sur les prix et d’une hausse des salaires accompagnées d’une hausse des coûts externes (déplacement pour expertise internationale et demande de compétences de pointe complémentaires ponctuelles, notamment en région). Les auteurs de l’étude annoncent ainsi un repositionnement de tous les acteurs de la chaîne d’ingénierie dans les 3 ans à venir qui devraient modifier profondément les profils. Cette transformation devrait aussi être renforcée par le lancement de grands projets structurants en France (Grand Paris, Grand carénage du nucléaire, rénovation des réseaux – ferrés, énergie, télécommunication) pour lesquels une taille critique est nécessaire et qui requiert l’embauche de nombreux techniciens. Réussir à synchroniser les besoins du marché et les efforts de formation est un défi essentiel à relever et l’étude propose des pistes pour y parvenir. Notamment en mettant en place des partenariats structurés et continus entre la branche et tous les niveaux de formation pour évaluer les besoins et mettre en adéquation des contenus de formations au plus proche du réel, avec un accent mis sur l’alternance. Elle propose aussi de s’appuyer sur la bonne image des métiers techniques et de l’ingénierie pour recruter plus en palliant la méconnaissance des collégiens et lycéens sur la réalité de ces professions et en introduisant plus de porosité entre l’entreprise et les études et entre les différents niveaux. Pierre Verzat insiste ainsi sur « la nécessité de revoir de toute urgence l’offre de formation et de sensibiliser de nouveaux publics aux métiers de l’ingénierie, sous peine d’entraver le développement et l’attractivité de nos territoires » Un travail à mener aussi particulièrement auprès du public féminin chroniquement sous-représenté (tout juste 30 % des effectifs en formation).

*Etude réalisée par le cabinet EY pour le compte de l’OPIIEC (Observatoire paritaire des métiers du numérique, de l’ingénierie, des études et du conseil et des métiers de l’événement) – juin – décembre 2018.

Les énergies renouvelables vues par les Français

« Les résultats de cette 9e édition de notre baromètre annuel démontrent l’attachement profond de nos concitoyens pour la transition écologique, observe Richard Loyen, conseiller du président de Qualit’EnR. Les énergies renouvelables sont toujours aussi ancrées dans le cœur des Français, qui sont nombreux à être prêts à s’équiper individuellement pour contribuer à ce changement de paradigme énergétique. »

Des énergies renouvelables majoritairement bien accueillies

Selon ce nouveau baromètre de Qualit’EnR, les énergies renouvelables recueillent de 70 % à 89 % de soutien pour la production de chaleur et d’électricité. L’énergie la plus plébiscitée est le solaire thermique, devant la pompe à chaleur (84 %), les panneaux photovoltaïques (81 %), l’éolien (77 %) et le bois énergie (70 %). Le gaz garde également une place importante dans les esprits avec 61 % d’avis favorable. Le nucléaire continue de faire débat, situé aux alentours de 46 % de soutien. En queue de peloton, on trouve le charbon (16 %), le gaz de schiste (18 %) et le fioul (20 %).

84 % des Français pensent que les énergies renouvelables sont respectueuses de l’environnement, 87 % qu’elles favorisent l’indépendance énergique et 78 % qu’elles permettent de faire des économies. Ces bons résultats cachent un ternissement de l’image environnementale des ENR. L’idée selon laquelle les énergies renouvelables respectent l’environnement perd 9 points depuis 2017 et est au plus bas depuis 2012.

Des ENR chez de plus en plus de Français

Malgré cette baisse relative d’image, le recours aux énergies renouvelables demeure stable chez les particuliers. 31 % des Français déclarent être équipés d’un appareil de chauffage au bois (insert, poêle et/ou chaudière), 11 % d’une pompe à chaleur, 7 % de panneaux photovoltaïques et 9 % de solaire thermique (chauffe-eau et/ou système combiné). 41 % des Français disposent d’au moins un équipement d’énergie renouvelable dans leur résidence principale, et 25 % d’entre eux envisagent de s’équiper d’au moins un de ces dispositifs à l’avenir.

67 % des Français estiment qu’il leur revient d’agir à leur niveau pour contribuer à la transition écologique. Dans cette perspective, ils sont avant tout disposés à agir sur leur consommation et l’énergie domestique. Plus d’un Français sur deux estime ainsi que la première action à mettre en place est de privilégier les aliments locaux, biologiques et de limiter le suremballage. Un Français sur trois estime important de s’équiper d’un chauffage valorisant les énergies renouvelables et de lancer une rénovation énergétique de son logement. Ils sont presque autant à estimer opportun de changer de comportement en matière de déplacement, en favorisant les mobilités douces et partagées.

Trop de précarité énergétique en France et en Europe !

Selon l’Observatoire national de la précarité énergétique (ONPE), ce fléau touche en France au moins 7 millions de personnes. En 2018, trois ménages sur dix ont restreint leurs dépenses en chauffage et un sur dix a rencontré des difficultés à payer ses factures d’énergie.

La France, seulement 10e plus faible précarité énergétique en Europe

S’il existe deux types de précarité énergétique – celle au niveau domestique et celle au niveau des transports – le think tank Open Exp s’est concentré sur la première, par manque de données sur la seconde. L’indice de précarité énergétique domestique prend en compte quatre critères : les dépenses d’énergie en pourcentage des dépenses totales des ménages, l’incapacité à garder la maison au chaud en hiver et au frais l’été, ainsi que l’incapacité à limiter l’humidité de la maison. Plus l’indice est proche de 100 points, plus la précarité énergétique est faible.

Sur les 28 pays de l’Union européenne, la France se classe au 10e rang des pays ayant la plus faible précarité énergétique domestique. Son score de précarité atteint 73,3 points, juste derrière l’Allemagne (75,8). La Suède est de loin le meilleur élève, avec un score de 94,4 grâce à une très bonne isolation thermique de ses bâtiments. Selon Open Exp, la précarité énergétique en France est avant tout due à la mauvaise isolation thermique des logements qui maintient mal la fraîcheur en été, mais aussi au trop grand taux d’humidité dans laquelle les habitants vivent.

La précarité énergétique sera aggravée par le réchauffement climatique

Le classement Open Exp révèle que 17 des pays de l’Union européenne connaissent des niveaux importants de précarité énergétique domestique, principalement à l’Est et au Sud. La Bulgarie est le pays le plus touché, avec un score de 0,7. Le pays est particulièrement touché, été comme hiver.  Deux autres pays présentent une précarité extrême : la Hongrie (6,2) et la Slovaquie (8,4).

La précarité énergétique est un fléau tout au long de l’année, qui tend à s’empirer avec le réchauffement climatique. Les chaleurs estivales de plus en plus extrêmes et les hivers de plus en plus rigoureux ne manqueront pas, en effet, d’amplifier le phénomène si l’Union européenne ne prend pas à bras-le-corps le problème. La précarité énergétique en hiver a récemment été considérée comme une priorité politique aux niveaux européen et nationaux. Cependant, la précarité énergétique estivale demeure trop souvent négligée.

Les premières manifestations du changement climatique font déjà augmenter les dépenses énergétiques des ménages. Les augmentations sont davantage marquées dans les familles à faible revenu, amplifiant la précarité énergétique. Leurs dépenses énergétiques ont en effet augmenté de 33 % entre 2000 et 2014.

Face à ces conclusions, la coalition Right to Energy appelle l’Union européenne à mettre en place un cadre politique communautaire plus efficace pour éradiquer la précarité énergétique. Elle l’invite également à assurer un prix abordable pour tous les besoins énergétiques.

Consumérisme et produits industriels

La plupart des entreprises s’efforcent d’intégrer une démarche « qualité » des produits industriels, particulièrement en production ainsi qu’un service « après-vente », cherchant ainsi à maximaliser la satisfaction des consommateurs. Mais pour approcher au plus près les besoins des consommateurs, la préoccupation en amont de leurs attentes, des modalités d’utilisation des produits et l’anticipation des risques sont les moyens d’assurer une véritable qualité en conception.

Le retour d’information venant de l’utilisateur consommateur est crucial pour concevoir, industrialiser et fabriquer un produit de qualité. Mieux informés, en attente d’une qualité de service due, les consommateurs ont des exigences de plus en plus précises, exprimées ou non. Avec l’internationalisation des marchés et le développement des nouvelles technologies, les attentes des consommateurs peuvent être, paradoxalement, à la fois plus faciles à anticiper mais aussi plus difficiles à satisfaire.

Les nouvelles technologies de l’information et de la communication ont considérablement modifié l’interaction entre les entreprises et les consommateurs : elles permettent non seulement aux entreprises de suivre au jour le jour les courbes de ventes mais aussi de mieux connaître les modalités d’utilisation de leurs produits et de détecter au plus vite tout incident ; elles sont aussi un moyen de dialoguer avec les consommateurs et même, dans certains cas, de les faire participer, directement ou indirectement, à la conception des produits.

Connaître et prendre en compte la parole des organisations consuméristes, qui s’expriment au nom des consommateurs, devient une nécessité pour être au plus près des attentes et anticiper les risques et opportunités. Les organisations qui disposent de moyens pour réaliser des essais de produits en laboratoire et en publier les résultats dans des titres de presse ou sur Internet se sont professionnalisées au cours des 30 dernières années et leur expertise sur les produits et services est précieuse. Les associations qui prennent la parole au nom des consommateurs et des citoyens et qui défendent leurs intérêts ont toutes, chacune à leur mesure, la capacité d’avoir un impact sur les produits de consommation. Au-delà de ces associations organisées, les réseaux sociaux et les multiples possibilités de communication et d’action qu’ils rendent possibles sont, eux aussi, capables de porter l’influence des consommateurs individuels.

L’enjeu est de taille, car il peut s’agir de la réussite ou de l’échec commercial d’un produit industriel, ainsi que de sa sécurité mais aussi de la réputation de la marque ou de l’entreprise.

Le modèle consumériste français s’est construit et structuré au fil des années, depuis la création des premières structures après la deuxième guerre mondiale. À l’instar du modèle américain de Consumers Unions, la plus grande association de consommateurs française UFC – Que Choisir produit désormais près d’une centaine d’essais comparatifs de produits de consommation chaque année ; l’Institut national de la consommation, près d’une cinquantaine.

Les résultats de ces essais comparatifs constituent une base de données d’informations unique sur la qualité et les performances des produits testés. Les plans de surveillance et les rapports d’expertise des institutions consuméristes complètent la connaissance des produits sur le marché. La prise en compte de ces éléments par les entreprises, fabriquant ou distribuant des produits industriels, est nécessaire au même titre que la maîtrise des réglementations et normes de leur secteur.

Le développement des nouvelles technologies d’information et de communication ne remet pas en cause de façon fondamentale ce modèle consumériste, mais vient plutôt l’enrichir, même si de nouveaux acteurs, moins légitimes, sont apparus. Les informations et canaux de communication très nombreux et réactifs désormais disponibles peuvent créer des situations d’urgence pour les entreprises, mais contribuent par ailleurs à informer les consommateurs et à influencer industriels et distributeurs pour faire évoluer les caractéristiques et performances des produits au plus près de l’intérêt, des besoins et des attentes des consommateurs. De quoi donner aux entreprises une vision à « 360° » et innover en proposant les produits et services les mieux conçus.

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 21 mars !

Consumérisme et produits industriels, un article de Marie-France CORRE

Challenge Industrie du Futur : quelles startups peuvent postuler au Prix ArianeGroup ?

Pour la première fois, le leader de lancement de fusées ArianeGroup a rejoint le Challenge Industrie du Futur, initié en 2017 par les entreprises Atos et SKF en partenariat avec Techniques de l’Ingénieur. Le concours a pour vocation de mettre en lumière et d’accompagner les startups qui innovent dans le monde de l’industrie, afin de créer une usine du futur plus performante, connectée, et écoresponsable.

A travers ce partenariat, le nouveau prix ArianeGroup a été créé afin de récompenser les startups  qui favorisent l’écologie, l’humain et l’usine connectée. Ainsi, les jeunes entreprises qui contribuent à réduire la consommation d’énergie, à utiliser des matériaux recyclés, ou à simplifier et optimiser le travail des opérateurs peuvent postuler à ce prix. Il en va de même pour les startups spécialisées en logistique connectée, robotique ou même ligne de production connectée.

« Nous croyons en l’open innovation, c’est-à-dire que nous sommes convaincus que pour être disruptif dans notre innovation, nous devons travailler avec des startups novatrices, des personnes aux idées brillantes, pour contribuer au futur de l’industrie et au futur de l’espace », explique Raphaëlle Abitbol, Industrial Innovation and Open Innovation project leader chez ArianeGroup.

Les 12 startups finalistes sélectionnées présenteront leur projet face à des industriels lors de la finale du 6 juin, au Campus de l’Espace. Cinq prix seront décernés selon des thématiques précises, avec des récompenses allant de 3 000 à 6 000€.

 

Le projet de Traité européen pour un Pacte Finance-Climat dévoilé

Le climatologue Jean Jouzel et l’économiste Pierre Larrouturou portent le projet de Pacte Finance-Climat depuis décembre 2017. Le projet de traité européen pour un Pacte Finance-Climat a été rendu public le 19 février à Paris. Rédigé par des citoyens, des juristes, des banquiers et des hauts fonctionnaires, le texte est mis en débat pendant trois mois. Début juin, une version finalisée sera adressée au Parlement européen et envoyée à tous les chefs d’État et de gouvernement européen.

 La création d’une banque européenne du climat et de la biodiversité

 Ce projet de traité propose en premier lieu la création d’une Banque européenne du climat et de la biodiversité (BECB), filiale de la Banque européenne d’investissement. Son unique objectif sera de « favoriser la transition vers une économie à forte efficacité énergétique et faible en carbone en protégeant la biodiversité ». Elle assistera les États membres dans les projets d’isolation des bâtiments, de développement d’infrastructures de transport plus écologiques, d’énergies renouvelables. Elle soutiendra aussi la recherche et le développement de nouvelles technologies sobres en carbone et les projets agroécologiques.

 Lorsque la BECB sera créée, chaque pays se verra allouer des prêts à taux zéro et autres formes de financement équivalent à 2 % de son PIB. En 2017, la somme des économies des 28 États membres de l’UE avait un PIB de 15 330 milliards d’euros. La BECB pourrait donc allouer environ 307 milliards d’euros chaque année. « Cela représenterait par exemple 65 milliards d’euros pour l’Allemagne ou 45 milliards d’euros pour la France chaque année », peut-on lire dans le préambule du projet.

 Un fonds européen climat et biodiversité

 La création d’un deuxième outil est sur la table : un fonds européen climat et biodiversité doté de 100 milliards d’euros par an. Il sera spécifiquement dédié au financement des investissements pour la transition écologique et énergétique en Europe, en Afrique et dans l’Union pour la Méditerranée. En audition devant la commission de l’aménagement du territoire et du développement durable du Sénat le 23 janvier dernier, Jean Jouzel et Pierre Larrouturou ont détaillé son utilisation. 40 milliards d’euros financeront un Plan Marshall pour l’Afrique. 50 milliards d’euros seront dédiés à la lutte contre le changement climatique à l’échelle des citoyens et des entreprises européennes. Enfin, 10 milliards d’euros financeront la recherche pour les alternatives sobres en carbone.

 Ce Fonds sera alimenté par une taxe sur les entreprises opérant dans l’Union européenne. Cette « contribution climat » prendra la forme d’un prélèvement sur les bénéfices avant impôts au-dessus d’un seuil de chiffre d’affaires. Elle sera variable, allant de 1 à 5 %, en fonction de l’évolution du bilan carbone de l’entreprise. Les TPE et les PME de moins de 250 salariés et ayant un chiffre d’affaires annuel en dessous de 50 millions d’euros en seront exonérées.

 Le taux de la contribution climat et les projets qu’elle permettra de financer seront définis par un Parlement de l’Union pour le climat et la biodiversité. En l’état actuel des travaux, ce dernier sera composé de députés européens élus dans les États parties. Il se réunira entre deux et quatre fois par an durant une semaine.

 Il s’agit désormais de trouver les soutiens politiques. Les concepteurs ont tracé le chemin juridique à suivre pour éviter la règle de l’unanimité qui paralyse souvent les débats européens. Ils proposent de conclure un accord intergouvernemental, « hors du cadre formel des traités de l’Union européenne ». Les pays à l’avant-garde pourraient faire avancer rapidement le projet, l’adhésion ultérieure étant possible pour tous les États membres.