Bilan 2017 positif pour les biotechs françaises

Des parcours boursiers exceptionnels

Selon France Biotech, 7 sociétés biotechnologiques ont fait leur introduction en bourse (IPO (Initial Public Offering)) en 2017 et ont permis de lever au total 287 millions d’euros. Ces sociétés (Inventiva, Lysogene, Valbiotis, Biom’up, Theranexus, Erytech et Advicenne) développent des innovations qui ouvrent la voie à une nouvelle classe de médicaments afin de traiter des pathologies graves.

A noter que la société Erytech, une société biopharmaceutique qui développe des thérapies innovantes en encapsulant des médicaments dans les globules rouges a réalisé l’IPO la plus importante grâce à sa cotation au Nasdaq pour un montant de 120 millions euros.

D’après France Biotech, 341 millions d’euros ont été levés par les biotechs/medtechs françaises suite à des financements post-IPO et 30 sociétés ont été financées avec en moyenne 11, 4 millions d’euros de financement. Le secteur des biotechnologies représente presque 50% (49,12%) des financements post-IPO. Le plus grand cycle de financement s’élève à un montant de 70,5 millions d’euros et est réalisé par Erytech Pharma.

En outre, au sein du classement des biotechs/medtechs françaises aux capitalisations boursières les plus importantes, ce sont trois biotechnologies françaises qui se hissent dans le trio de tête : DBV Technologies (1050 million euros) ; Cellectis (885 million euros) et Genfit (730 million euros).

Les Biotechs bénéficient des 2/3 des financements

En 2017, les biotechs/medtechs françaises ont levé 315 millions d’euros grâce à des investissements réalisés par des fonds de « private equity ». Au total, 35 sociétés ont été financées avec en moyenne 9 millions d’euros de financement selon France Biotech.

Le segment le plus important est, ici aussi, représenté par les biotechnologies avec 65% des financements. Vivet Therapeutics, société biotechnologique, arrive à la première place avec un financement de 37,5 millions d’euros conclu pour développer son programme de thérapies géniques pour les maladies métaboliques rares et héréditaires.

Bien que ces chiffres prouvent que la France possède de vrais atouts en biotechnologies, ils ne peuvent faire oublier que le pays est bloqué par un certain nombre de contraintes qui l’empêche de peser davantage au niveau mondial. En effet, non seulement la France se retrouve en dernière place dans les essais cliniques du fait des lourdes contraintes administratives imposées, mais elle est également freinée par des contraintes financières puisque peu de fonds d’investissement sont disponibles (seuls trois grands fonds d’investissement peuvent lever plus de 100 000 millions d’euros en France).

Par Aliye Karasu

La chimie affiche une croissance record en 2017

Toute l’industrie de la chimie en hausse

La filière de la chimie a réalisé une année exceptionnelle en atteignant une croissance proche de 5%. Un chiffre remarquable selon Pascal Juéry, le président de l’Union des industries chimiques (UIC) qui précise que ces résultats ne s’étaient pas observés « depuis plus de quinze ans ».

L’ensemble du secteur de la chimie française enregistre des résultats à la hausse avec, fait rare, une progression plus forte que celle observée en Allemagne (+2,6% en 2017). Toutefois, deux secteurs profitent davantage de ce contexte favorable : la chimie organique (+7,5%) ainsi que les savons, parfums et produits d’entretien (+8,2%) qui ont réalisé les croissances les plus fortes.

La chimie, premier exportateur industriel devant l’aéronautique

Le secteur est le premier exportateur industriel avec des ventes à l’export qui s’élèvent à 58, 7 milliards d’euros en 2017 soit une augmentation des exportations de 8,5% par rapport à 2016. Un niveau atteint notamment grâce à la bonne conjoncture intérieure et internationale observée au dernier trimestre 2017 qui a été marqué par une augmentation de 1,2% des échanges extérieurs de produits chimiques par rapport au trimestre précédent (après -4,2 %).

Grâce à ses exportations, le secteur de la chimie prend une place grandissante dans la balance commerciale du pays en affichant un solde positif des échanges cumulé de 8,6 milliards d’euros en 2017 (contre 7,5 milliards d’euros en 2016). Le secteur représente ainsi le deuxième solde industriel en France. En outre, alors que les prix des produits chimiques sont en recul ces dernières années, une progression significative de 3 % est enregistrée en 2017 sur les prix de ventes.

Les prévisions pour 2018

Malgré la crise qui fait souffrir le reste du secteur secondaire et tandis que le déficit commercial de la France est toujours en déclin en 2017, la chimie est à rebours de l’ensemble de l’industrie manufacturière en affichant depuis 2000 une croissance moyenne à +0,8 % par an. Selon l’UIC, l’année 2018 est portée par un environnement économique jugé favorable et se présente donc sous de bons auspices avec des prévisions de croissance « autour de 3% ». Cependant, la filière ne réitèrera probablement pas l’exploit de cette année. En effet, la position de la France et de l’Europe se maintient difficilement car la filière est confrontée à la concurrence des pays d’Asie et du Moyen-Orient qui bénéficient de débouchés importants ou de coûts de l’énergie plus compétitifs.

Par Aliye Karasu

Minalogic Business Meetings le 6 juin à Lyon

Les Minalogic Business Meetings vous proposent des rendez-vous d’affaires afin de renforcer la diffusion de vos projets d’innovation (jusqu’à 14 RDV de 30 mn).

3 raisons de s’inscrire à Minalogic Business Meetings :

  • Une occasion unique de rencontrer de nombreux  donneurs d’ordres français et internationaux en UNE seule journée.
  • Un moment privilégié pour proposer vos solutions innovantes et convaincre des grands comptes.
  • Une vraie opportunité pour développer son business et optimiser son networking.

JUSQU’A 90 DONNEURS D’ORDRES SONT ATTENDUS

(TIC, Santé, Energie & Bâtiment, Usine du futur, Mobilité, Sécurité & Défense, Sport & Montagne)

part

Cette journée de rendez-vous d’affaires internationaux vous permettra :

  • De découvrir de nouveaux projets & innovations technologiques
  • De rencontrer en rendez-vous préprogrammés des offreurs de technologies et donneurs d’ordres issus de pays européens.
  • Assister à des conférences sur les thématiques des technologies du numérique innovantes.

Plus d’information : +33 1 81 89 08 81

Minalogic, pôle de compétitivité mondial des technologies du numérique, s’est imposé comme un acteur incontournable de l’innovation en région Auvergne-Rhône-Alpes. L’événement Minalogic Business Meetings, vous permettra de renforcer l’internationalisation des projets et d’accueillir des offreurs de technologies et des donneurs d’ordres issus de pays cibles comme la Belgique, l’Allemagne, l’Italie, le Royaume-Uni….

Ingénieuses’18 : Et les nommées sont…

Réparti en plusieurs catégories, ce concours récompense des actions ayant pour finalité l’égalité entre les femmes et les hommes.

Cette 8e édition a été de nouveau l’occasion pour la CDEFI de recevoir un grand nombre de candidatures :

  • 88 candidatures d’élèves-ingénieures,
  • 94 candidatures de femmes ingénieures
  • 35 projets déposés par les écoles d’ingénieur-e-s.

L’Agence universitaire de la Francophonie, partenaire du prix de l’élève-ingénieure Maghreb, a reçu quant à elle 44 candidatures pour la troisième édition du prix.

Les candidatures ont été étudiées avec attention par un jury dont Techniques de l’Ingénieur a été fier de faire partie, aux côtés de l’Agence universitaire de la Francophonie, du Bureau national des élèves ingénieurs (BNEI), Campus-Channel, la Commission des titres d’ingénieur, Elles Bougent, Femmes Ingénieurs, Ingénieurs et scientifiques de France (IESF), Social Builder et Talents du numérique.

Réuni le 16 avril dernier, le jury a délibéré et désigné le nom des nommé-e-s dans chaque catégorie (ci-dessous par ordre alphabétique) :

  • Prix de l’école la plus mobilisée :
    • l’ENAC, avec le projet « Politique de diversité de l’ENAC » ;
    • l’ENSEA, avec le projet « Vivre au quotidien l’égalité femmes/hommes au sein d’une école d’ingénieur » ;
    • l’ESTP Paris, avec le projet « Trophée ESTP au féminin ».
  • Prix du projet le plus original :
    • l’ENSCMu, avec le projet « Chimie en maternelle » ;
    • L’ENSCMu avec le projet « Chimie en primaire »  ;
    • l’EPITA, avec le projet « Girls Can Code »  ;
    • l’IMT Lille Douai, avec le projet « Girls’Day à la SNCF ».
  • Prix pour l’enseignement de l’égalité femmes-hommes :
    • l’ESIX Normandie, avec le projet « Adopte un mentor » ;
    • l’INSA Lyon, avec le projet « Genre… Et si on parlait sciences inclusives » ;
    • les Mines Saint-Etienne, avec le projet « Association Womines ».
  • Prix de l’élève-ingénieure France :
    • Diala CISSOKO, élève-ingénieure de l’EPF ;
    • Lou GRIMAL, élève-ingénieure de l’université de technologie de Troyes ;
    • Anne-Laure GRUHIER, élève-ingénieure des Arts et Métiers ParisTech.
  • Prix de la femme ingénieure :
    • Anne-Fleur ANDRLE, diplômée de l’université de technologie de Compiègne ;
    • Amandine DESSALLES, diplômée de l’ENSTA Bretagne ;
    • Charlotte GRAIRE, diplômée de l’EPF.

 

La cérémonie de remise des prix, événement ouvert au public, durant laquelle les noms des lauréat-e-s (les deux élèves-ingénieures, la femme ingénieur, et les trois écoles d’ingénieur-e-s) seront dévoilé-e-s, se tiendra à Paris, à la Fédération nationale des travaux publics, le vendredi 25 mai 2018 de 13 h 30 à 18 h 30. Les inscriptions sont ouvertes sur le site : http://www.cdefi.fr/fr/evenements/ceremonie-de-remise-des-prix-ingenieuses

Chantal Jouanno prend les rênes du débat public

La CNDP gère actuellement 27 concertations et deux débats publics. Dans cette dernière catégorie, on trouve le débat public de la Montagne d’Or en Guyane et le débat public lié à la Programmation Pluriannuelle de l’Energie (PPE). Le débat public de la Route des Géraniums à la Réunion s’est quant à lui achevé le 3 mai dernier. En septembre prochain, le débat public sur le plan national triennal de gestion des matières et déchets radioactifs (PNGMDR) sera lancé.

Pourquoi avoir pensé la CNDP ? « Son rôle fondamental est d’être un tiers garant, explique Chantal Jouanno. Surtout elle ne donne aucun avis sur le fond du projet et n’est pas partie prenante, donc elle ne peut pas être suspecte d’orienter la décision dans un sens ou dans un autre ». L’organisme veille à ce que l’information communiquée soit compréhensible par les citoyens et la plus objective possible. Elle fait appel à des expertises complémentaires lorsque cela est nécessaire.

Prendre en considération l’ensemble des avis

« On veille à aller chercher toutes les paroles et ne pas traiter que les paroles dominantes, car une seule personne peut exprimer une opinion majoritaire mais silencieuse », prévient Chantal Jouanno. En plus des grandes réunions publiques et des plateformes Internet dédiées, la CNDP organise des débats mobiles dans les trains, les gares, les universités, les marchés et des conférences citoyennes. Pour le débat public sur la PPE, elle va par exemple organiser un G 400. Sur l’ensemble de la France, 400 personnes représentatives de la population française seront formées et réunies pour donner leur avis sur le projet.

Le débat public sour l’égide de la CNDP a des exigences en matière  d’indépendance, d’objectivité et de pluralité des avis. Il se démarque en cela des débats organisés lors du Grenelle de l’environnement ou du débat national sur la transition énergétique. « Dans le débat public, on fait plutôt une cartographie des opinions que de la co-construction, précise Chantal Jouanno. On peut identifier ainsi les intérêts en présence pour les personnes, les gagnants et les perdants et les mesures de compensations nécessaires ». Mais la représentativité est difficile à atteindre. « En Guyane, on entend que les opposants, regrette Chantal Jouanno. Les défenseurs ne s’expriment pas dans le débat public ».

Par ailleurs, sur le nucléaire et beaucoup d’autres sujets, les experts sont forcément des parties prenantes. « On ne trouvera pas sur un sujet comme les déchets nucléaires, des experts qui n’ont pas travaillé sur le nucléaire à un moment ou à un autre », prévient l’ancienne présidente de l’ADEME. Pour garantir l’indépendance de l’expertise, la CNDP veille donc à assurer la pluralité des avis d’experts recueillis et énonce leurs conflits d’intérêts.

Une analyse critique des débats en cours

Il y a déjà eu un débat public dédié à Cigéo. Désormais, des concertations sont prévues en fin d’année sur les aménagements nécessaires au projet. Elles porteront notamment sur le raccordement au réseau électrique haute tension et peut-être sur la prolongation de la ligne ferroviaire pour amener les colis de déchets. « Il y a une grande confusion dans l’ensemble des procédures, que cela soit la chaîne depuis le débat public jusqu’à l’enquête publique et sur ce qui est mis dans la concertation, analyse Chantal Jouanno. On se discrédite soi-même lorsqu’après avoir fait un débat public sur Cigéo, on demande des concertations sur ses sous-produits ».

Selon l’ancienne secrétaire d’État chargée de l’Écologie, le débat de la Mine d’Or arriverait trop tard. L’aménageur a déjà défini ses installations de manière très précise. « Est-ce que l’exploitation de l’or en Guyane doit reposer sur de grosses installations ou une exploitation sous forme plus artisanale, voire locale ? », voici un débat qui aurait pu être « extrêmement intéressant », pour Chantal Jouanno.

Respecter le débat public?

Les premières conclusions du débat public sur la PPE seront connues le 29 juin. .  Le gouvernement devrait publier sa première version en juillet. Aura-t-il le temps de prendre en compte les conclusions ? « C’est au gouvernement de respecter les règles qu’il a lui-même fixées, estime Chantal Jouano. Soit le gouvernement accorde du crédit au principe même du débat public et attend la fin du débat public pour faire ses premières orientations de la PPE, soit il n’attend pas et en termes de confiance vis-à-vis de l’ensemble des participants au débat public, ce n’est pas très respectueux ».

Le débat public n’est pas là pour faire de la pédagogie, mais pour demander aux gens de donner leur opinion en opportunités sur telle ou telle grande orientation. Le maître d’ouvrage doit argumenter ses choix, notamment les raisons qui le pousse à retenir ou non telle opinion exprimée. Sur les 87 débats passés, six ont donné lieu à l’abandon définitif du projet, la majorité entraîné des aménagements ou une réorientation. « Il n’y a jamais eu de bilan et d’évaluation de l’ensemble des activités de la CNDP depuis sa création, regrette Chantal Jouanno. On est en train de collecter les données pour faire une cartographie des opinions qui sont versées au débat public et savoir ce qui est repris ».

Donner toute sa valeur au débat public

Le budget du débat public de la PPE s’élève à 500.000 euros. « Le budget est clairement sous-dimensionné par rapport à l’ampleur du débat », dénonce Chantal Jouanno. Pour la route des géraniums, le budget est supérieur, à 600.000 euros. En comparaison, la grande consultation interne d’EDF « Parlons Energies » auprès de 12.000 salariés aura pour sa part coûté 3 millions d’euros.

La CNDP est automatiquement saisie et organise un débat public pour les grands projets soumis à évaluation environnementale. Elle joue le même rôle pour les plans et programmes, soumis à évaluation environnementale, à caractère nationaux. Enfin, elle s’occupe des plans et programmes régionaux. « Je ne suis pas sûre que les collectivités en aient conscience, ce qui est dommage », regrette Chantal Jouanno. En effet, les collectivités sont assez avancées dans l’élaboration de ces différents plans. Elles ont mis en place des méthodes de participation auprès des parties prenantes. En revanche, elles n’ont pas nécessairement organisé cette concertation large du public à une échelle régionale. Dans ces conditions, « le droit d’initiative citoyen reste ouvert, ce qui est potentiellement source de contentieux », conclut Chantal Jouanno.

Par Matthieu Combe, journaliste scientifique

Les conséquences du rachat de Direct Energie par Total

Total s’épaissit

Avec cette transaction, Total fait d’une pierre deux coups. Il augmente massivement sa taille sur le marché français – il passe d’un portefeuille de sites clients de 1,5 million (Lampiris et Total Spring) auxquels s’ajoutent les 2,6 millions de Direct Energie – et absorbe le principal concurrent indépendant (pas détenu par l’Etat) devenant de fait le troisième fournisseur alternatif sur le marché français.

En termes de capacités de production, Total réalise une bonne affaire en récupérant  un parc électrique de 1,35 GW, dont 800 MW de centrale à gaz et 550 MW d’électricité renouvelable (EnR). Il s’ajoute à la capacité installée de 900 MW du groupe dirigé par Patrick Pouyanné. Mais c’est surtout le portefeuille de projets de Direct Energie comprenant une centrale à gaz en construction de 400 MW et un pipeline de 2 GW d’EnR qui a dû attirer Total. Le duo gaz-EnR correspond en tout point à l’orientation formalisée en 2016 par la Major française de s’orienter vers les énergies décarbonées tout en maintenant le cœur de métier : l’Oil&Gas avec une préférence marquée pour le gaz, la moins polluante des énergies fossiles.

Total est déjà bien présent dans le secteur des EnR par des acquisitions ciblées. Il a ainsi renonmé Total Eren, une compagnie très actives lors des appels d’offres internationaux  (650 MW installés ou en construction et 1,5 GW en développement). L’intérêt de la Major pour le photovoltaïque s’est concrétisé dès 2011 avec le rachat de Sunpower aux Etats-Unis. Elle anticipe une électrification accrue des usages et a décidé d’investir le marché de l’électricité, de l’amont (la production) à l’aval (la fourniture) à l’image de la chaîne de valeur pour les hydrocarbures. Total se fixe l’objectif de disposer d’un parc d’au moins 10 GW d’ici 5 ans.

Concurrence accrue

La montée en force de Total, qui n’est arrivé sur le marché des particuliers qu’en octobre dernier, secoue le secteur à commencer par EDF qui commence à voir poindre les ennuis. L’opérateur historique garde une position largement dominante (25 millions de clients), devant l’autre opérateur historique devenu Engie (entre 3-4 millions de clients) et Total. Mais ce dernier dispose d’une force marketing qui pourrait accélérer l’érosion du portefeuille d’EDF. Le groupe dirigé par Jean-Bernard Levy a perdu en 2017 près d’1 million d’abonnés.

Total est ambitieux et dit viser 6 millions de clients en France et plus de 1 million en Belgique à horizon 2022. Les petits acteurs (Ekwateur, Eni, Enercoop, etc) espèrent tirer profit d’une meilleure communication sur un marché encore peu connu des citoyens pour accroître leurs parts de marché. Mais à court terme, le rachat de Direct Energie signifie surtout que les deux opérateurs historiques vont devoir affronter un troisième grand groupe, tous trois issus des sociétés françaises historiques de l’énergie, toutes fondées au XXème siècle, du pétrole (SFP), du gaz (GDF) et de l’électricité (EDF).

Quelles conséquences  au quotidien ?

L’électricité est une commodité et c’est l’une des raisons pour lesquelles il a été si difficile de libéraliser ce secteur. L’électricité étant la même, le seul facteur de différenciation était le prix, ce qui rendait les monopoles très dur à concurrencer sur ce domaine sur lequel ils bénéficiaient de nombreuses économies d’échelle. Mais depuis, l’électricité a une couleur (verte) si vous choisissez une offre d’électricité issue des EnR (mais généralement plus chère). C’est un facteur de différenciation même s’il s’estompe à mesure que ces offrent se multiplient sur le marché français.

Interrogée sur l’opération de Total, la patronne d’Engie, Isabelle Kocher, s’est voulue sereine estimant que la concurrence ne lui faisait pas peur. Elle présentait la dernière offre de son groupe sur l’autoconsommation dans la droite ligne de la stratégie d’Engie : devenir un groupe de services, non plus de commodités. Intégrant le fait que des citoyens veulent s’approprier l’énergie, Engie propose une offre consistant en l’installation de panneaux solaires, finançables à crédit, couplés à une ou des batteries.

Engie n’est pas le seul à proposer des services pour fidéliser ses clients . Même EDF s’y est mis avec sa filiale Sowee qui propose une application permettant de contrôler à distance de nombreux objets connectés dans la maison (lumière, hifi, machines à laver, etc) ainsi que le chauffage. De nombreuses start-up se sont mises sur ce créneau de la domotique et des services énergétiques. Ces services annexes liés à l’usage d’objets électriques sont devenus le nouveau marché des électriciens qui peuvent désormais s’appuyer sur une base de données beaucoup plus précise grâce aux compteurs communicants Linky, dont l’installation fait désormais débat. Ce sont les courbes de charge qu’ils génèrent qui permettent de créer les profils de consommation nécessaires à tous ces acteurs pour créer des services innovants en matière énergétique. Il y a fort à parier qu’ils deviendront les principaux arguments de vente des fournisseurs d’électricités et de gaz à l’avenir. Sans oublier le prix évidemment.

Romain Chicheportiche

Creative manufacturing

Il s’agit d’une maquette numérique, permettant de visualiser dans un environnement de réalité virtuelle immersif 3D, des lignes de fabrication de composants aéronautiques intégrant des machines de production en fonctionnement et reproduisant dans leur intégralité les processus industriels de fabrication.

Ce démonstrateur est le résultat d’un travail de collaboration entre des fabricants de machines et d’équipements, et des acteurs du numérique. Il permet de sensibiliser par l’exemple, et d’accompagner les entreprises, plus particulièrement les PME, à faire le saut technologique vers les outils numériques, indispensables pour moderniser et adapter leur outil industriel aux demandes de l’Industrie du Futur.

Ce projet, « CREATIVE MANUFACTURING » initié par un collectif d’industriels autour du Symop, s’inscrit dans le cadre des Projets Pilotes de l’Alliance Industrie du Futur (A.I.F.)

Un consortium a été constitué autour des entreprises suivantes :

entreprises-logos

Le Symop, membre fondateur de l’A.I.F. a été chargé de coordonner la réalisation de cette initiative.

Ce « démonstrateur » servira de vitrine, lors de prochains salons en France et à l’International et/ou de support à l’occasion d’un évènement spécifique à organiser.

entreprises-maquette

Description de la maquette

Cette maquette a été réalisée à partir des géométries 3D des équipements et machines, fournis par les partenaires.

Le principe de fonctionnement de cette maquette réside dans une simulation complète d’un processus de fabrication d’un composant aéronautique. Le scénario permet ainsi de visualiser une pièce de structure d’un avion (tronçon central) puis d’être transporté dans la ligne de fabrication.

Toutes les étapes de visites virtuelles se déroulent dans un environnement de réalité virtuelle immersif à partir de la plateforme 3DEXPERIENCE de Dassault Systèmes à l’aide d’un casque HTC Vive.

La navigation est réalisée à l’aide d’un pointeur laser, à partir d’un panneau descriptif du processus, qui permet de se situer dans la ligne.

Dans l’usine de production, on visualisera les machines de production et les équipements, en fonctionnement, reproduisant dans leur intégralité les processus industriels de fabrication. On réalise ainsi un « jumeau numérique » des lignes de production. Ces simulations se différencient d’une simple représentation graphique par le fait qu’elles intègrent des données numériques provenant de sources très diverses en illustrant l’ergonomie, le fonctionnement, le comportement mécanique des machines.

La continuité numérique, le moyen de disposer de l’ensemble des informations numériques pendant toute la durée du cycle de vie

Mieux collaborer tout au long de la chaîne industrielle implique, en premier lieu, de réduire les discontinuités numériques. Elles se situent particulièrement entre l’engineering (la définition du produit) et la production. On assiste souvent à une cassure dans la transmission des informations relatives aux produits et aux processus due à des logiciels et des formats de données différents. Cela induit des ressaisies d’informations sources de nombreuses incohérences et incompréhensions entre les métiers. Si, en production, il faut ajuster certains paramètres d’usinage directement sur la machine, l’information ne remonte pas automatiquement vers les programmeurs FAO : les experts métiers qui, à partir de la CAO, élaborent la stratégie d’usinage d’une pièce (choix des outils, définition de leurs trajectoires…) et le programme de la machine-outil. La connaissance issue de la fabrication n’est donc pas forcément capitalisée pour être réutilisée lors de projets ultérieurs et faciliter l’obtention d’une pièce bonne du premier coup.

C’est tout l’enjeu de la continuité numérique, qui désigne la capacité de gérer, d’analyser et de capitaliser sur l’ensemble des données numériques d’un produit ou d’un système tout au long de son cycle de vie. Tout le défi aussi, car il s’agit d’intégrer des données provenant de sources très diverses, et donc de formats fortement hétérogènes : fichiers de CAO en 3D, de FAO, plans, documentation technique, fichiers …

On pourra associer des applications de REALITE AUGMENTEE, mariage du réel et du virtuel, pour l’amélioration de l’efficacité des opérations de maintenance et d’exploitation.

En savoir plus : symop.com/un-pavillon-france-au-ccmt

Les bus à batterie chinois à la conquête de la France

La Chine comptait 1700 Bus électriques à batterie en 2013 et 350.000 fin 2017.  La part de marché est passé de 0,6% à 22%. Certaines villes chinoises, comme Shenzhen ont à présent une flotte de bus intégralement électrifiée, bus fabriqués par le géant Byd. Les batteries des voitures électriques représentent un réservoir de 30,6 GWh à l’échelle mondiale. Les bus chinois, à eux seuls, 12,5 GWh. Le marché chinois représente 99% du marché mondial des bus à batterie. Mais cela pourrait évoluer très vite dans les autres pays selon Colin McKerracher, expert en transports avancés de l’agence BNEF.

Alors qu’un bus à batterie du californien Proterra est parvenu à parcourir 1800 kilomètres à faible vitesse, les bus électriques français n’ont pas une autonomie suffisante pour offrir un service satisfaisant. Ce sont donc des bus à batterie chinois qui ont été choisis par la société Flixbus pour relier Amiens à Paris (150 kilomètres), premier projet d’une série de nombreux autres. En effet de nombreuses villes sont situées à moins de 200 kilomètres de Paris, Lyon et Marseille. Les actionnaires principaux de la société Flixbus sont les fondateurs: le constructeur allemand Daimler ainsi que les fonds d’investissement américains General Atlantic et Silver Lake.

Le fabricant de ces bus est Yutong, un industriel chinois associé à une firme alsacienne, Dietrich Carebus Group (DCG), en partenariat avec B.E. green, filiale du transporteur Autocars Dominique. Yutong est présent dans plus de 140 pays. En 2017 DCG a vendu des bus Yutong d’une autonomie de 250 kilomètres à la société Savac spécialiste du transport scolaire pour la ville de Paris.

Jean-Gabriel Marie

Le secteur du stockage batterie en plein boom

1,4 GW/2,3 GWh installés en 2017

Les vendeurs de batteries ont connu une année record en 2017. Ils ont installé l’équivalent de 1,4 GW de batteries en capacité représentant 2,3 GWh en énergie. Le marché a été porté notamment par l’Australie qui remporte la palme en termes de capacité (246 MW) et les Etats-Unis en termes d’énergie (431 MWh). Ces deux pays sont particulièrement propices à l’implantation de stockages par batteries, en raison d’une réglementation favorable et des prix de l’électricité élevés. En troisième position se trouve l’Allemagne puis la Chine. Selon le dernier rapport publié par GTM Research, l’Empire du Milieu devrait rapidement rattraper son retard et devenir le premier marché mondial d’ici 5 ans.

Mais en attendant, c’est l’Australie qui fait beaucoup parler d’elle. Elle a été le théâtre d’une compétition entre deux poids lourds du secteur : Elon Musk, pdg de Tesla, Solarcity et SpaceX, et Sanjeev Gupta, autre milliardaire, pdg de Simec Zen Energy. Ce dernier a annoncé en mars dernier la construction d’une batterie de 120 MW/140 MWh quelques mois seulement que le premier ait finalisé la construction de ce qui devait être la plus puissante batterie du monde (100 MW/129 MWh). Une course à la puissance qui s’est faite sous l’œil bienveillant des autorités australiennes qui subventionnent en partie ces installations pour éviter que ne se reproduise le black-out de 2016 qui avait privé d’électricité de très nombreux Australiens. Dans les deux cas, le stockage est couplé à des énergies renouvelables (EnR). En l’espèce, Elon Musk a choisi le parc éolien de Hornsdale (307 MW) exploité par le développeur français Neoen.

Couple renouvelables/batteries

Selon un autre rapport publié par Bloomberg New Energy Finance (BNEF), le marché mondial du stockage par batterie devrait être multiplié par 64 entre 2016 et 2030, pour atteindre une puissance installée totale de 125 GW et une production de 305 GWh. Une croissance exponentielle qui n’est pas étrangère à la montée en puissance rapide des énergies renouvelables. Ces dernières, notamment le solaire photovoltaïque, ont dépassé toutes les prévisions des experts et pourraient rendre très difficile le contrôle de fréquence des réseaux électriques. C’est pourquoi les gestionnaires de réseaux multiplient les initiatives sur les batteries à l’instar de RTE en France qui développe le projet Ringo, visant à implanter des batteries faisant office de « lignes virtuelles ». Au niveau des gouvernements, de plus en plus d’appels d’offres EnR comportent dans leurs cahiers des charges un volet stockage pour réduire à la source le risque lié à l’intermittence. C’est notamment le cas lorsque ceux-ci concernent des zones non-interconnectées (ZNI) tels que les îles, dont les réseaux sont particulièrement vulnérables.

Gigafactories

Autre facteur de la montée en puissance du secteur des batteries : la baisse des coûts. Comme toujours, les économies d’échelle liées à la hausse des volumes ont fait baisser les coûts marginaux ouvrant de nouveaux marchés qui à leur tour ont élevé les volumes, etc. Cet effet d’entraînement a conduit à la création de Gigafactories telle que celle de Tesla aux Etats-Unis, ou encore, voire surtout celles de LG Chem et Samsung en Corée du sud. L’Europe, malgré des discours ambitieux, reste largement à la traîne. Le cercle vertueux des économies d’échelle laisse présager encore une baisse des coûts estimée entre 10 % et 36 % dans les cinq prochaines années.

Ces réductions des prix des batteries permettront d’alimenter une autre dynamique en cours : l’électrification des usages qui consiste à substituer l’électricité à d’anciennes sources d’énergie telle que pétrole. Le véhicule électrique en est l’une des meilleurs illustrations.

Par Romain Chicheportiche

La French Fab accélère son déploiement

Avec un coq bleu pour étendard, le label French Fab associe industriels et start-ups dans un réseau facilement identifiable pour faire rayonner l’industrie française dans le monde. Grâce au soutien de plusieurs acteurs, notamment la Banque publique d’investissement (Bpifrance) et les régions, les entreprises sont accompagnées pour former l’industrie du futur « à la française » et conquérir les marchés mondiaux.

La French Fab nourrit notamment l’ambition d’accompagner les petites et moyennes entreprises (PME) pour les transformer en entreprises de taille intermédiaire (ETI). Soit des sociétés qui emploient entre 250 et 5.000 salariés et réalisent un chiffre d’affaires allant jusqu’à 1,5 milliard d’euros. Bruno Le Maire a annoncé vouloir doubler le nombre d’entreprises accompagnées par la BPI. D’ici 2022, la banque devra accompagner 4.000 entreprises dans ses accélérateurs, avec un programme de 18 à 24 mois, par promotion. À terme, l’objectif est bien de rattraper le retard français à la matière : le pays ne compte que 5600 ETI, là où l’Allemagne en recense près du double.

Des accélérateurs avec Bpifrance

« Les accélérateurs de Bpifrance proposent des programmes intégrés sur 2 ans permettant d’accompagner les entreprises en profondeur dans leurs projets de croissance et de transformation à travers de la formation, du conseil et de la mise en réseau, explicite Fanny Letier, directrice exécutive chez Bpifrance au magazine Entreprendre. Nous sommes là pour transformer des PME en ETI et des ETI en champions mondiaux. »

Ces accélérateurs permettent de transformer les entreprises grâce aux nouvelles technologies : impression 3D, intelligence artificielle, robotique, digital, big data, etc. Les entreprises accompagnées innovent, entrent dans l’industrie du futur et attirent les jeunes vers les métiers de l’industrie. Surtout, elles développent considérablement leur chiffre d’affaires, partent à l’exportation, modifient leurs modèles d’affaires et se tournent vers la responsabilité sociétale des entreprises (RSE).

Les régions s’allient à la French Fab

Les accélérateurs se multiplient. Bpifrance développe des accélérateurs nationaux par filières industrielles. Un premier accélérateur « Ambition PME-ETI » dédié aux entreprises de l’aéronautique a été créé avec le Groupement des Industries Françaises Aéronautiques et Spatiales (Gifas). La première promotion de 60 entreprises a été lancée en septembre 2017 pour 18 mois. Un autre accélérateur dédié aux entreprises de la chimie vient d’être lancé début avril avec l’Union des industries chimiques (UIC). L’Accélérateur Chimie accueillera dès le deuxième semestre 2018 30 PME et ETI du secteur disposant d’un fort potentiel de croissance. D’autres accélérateurs sont prochainement attendus dans les grands secteurs industriels, comme l’automobile, la construction, l’agroalimentaire, le ferroviaire, la construction navale ou encore la santé.

À côté de ces accélérateurs nationaux, plusieurs régions ont lancé leurs propres accélérateurs, en collaboration avec Bpifrance. C’est le cas des régions Pays de la Loire et de la Nouvelle Aquitaine qui ont lancé leur accélérateur en 2017. Par exemple, la première promotion du programme d’accélération de 24 mois en Nouvelle Aquitaine compte 8 PME et 14 ETI depuis octobre 2017. Le programme devrait monter en puissance pour concerner à terme 70 entreprises par promotion.

La dynamique s’amplifie en 2018

La French Fab Auvergne-Rhône-Alpes annoncée en mars 2018 sera doté d’un plan de 120 millions d’euros. Dans la foulée, la Région Bretagne a lancé la Breizh Fab, un « plan industriel breton 2020 » doté de 4 millions d’euros. Celui-ci est destiné à agir comme un accélérateur régional. En particulier, le programme d’accompagnement « Industrie du futur » qui aide à la modernisation de l’outil productif accueillera une nouvelle promotion de 50 entreprises. D’autres régions sont en cours de discussions avec Bpifrance pour lancer leurs accélérateurs.

Bpifrance a récemment présenté les résultats de la deuxième promotion de son accélérateur PME (2016-2018). Après 24 mois d’accompagnement, les résultats sont plutôt très encourageants pour les 58 PME qui ont été tentées par l’expérience. En effet, leur chiffre d’affaires moyen a augmenté de 25 %, leurs exportations de 22 % et leurs effectifs de 34 %. La troisième promotion (2017-2019) est d’ores et déjà en cours d’accélération, et la quatrième promotion (2018-2020) a été annoncée. 56 PME ont été sélectionnées, dont plus de la moitié dans le secteur industriel. Ces résultats sont de bon augure pour les futurs résultats des accélérateurs de la French Fab.

Par Matthieu Combe, journaliste scientifique

L’IA, au coeur de la réindustrialisation française

Emmanuel Macron veut faire de la France une nation à la pointe de l’intelligence artificielle (IA), en Europe et dans le monde. La France dispose de nombreux atouts pour ne pas rater cette disruption technologique. « Nous avons des atouts pour réussir », assure le Président de la République, notamment grâce à l’excellence de la formation, des ingénieurs et des chercheurs. Par ailleurs, des centres de recherche de grandes entreprises sont déjà installés sur le territoire.

Pour éviter la fuite des cerveaux et accélérer la croissance l’écosystème, un programme national pour l’IA sera mis en place. « Nous mettrons en place un réseau emblématique de quatre ou cinq instituts dédiés, ancrés dans des pôles universitaires et maillant le territoire français », prévient Emmanuel Macron. Ils seront en interaction permanente et développeront des chaires d’excellence pour attirer les meilleurs talents.

Améliorer la formation et attirer les talents mondiaux

Un effort particulier sera porté à la formation des techniciens, ingénieurs et docteurs. « Nous doublerons le nombre d’étudiants formés à l’intelligence artificielle depuis la licence jusqu’au doctorat, en passant par les formations professionnelles courtes et prévoirons les financements nécessaires à ce doublement », assure Emmanuel Macron.

À cette fin, le Président annonce la mise en place d’une série d’appels à projet mondiaux, à l’instar de ce qui a été fait pour le « Make our planet great again ». Par ailleurs, il entend favoriser les allers-retours des chercheurs entre le public et le privé. Grâce à la loi Pacte, un chercheur public pourra désormais consacrer jusqu’à la moitié de son temps à une entité privée, contre 20% actuellement.

Développer l’expérimentation

Emmanuel Macron a entendu le message : il faut donner plus de place à l’expérimentation en France. D’ici l’été, la Loi Pacte permettra de lancer un appel à expérimentations dans chaque secteur de l’IA.

Par exemple, Emmanuel Macron souhaite retrouver le leadership européen en matière de véhicules autonomes, devant l’Allemagne. Très bientôt, la stratégie française pour le véhicule autonome sera dévoilée. Dès début 2019, le cadre législatif autorisera les expérimentations de niveau 4. Le niveau 4 « Eyes off, Hands off » ou « Mind Off » (sans intervention humaine) est la conduite autonome sans surveillance conducteur.  D’ici 2022, un cadre permettant la circulation des véhicules autonomes sera mis en place. En bout de chaîne, cela suppose de poser au plus vite le cadre d’homologation des véhicules autonomes.

Ouvrir les données publiques et privées

La France est un pays fortement centralisé et lui confère un avantage certain pour l’IA, grâce à des bases de données centralisées massives. Le Président compte ouvrir les bases de données publiques à des fins de recherche dans les prochains mois. Il ouvrira aussi les données obtenues grâce à des financements de fonds publics et les données issues de projets de recherche financés par l’Etat.

Emmanuel Macron annonce également vouloir faciliter la création de plateformes de partage de données entre acteurs publics et privés, avec une logique sectorielle. « Du secteur bancaire pour les données de transaction, à l’agriculture pour l’efficacité des pesticides, en passant par les données de tests de véhicules autonomes, c’est à une mobilisation générale autour de la donnée que j’appelle », prévient-il. Il désigne notamment quatre secteurs prioritaires dans lesquels l’Etat pourrait « jouer un rôle de structuration » : santé, mobilité, environnement et sécurité. Cela passera en outre par la promotion des logiciels libres partout où ils peuvent se développer.

Le chef de l’Etat lancera par ailleurs une réflexion au sein de l’UE pour avoir accès aux données privées. « Cette politique est inconcevable sans un cadre européen protégeant les données personnelles et permettant la pleine valorisation de ces données dans l’espace européen », précise-t-il. Car l’opinion publique devient sensible à l’utilisation de ses données personnelles. Et il ne faudra pas confondre l’usage des données agrégées et l’intrusion dans les données personnelles. Le nouveau règlement européen répond à ces questions mais doit aller plus loin pour assurer la maîtrise des données, dans un cadre transparent.

Définir un cadre réglementaire et financier français et européen

L’intelligence artificielle sera le premier champ d’application du fonds pour l’innovation et l’industrie de 10 milliards d’euros mis en place en début d’année. Sur le quinquennat, « ce sera un effort dédié d’un milliard et demi d’euros entraînant directement plus de 500 millions d’euros d’investissements privés supplémentaires qui sera mis en oeuvre pour accompagner l’émergence de ce grand pôle mondial de l’intelligence artificielle », annonce Emmanuel Macron. Près de 800 millions d’euros supplémentaires seront investis d’ici 2024 dans la nanoélectronique, ingrédient essentiel au développement de l’IA.

Emmanuel Macron entend définir un cadre financier européen dédié à l’IA. En plus de ses politiques historiques (PAC, fonds structurels), l’Union Européenne doit porter une ambition nouvelle en matière d’innovation, estime le Président Français.

Définir les enjeux éthiques et politiques de l’IA

Il reste enfin à construire les codes éthiques de l’IA. Des engagements de non discrimination sociale, ethnique, sexuelle doivent être pris. Ils devront également respecter les libertés individuelles, l’intimité et la vie privé. Dans cette perspective, « l’Etat rendra par défaut public le code de tous les algorithmes qu’il serait amené à utiliser, au premier rang desquels celui de Parcoursup », prévient le Président.

Une réflexion européenne et nationale sera lancée sur le contrôle et la certification des algorithmes, pour résister à la « privatisation opaque de l’IA ou à son usage potentiellement despotique ». Des discussions seront aussi mises en place au niveau international, notamment avec le Canada. Emmanuel Macron envisage même d’aller jusqu’à la création d' »un GIEC de l’intelligence artificielle » pour créer « une expertise mondiale indépendante qui puisse mesurer, organiser et nourrir le débat démocratique pour que l’IA ne devienne pas une instance de contrôle, mais de liberté ».

Par Matthieu Combe, journaliste scientifique

La formation professionnelle veut se réinventer

Muriel Pénicaud en est convaincue : 50 % des emplois seront transformés dans les dix prochaines années. Par ailleurs, entre 10 et 20 % de nouveaux emplois vont faire leur apparition. La formation professionnelle doit donc complètement être repensée. C’est l’objectif des 12 mesures annoncées par le gouvernement, notamment à destination des salariés les moins qualifiés, des Français au chômage ou travaillant à temps partiel.

L’accès à la formation professionnelle demeure très inégal en France. En effet, seulement 34 % des ouvriers ont accès à la formation professionnelle chaque année, contre 66 % des cadres. Les inégalités sont également particulièrement marquées en fonction de la taille des entreprises. Seulement 35 % des salariés dans les TPE ont accès à la formation, contre 62 % dans les entreprises de plus de 250 salariés. La réforme prévoit donc un système de solidarité des grandes entreprises vers les TPE et les PME pour faciliter l’accès de leurs salariés à la formation.

Accélérer la transformation des métiers et des mutations technologiques

La formation professionnelle doit être repensée pour incorporer les nouveaux métiers et les nouvelles technologies. Réalité augmentée, robotique ou cobotique, big data et numérique… des directeurs aux opérateurs et aux techniciens, tous les métiers sont concernés. Le manque de formation se fait déjà sentir. Selon l’Insee, 32% des entreprises citent le manque de main d’oeuvre compétente disponible parmi les barrières à l’embauche. Ce frein est particulièrement marqué dans le bâtiment (50%) et dans l’industrie (38%).

Dans ce contexte, l’innovation pédagogique sera favorisée pour encourager les formations innovantes – Moocs, e-learning, tutoriels vidéos, tablettes interactives, réalité virtuelle ou augmentée – et développer la formation en situation de travail. « L’action de formation se dilue aujourd’hui dans un faisceau de pratiques formatives bien plus larges qu’auparavant : la formation à distance, le digital learning, le coaching, le mentoring, par exemple, s’adaptent bien aux nouvelles organisations de travail », précise Claire Pascal, Directeur Général de Comundi et membre du Conseil d’Administration de la Fédération de la Formation Professionnelle.

Des évolutions concrètes

Afin de rendre les formations plus accessibles, tous les salariés verront désormais leur Compte Personnel de Formation (CPF) crédité de 500 euros par an et plafonné à 5000 € pour choisir eux-même leurs formations. Les salariés non qualifiés dont l’emploi pourrait être menacé à l’avenir verront leurs droits majorés à 800 euros par an, plafonné à 8000€. Les entreprises auront un taux de cotisation formation de 1 %, prélevé par l’Urssaf, dédié aux dispositifs obligatoires dont le CPF.

Les salariés à temps partiel seront également mieux lotis, puisqu’ils bénéficieront des mêmes droits que les salariés à temps plein. Cette mesure bénéficiera principalement aux femmes, souligne le gouvernement, puisqu’elles représentent 80 % des salariés à temps partiel. Un Plan d’investissement dans les compétences sera consacré aux demandeurs d’emploi et aux jeunes. Doté de 15 milliards d’euros, il vise à former un million de demandeurs d’emploi peu qualifiés et un million de jeunes éloignés de l’emploi supplémentaires d’ici 5 ans. L’accent sera particuièrement mis sur l’évolution des métiers et les grandes transformations, notamment numériques et écologiques.

Pour informer tout un chacun plus facilement sur le droit à la formation, une application mobile CPF sera développée. Chaque salarié ou demandeur d’emploi pourra y consulter ses droits acquis, ainsi que les formations disponibles et les avis laissés par les personnes déjà formées. Il pourra directement s’inscrire à la session de son choix.

Par Matthieu Combe, journaliste scientifique

Un an plus tard, que sont devenus les gagnants du MICM Start-Up Challenge ?

Quel est l’intérêt pour Carbon Waters de participer à ce type de challenge ?

Il y a un an, la société était encore en cours de création et, sortant d’un laboratoire CNRS, nous n’étions pas encore visible pour les entreprises. Il était donc essentiel d’être présent sur des salons pour rencontrer des industriels et présenter nos solutions. Ainsi, notre objectif en participant au challenge start-up de M2i (MICM à l’époque) était de mesurer l’intérêt que peuvent porter des industriels et des experts du domaine des matériaux sur cette innovation, mais aussi de mieux comprendre leur besoin pour concevoir nos futures gammes de produits. Cela a aussi été l’occasion de rencontrer de potentiels partenaires et les acteurs régionaux dans le domaine de la chimie et des matériaux.

 

Vous avez remporté ce Start-up challenge en 2017. Où en est votre société aujourd’hui ?

La société a été créée en décembre 2017 et nous avons débuté la commercialisation de nos nanomatériaux. Nous avons surtout engagé des discussions approfondies et lancé plusieurs études pour le compte de grands groupes industriels dans les domaines de l’énergie, du spatial, de la défense ou encore de l’automobile. Ces études visent à démontrer l’intérêt à la fois technique et économique vis-à-vis d’enjeux dans les domaines thermiques, électriques ou de protection des matériaux. Cette phase de développement et d’industrialisation de nos nanomatériaux nécessite d’accroître la taille de nos outils de production et nos équipements d’analyse. Ces investissements conséquents ne pourraient se faire sans un plan de financement de près d’un million d’euros que nous sommes en train de boucler grâce au soutien la Région Nouvelle Aquitaine, la BPI, de l’incubateur TechnoWest et d’un fonds d’investissement régional.

 

En tant que gagnant, vous bénéficiez d’un an d’accès à l’offre « Matériaux fonctionnels » de Techniques de l’Ingénieur. Comment l’utilisez-vous ?   

Nos études et développement de produits portent sur 3 domaines d’applications : le thermique, l’électrique et la protection de matériaux. Bien que nous soyons experts dans la production de nanomatériaux et leurs propriétés physico-chimiques, il est essentiel d’avoir des outils de veille nous permettant de définir des cahiers des charges pertinents et des plans d’études cohérents à nos clients. Pour cela, nous consultons régulièrement l’offre « Matériaux fonctionnels » de Techniques de l’Ingénieur.

 

Alban Chesneau sera présent lors du prochain événement M2i les 30 et 31 mai à Paris et animera la conférence « Graphène : comment exploiter ce matériau exceptionnel dans l’industrie ? »

Téléchargez le programme des conférences ici.

Plus de renseignements sur l’événement M2i ici.

 

Le graphène va-t-il (enfin) révolutionner la supraconductivité ?

On attend toujours beaucoup du graphène. Et il nous le donne ! Les propriétés de supraconductivité (induite ou directe) du graphène sont étudiées depuis que l’on connaît ce matériau. Jusqu’alors on avait réussi à donner au graphène des propriétés supraconductrices en le plaçant en contact avec d’autres matériaux supraconducteurs ou en le dopant avec des atomes de lithium par exemple, mais c’est la première fois que le graphène se montre supraconducteur par lui-même. Mais dans des conditions bien particulières. En effet, les recherches des physiciens du MIT, parues dans deux articles de Nature de mars 2018 – ici et – montrent comment le graphène peut se comporter comme un isolant total, bloquant le flux d’électrons ou comme un supraconducteur, où le courant électrique circule sans résistance quand deux feuillets sont placés dans une configuration bien précise.

magic-angle_0

L’angle magique

Pour obtenir cet étrange effet, les physiciens ont créé un super-réseau de deux feuillets de graphène empilés l’un sur l’autre mais pas exactement en correspondance : les deux feuillets sont en effet en rotation de 1,1° l’un par rapport à l’autre. Un angle magique pour lequel les interactions entre les électrons des deux feuillets sont particulières et très fortes alors qu’à d’autres angles les feuillets de graphène superposés interagissent très peu électroniquement l’un avec l’autre. Lorsque les deux feuillets sont positionnés dans cet angle magique, les feuillets se comportent comme un isolant. Mais lorsque on applique une tension au super-réseau de graphène, à partir d’un certain seuil, les électrons cassent cet état d’isolant et le matériau devient supraconducteur !

Outre des applications que l’on pourrait aisément envisager comme la fabrication d’un transistor de graphène que l’on pourrait faire passer de l’état isolant à supraconducteur à façon, cette découverte excite surtout les esprits des physiciens à travers le monde en raison des implications possibles en matière de supraconductivité non-conventionnelle.

Une lumière sur les cuprates ?

Les physiciens du MIT clament qu’ils ont trouvé une porte d’entrée et d’étude simplifiée vers les supraconducteurs non-conventionnels et les isolants de Mott (ces matériaux qui présentent la particularité d’avoir une structure de bandes électroniques pouvant donner lieu à des phénomènes de conduction électrique mais qui deviennent isolants du fait d’une forte interaction répulsive entre leurs électrons). Les supraconducteurs non-conventionnels, aussi appelés cuprates, révèlent leurs propriétés supraconductrices à de hautes températures (entendez par là aux alentours de 100°K au lieu de quelques degrés au-dessus du zéro absolu de 0°K soit -256°C). Étudies depuis plus de 30 ans les cuprates n’ont pas encore dévoilés tous les secrets de leur fonctionnement. Une clé éventuelle pour réaliser la supraconductivité à température ambiante.

Avec cette découverte, la communauté scientifique est à présent partagée. Comme l’illustre un article des news de Nature il y a ceux qui pensent que le graphène, bien que dans les recherches exposées ici sa supraconductivité se manifeste à 1,7°K, se comporte comme un cuprate et pourrait donc devenir une plateforme de recherche et de compréhension des phénomènes électroniques qui ont lieu dans ces matériaux. Cette découverte serait alors pour eux comme « une lumière qui viendrait de s’allumer » selon l’expression de Robert Laughlin, prix Nobel de physique 1998. D’autres sont plus sceptiques. Ainsi, Kamran Behnia, directeur de recherche au CNRS à l’École supérieure de physique-chimie de Paris (ESPCI), pense plutôt que si le graphène vient de prouver qu’il est un supraconducteur, et certainement un supraconducteur inhabituel, il n’est pas pour autant forcément un isolant de Mott. Ce qui est sûr pour tous, c’est que les recherches sur le sujet vont être relancées et abondantes dans les prochaines mois.

Sophie Hoguin

3750s

illustrations de l’empilement (voir pièces jointes)

  • image fixe crédit Les auteurs
  • ou image gif animée (MIT/Les auteurs)

Revue du web #113 : les 5 vidéos scientifiques les plus étonnantes du mois

Un exosquelette pour piloter un drone avec son corps

Des chercheurs de l’Ecole polytechnique fédérale de Lausanne ont créé FlyJacket, un exosquelette muni de capteurs qui permet de manoeuvrer un drone. La promesse : jouir d’une vraie sensation de vol.

 

Station pour taxis volants : Volocopter livre un aperçu

Voici à quoi pourraient ressembler les futures stations de taxis…

 

Sécurité routière : une route qui chante au moindre écart

Testé depuis quelques semaines aux Pays-Bas, ce procédé inventé par un ingénieur japonais ne fait pas l’unanimité.

 

La Terre filmée en HD

Une entreprise britannique (Earth-i) vient de dévoiler les premières vidéos de la Terre filmée par son nouveau satellite installé à 505 kilomètres d’altitude.

 

Un robot capable de monter les meubles IKEA à votre place

Deux bras robotisés bardés de caméras 3D et de capteurs de pression, voici votre nouvel ami.

I. B

 

Les robots envahissent les entrepôts

L’automatisation dans les entrepôts existe depuis quelques années. Des véhicules à guidage automatique sont utilisés pour automatiser efficacement les tâches de transport horizontal répétitives et répétitives dans le processus de manutention.

Mais le principe des « étagères mobiles » (appelé aussi « goods to man ») répond parfaitement aux exigences des sites de e-commerce et de la distribution. Elle permet de bénéficier d’une organisation optimale et elle évite aux personnels de nombreux kilomètres à pied (en moyenne une quinzaine de kilomètres par jour…). 

Cette solution repose sur une armée de petits robots capables d’apporter automatiquement des étagères de produits aux opérateurs qui n’ont plus qu’à prélever les articles de la commande pour la constituer. Ce sont donc les « étagères » de pièces détachées ou de produits qui arrivent jusqu’à l’opérateur et plus l’inverse.

Après avoir acheté en 2012 Kiva Systems, constructeur de petits robots dédiés à la logistique d’expédition, Amazon en a déployé 50.000 unités dans ses centres logistiques outre-Atlantique. C’est l’une des raisons du succès de ce poids lourd américain qui vante ses délais très courts de livraison.

Des allées plus petites

Poussé par les plus grands du e-commerce comme Amazon et Alibaba, ce concept d’« étagères mobiles » tend à se généraliser dans les entrepôts, y compris dans l’hexagone où plusieurs distributeurs dans l’alimentaire, le textile ou les pièces détachées pour l’industrie aéronautique ont engagé d’importants travaux dans cette optique. (LIEN : http://dai.ly/x595o50. Un magasin entièrement automatisé où sont stockées des milliers de pièces pour Airbus).

Créée en 2013, une start-up française, Scallog, s’est spécialisée dans le « goods to man ». Le robot de l’entreprise parisienne n’est pas révolutionnaire. Équipé de capteurs simples et peu coûteux, il suit des bandes posées au sol. C’est l’intelligence du robot qui est plus complexe. L’unité centrale doit être capable d’orchestrer la flotte d’engins en leur affectant des missions tout en s’interfaçant parfaitement avec le logiciel de gestion d’entrepôt de l’entreprise. 

Les bénéfices sont doubles selon Scallog. Premièrement, une productivité multipliée par 4 (selon les secteurs d’activité) et une diminution de la surface de stockage de 20 à 30 %. Il n’est en effet plus nécessaire d’envoyer des personnes dans les allées, ce qui élimine le besoin d’allées larges capables d’accueillir des palettes encombrantes. Au sol, la surface des entrepôts est donc réduite; par contre, leur hauteur est plus importante, car les risques sont moindres qu’avec des êtres humains.

Le mauvais rayon

Les petits robots qui amènent des étagères ne sont pas les seules solutions déployées pour améliorer la productivité des entrepôts. Right Hand Robotics, une start-up américaine issue de recherches menées à Harvard, a conçu un bras robotique spécialisé dans les tâches de collecte (le fameux « pick and place ») si pénible pour des opérateurs. Équipé de caméras et doté d’une intelligence artificielle (plus précisément du machine learning), il est capable d’attraper les bonnes pièces.

Enfin, des robots peuvent être utilisés dans les hypermarchés. Ceux développés par l’entreprise californienne Fetch Robotics et la start-up Trax Image Recognition sont capables détecter en temps réel une rupture linéaire ou un mauvais placement de produit en rayon.

Philippe Richard

La formation : un véritable enjeu pour l’industrie du futur

Portrait de Claire Pascal, Directeur Général de Comundi

Vous dirigez Comundi, acteur majeur de la formation continue en France et opérateur des formations Techniques de l’Ingénieur. Comment vous préparez-vous à accompagner les entreprises dans cette conduite du changement ?

Nous constatons effectivement la nécessité de faire de la formation un processus continu qui accompagne et oriente les carrières. Dans le même temps, la rapide évolution des technologies et des besoins amène à procéder à des adaptations rapides des compétences.

Les réponses passent surtout par de profondes transformations des entreprises de formation : il faut adapter les modalités pédagogiques aux besoins des salariés, pour leur permettre de suivre les évolutions techniques et technologiques.

L’action de formation se dilue aujourd’hui dans un faisceau de pratiques formatives bien plus larges qu’auparavant : la formation à distance, le digital learning, le coaching, le mentoring, par exemple, s’adaptent bien aux nouvelles organisations de travail.

C’est donc bien l’expertise qui est demandée, telle qu’elle existe dans les formations Techniques de l’Ingénieur, conjuguée à la souplesse d’intervention pour mieux s’adapter à la disponibilité des salariés. C’est ce que nous développons cette année avec le déploiement d’une offre en classe virtuelle.

De façon plus large, nous assistons actuellement à un véritable « big bang » de la formation. Mais à qui vont profiter les principales mesures annoncées par la ministre du travail, Muriel Pénicaud, sur la réforme de la formation professionnelle ?

Les mesures annoncées par la Ministre du Travail semblent profiter particulièrement aux demandeurs d’emploi et aux actifs, sur un plan individuel. La mise en place d’un Compte Personnel de Formation en euro, et non plus en heure, leur donne un véritable pouvoir d’achat en matière de formation. La vraie question est de pouvoir y accéder réellement.

A ce jour, l’éligibilité des formations au CPF et la fluidité du système d’alimentation de l’offre de formation sont des éléments clés du dispositif sur lequel nous n’avons encore que peu de visibilité.

Les entreprises ne sont pas concernées par cette réforme, sauf si elles donnent du temps aux salariés pour utiliser leur CPF pendant le temps de travail. Ce n’est pas non plus clarifié.
Elles auront donc un « impôt » formation, prélevé par l’Urssaf, dédié aux dispositifs obligatoires dont le CPF. Elles devront financer par elles-mêmes leur plan de formation devenu plan de développement des compétences.
Seules les PME pourraient se voir doter de financements mutualisés venant des grandes entreprises mais avec un système de répartition via la nouvelle instance « France Compétences » non précisé à ce jour.

Quelles réponses concrètes Comundi apporte à l’obsolescence des compétences ?

Nous considérons l’obsolescence des compétences comme un facteur qui s’accélère. Il ne s’agit plus de former à un métier mais de former à changer de métier.

C’est pourquoi les formations dites transversales ou « soft skills » prennent une importance majeure. Elles consolident le socle qui va permettre à chaque salarié d’ancrer de manière continue, tout au long de sa carrière, les nouvelles compétences techniques et technologiques.

Notre offre est particulièrement adaptée pour accompagner ce mouvement. Une partie de celle-ci est dédiée aux formations aux compétences transversales, avec depuis 30 ans une expertise reconnue. En parallèle, avec les formations Techniques de l’Ingénieur, nous proposons une gamme technique et pointue pour s’adapter aux rapides mutations technologiques.

Notre pédagogie évolue aussi en intégrant du digital learning dans l’esprit d’une formation augmentée, permettant gain de temps et souplesse tout en gardant les effets bénéfiques du présentiel.

Par ailleurs, nous nous efforçons d’apporter des informations et des réflexions à nos clients sur les évolutions liées aux métiers ou aux compétences à travers une nouvelle rubrique sur notre site le Mag des Compétences.

Cliquez ici pour télécharger notre catalogue « L’excellence à la française » 

Trois techniques pour augmenter la capacité des disques durs

Depuis l’apparition des premières disquettes dans les années 70 (capables de stocker 80 000 caractères…), les fabricants ont fait d’énormes progrès. Ils ont ajouté des plateaux et des têtes. Mais cela a augmenté l’épaisseur du disque dur. Un modèle de Western Digital de deux téraoctets est un peu plus épais qu’un disque dur de 500 gigaoctets de la même période.

Étape suivante : des plateaux plus minces avec la production de disques durs hermétiques remplis d’hélium. Moins épais, mais plus de capacité : ils peuvent enregistrer 14 To environ. Autre technique employée : l’enregistrement perpendiculaire, au détriment de l’enregistrement longitudinal. Les bits sont disposés verticalement et côte-à-côte sur un plateau tournant. Cet enregistrement perpendiculaire a permis de diminuer la surface des bits individuels tout en empêchant les bits d’affecter accidentellement leurs voisins.

Densité surfacique

Aujourd’hui, de nouvelles pistes sont envisagées. Fin 2017, Western Digital a fait la démonstration du « premier disque dur au monde » exploitant la technologie MAMR. Un acronyme pour Microwave-Assisted Magnetic Recording ou enregistrement magnétique assisté par micro-ondes. Western Digital encapsule un oscillateur à côté de la tête d’écriture. Le procédé de fabrication est proche de celui d’un semi-conducteur.

Avec le MAMR, Western Digital devrait, à terme, permettre de stocker 4 térabits par pouce carré, soit un peu plus de 79 Go par cm². À titre de comparaison, le disque dur He12 de HGST (12 To, PMR) a une densité surfacique de 0,84 térabit par pouce carré (environ 16 Go par cm²), soit près de cinq fois moins tout de même.

Son concurrent direct ne reste pas les bras croisés. D’ici la fin de 2018 ou le début de 2019, Seagate pourrait proposer des supports reposant sur la technologie d’entraînement d’enregistrement magnétique assisté par la chaleur (HAMR).

Elle utilise un petit laser – de la taille d’un grain de sel – pour chauffer la partie du disque sur laquelle on écrit. Cette technique permet de polariser de manière stable un grain magnétique sur surface du plateau. La marque estime que ses premiers disques HAMR afficheront 20 To de capacité par disque dès 2019. Leur densité surfacique serait de 2 térabits par pouce carré (soit près de 40 Go par cm²). Vers 2030, la capacité de stockage pourrait atteindre les 50 To.

20 To sur un verre de 0,381 mm !

L’étape suivante est l’enregistrement magnétique à point chauffé (HDMR) qui combine la technologie HAMR avec des supports à motifs binaires. Seagate s’attend à ce que cette technologie permette à terme de livrer un disque dur de 100 To.

Mais la prochaine évolution majeure devrait être les disques durs en verre. Comparés aux disques durs en aluminium, les substrats en verre sont plus minces et plus légers. Actuellement, Hoya (une entreprise japonaise créée en 1941 et spécialisée dans la fabrication de plateaux à base de verre pour les disques durs 2,5 pouces), mais aussi des experts de l’Université de Southampton au Royaume-Uni, ont commencé à fabriquer des prototypes de disques durs en verre. Ceux d’Hoya affichent une capacité de 20 To et une épaisseur de 0,381 mm. Un autre avantage de cette technologie est sa compatibilité avec l’enregistrement magnétique assisté par la chaleur (HAMR) de Seagate.

Un gain énorme comparé aux plateaux traditionnels. Un disque de 12 To est composé de huit plateaux. Hoya croit qu’en diminuant l’épaisseur des plateaux grâce à sa technologie de verre, il pourrait contenir jusqu’à 12 plateaux à l’intérieur d’un disque dur de 3,5 pouces. Le japonais estime qu’un seul disque pourrait stocker jusqu’à 18 To.

Mais il faut se méfier de toutes ces annonces. Il sera intéressant dans quelques années de revoir ce qui avait été prévu. Selon Advanced Storage Technology Consortium (ASTC), la technologie HAMR permettra d’obtenir des disques durs de 100 To d’ici 2025,

Philippe Richard

Revue de presse anglophone #15

Des scientifiques créent accidentellement une enzyme mutante qui mange des bouteilles

plasticLes scientifiques ont créé une enzyme mutante qui détruit les bouteilles de boissons en plastique – par accident. La percée pourrait aider à résoudre la crise mondiale de la pollution plastique en permettant pour la première fois le recyclage complet des bouteilles. Lire l’article

Un robot monte seul un meuble IKEA

19xp-robot-jumboUne équipe de l’Université technologique de Nanyang a programmé un robot pour créer et exécuter un plan visant à assembler la plus grande partie de la chaise Stefan en pin massif d’Ikea à 25 $ , faisant appel à un mélange de compétences humaines pour le faire. Lire l’article

Cambridge Analytica a tenté de lancer sa propre monnaie virtuelle

merlin_118574051_4f0802f6-dc42-4050-8d4f-63aa87c0bba4-master768La société de données politiques Cambridge Analytica a discrètement cherché à développer sa propre monnaie virtuelle ces derniers mois grâce à une offre initiale de pièces de monnaie, une nouvelle méthode de collecte de fonds examinée de plus en plus par les régulateurs financiers du monde entier. Lire l’article

Les embouteillages dans les 4 plus grandes villes indiennes coûtent 22 milliards de dollars par an

traffic

En moyenne, les voyageurs de Delhi, Mumbai, Bangalore et Kolkata passent 1,5 heure de plus par jour que leurs homologues des autres villes asiatiques pendant les heures de pointe, selon un rapport publié le 18 avril par le Boston Consulting Group (BCG) et commandé par Uber. Lire l’article

La Silicon Valley a très mal pris l’audition de Mark Zuckerberg devant le congrès américain

zuck

Pour les acteurs de la Silicon Valley, la critique du Congrès contre le directeur général de Facebook, Mark Zuckerberg, était comme un référendum sur l’industrie elle-même et sur la stratégie de croissance à tout prix du réseau social, que des centaines de start-ups ont cherché à imiter ces dix dernières années. Lire l’article

Un nouvel outil pour suivre le bilan carbone de la végétation : première application au continent africain

En lien avec les équipes scientifiques du CEA, du Cnes et du CNRS, l’Inra a coordonné le développement du jeu de données issu d’observations satellitaires micro-ondes qui est à la base de l’approche. L’étude démontre que sur le continent africain et durant la période 2010-2016, le bilan net de carbone est négatif (baisse des quantités de carbone retenu par la végétation), et que la majorité des pertes de carbone s’est produite dans les savanes arborées des régions semi-arides. Ces résultats sont publiés le 9 avril 2018 dans la revue Nature Ecology and Evolution.

Le continent africain fait face à une des périodes les plus sèches sur les trente dernières années et à une déforestation continue. Cette pression combinée du climat et des activités humaines a un impact sur les stocks de carbone de la végétation et met en avant le besoin d’outils de suivi de la dynamique de ces stocks. Quel est le rôle des différents types de végétation (formations arbustives, savanes arborées, forêt tropicale) ? Quelle est leur sensibilité aux épisodes de sécheresse ?

Un outil nouveau et unique produit par les équipes françaises

Les chercheurs de l’Inra et leurs collègues ont produit un nouveau jeu de données de l’indice de végétation, appelé L-VOD (L-band vegetation optical depth), issu des observations spatiales du satellite SMOS entre 2010 et 2016. Ces données ont permis de quantifier les changements dans les stocks de carbone sur l’ensemble de l’Afrique sub-saharienne sur la période.

L’indice L-VOD issu d’observations micro-ondes basse fréquence, permet de sonder l’ensemble de la strate végétale alors que les mesures effectuées jusqu’à présent (dont les indices VOD issus d’observations hautes fréquences) étaient seulement capables d’explorer le sommet de la canopée en particulier lorsque la strate de végétation forestière est relativement dense.

Dans cette étude, l’indice L-VOD apporte une dimension temporelle à des cartes globales mais statiques de la biomasse de la végétation. Le nouvel outil permet un suivi inédit de la dynamique des stocks de carbone de la végétation.

Cette nouvelle méthode permet de suivre la dynamique saisonnière des pertes et gains de carbone mais aussi de la mettre en relation avec l’impact du climat. Ce type d’outils est indispensable aux initiatives internationales pour lutter contre le changement climatique. L’indice L-VOD est particulièrement pertinent pour étudier les formations végétales relativement denses où le signal des autres capteurs de télédétection sature. C’est aussi un outil de choix pour suivre les régions semi-arides où très peu d’inventaires au sol sont disponibles.

Les premiers résultats appliqués au suivi sur le continent africain

L’étude montre que globalement sur le continent africain et sur la période 2010-2016, le bilan net de carbone est négatif (−0.10 PgC yr−1)3 et que la majorité des pertes de carbone s’est produite dans les savanes arborées des régions semi-arides. Dans ces régions, les pertes brutes annuelles représentent approximativement 5% du total des stocks de carbone disponible. Les changements nets dans les régions semi-arides apparaissent clairement associés à des tendances de dessèchement.

Les analyses démontrent une forte variabilité interannuelle dans les stocks avec des gains lors des années très humides (2011 et 2013) et des pertes au cours de 2015, une année très sèche marquée par un évènement El Niño sévère.

Cette étude remet en question l’idée que les savanes arborées africaines pourraient servir de puits de carbone sur le long terme. En effet, les auteurs montrent que les récentes années sèches sur la période 2010-2016 ont conduit à considérer ces régions comme une source de carbone, en particulier en Afrique du Sud, signifiant que sur le court terme le climat contrôle les variations des stocks de carbone à grande échelle. Sur le long terme, la question du maintien du rôle des savanes africaines comme puits de carbone reste donc ouverte.

cap-carte-1

Source : cnrs

Ludylab, un «living lab» à la campagne

«Fun and learn», ce qui peut se traduire par «apprendre et s’amuser» : c’est la devise du Ludylab, un laboratoire inauguré le 20 mars dernier et affecté à la pratique ludique des drones, de la réalité virtuelle ou encore de l’impression 3D. Son organisation suit les principes du «living lab», un lieu d’échange d’idées et de savoirs, où sont invités à se rencontrer les chercheurs, les entrepreneurs et les citoyens-usagers, appelés à contribuer activement aux projets. Les «living labs» se comptent par dizaine désormais en France. Mais le Ludylab a quelque chose de singulier : il est implanté à Chambretaud, petite commune vendéenne de quelque 1500 habitants, loin des grands centres urbains qui accueillent d’ordinaire de telles structures.

_NK28024

Le pari de Jean-Michel Mousset, co-fondateur du Ludylab (avec plusieurs membres de sa famille notamment), est audacieux : établir une plateforme consacrée à l’innovation en milieu rural. Terre d’agriculture et d’industries agro-alimentaires, où «les usines sont à la campagne» selon le Conseil départemental, la Vendée n’est pas la plus engagée dans la «révolution» numérique. L’ancien dirigeant du groupe de transports Mousset s’est donc montré ambitieux afin que le site soit attractif et encourage la naissance d’un écosystème alentour. Construit sur une ancienne friche industrielle, Ludylab s’étend sur une superficie de 4500 m2 et représente un investissement privé d’un million d’euros. Une campagne de financement participatif a en outre été ouverte sur la plateforme Vendée Up.

La plus grande volière d’intérieur de France

L’espace consacré au pilotage de drones occupe à lui seul 900m2 et mesure 9 mètres de haut. En France, c’est la plus grande volière d’intérieur dédiée à cette activité, selon les responsables du Ludylab. Les visiteurs ont à disposition neuf modèles de drones, des casques de vision à la première personne et un dispositif innovant de contrôle obéissant aux mouvements de la main. Ils ont la possibilité de s’initier au pilotage et à la prise de vue, voire de participer à des ateliers de programmation et de fabrication, en accord avec la tradition du «fab lab». Du reste, le Makerspace constitue le deuxième gros morceau du Ludylab. Il héberge pour le moment deux imprimantes 3D et se voue au prototypage et à l’expérimentation. Un partenariat local avec le fab lab de l’établissement scolaire de Saint Gabriel a été mis sur pied. Par ailleurs, quinze postes de travail sont regroupés au sein d’un bâtiment annexe et une dizaine de couchages sont également prévus. L’esprit «start-up» est revendiqué partout.

_NK18518

Le troisième pôle promeut la réalité virtuelle et se sépare en deux parties, intégralement équipées de casques HTC Vive. D’un côté, l’«escape game» incite deux à quatre joueurs à s’entraider pour résoudre des énigmes lors d’un périple spatio-temporel long d’une bonne heure. De l’autre, plusieurs postes privilégient le réflexion et l’action, solo ou multijoueurs, en s’appuyant sur des jeux typés arcade, provenant d’éditeurs tiers. Le Ludylab ne compte pas s’arrêter là. «Nous souhaitons développer des projets de réalité virtuelle/réalité augmentée et concevoir des formations et des ateliers d’accompagnement, tant sur les nouvelles technologies que sur le développement personnel» confie Pascale Mousset, co-fondatrice.

Aucun objectif de résultat n’a été fixé. «Nous n’avons pas de modèle économique prédéfini, poursuit Pascale Mousset, nous voulons expérimenter en mode start-up». Le chiffre d’affaire du Ludylab sera constitué par l’addition des recettes des entrées, des prestations pour les entreprises (séminaires, etc), du sponsoring, du mécénat, voire d’aides publiques. Le réseau tissé par Jean-Michel Mousset au cours de sa carrière professionnelle sera probablement d’un grand soutien pour drainer une clientèle d’entreprise. Quant au grand public, les initiateurs du Lubylab tablent sur la proximité du Puy-du-Fou et espèrent que les visiteurs de ce parc de loisirs, d’inspiration médiévale, seront aussi tentés par des expériences ludiques plus contemporaines.

A partir de 25 € par heure et par personne

Frédéric Monflier

Youtube s’infiltre sur le site des impôts

Au 17 avril, plus de 1,7 million de Français ont décidé de faire leur déclaration d’impôts sur le revenu en ligne. Lorsqu’ils se connectent au site des impôts pour leur déclaration 2018, une vidéo se lance automatiquement. Et grâce à elle, Google va pouvoir récupérer des informations précieuses sur les contibuables français. En quelques jours, la vidéo a déjà été visionnée plus de 4,7 millions de fois, témoignant d’un visionnage multiple de la part des internautes.

Le site NextImpact a réagi en dénonçant un dispositif qui interroge, « tant sur sa moralité que sur sa légalité ». L’internaute était en effet obligé de visionner cette vidéo au moins 60 secondes avant de pouvoir accéder au site. Par ailleurs, « la vidéo étant affichée par défaut, les informations de navigation de l’utilisateur sont envoyées au service américain, ce dernier déposant des cookies sur la machine de l’utilisateur, qui n’aura pas donné son consentement », s’indigne NextImpact.

Google au courant de vos données fiscales ?

La vidéo diffuse des traqueurs qui récupèrent des données des internautes à des fins publicitaires. Google pourrait ainsi se procurer quelques informations précieuses pour suivre les internautes et enrichir leur profil publicitaire. Par ailleurs, Google récupère leur adresse IP et peut retracer leur navigation avant leur déclaration de revenus. Et si, en plus, vous êtes un utilisateur de Gmail, l’entreprise américaine peut lier cette historique avec votre agenda, vos mails ou encore votre localisation. Goole pourrait ainsi facilement être au fait d’éléments importants sur votre situation fiscale, déclarée ou pas.

Face à ce tollé, la DGFIP a réagi dans un communiqué. « il n’y a aucun risque de confidentialité sur les données fiscales des usagers dans l’utilisation qui est faite de ces plate-formes sociales », assure Bercy. Pourquoi ne pas avoir choisi une autre plateforme? « De nombreux sites gouvernementaux utilisent des plate-formes externes de type Facebook, Youtube et Twitter, car ce sont des plate-formes populaires, largement utilisées par un grand nombre d’internautes, qui permettent de diffuser largement une information », répond l’administration. « Il n’y a aucun risque de confidentialité sur les données fiscales des usagers dans l’utilisation qui est faite de ces plate-formes sociales », veut-elle rassurer. Toutefois, la DGFIP a changé son fusil d’épaule : il est désormais possible de fermer la vidéo au bout de 5 secondes pour accéder au site. Elle serait par ailleurs en train de réfléchir à une solution d’hébergement de repli, fait savoir Le Point.

Par Matthieu Combe

Des capteurs de lumière moins chers, moins toxiques et recyclables pour la production d’hydrogène

La réalisation d’une photosynthèse artificielle en solution reste cependant limitée par l’utilisation, pour capturer la lumière, de composés à base de métaux coûteux et toxiques. Des chercheurs du CNRS, du CEA et de l’Université Grenoble Alpes proposent une alternative efficace avec des nanocristaux semi-conducteurs (ou « quantum dots »), à base de cuivre, d’indium et de soufre, des métaux moins onéreux et moins toxiques. Ces travaux sont publiés dans Energy & Environmental Science le 10 avril 2018.
Dans les systèmes de photosynthèse artificielle, les chromophores, ou « photosensibilisateurs », absorbent l’énergie lumineuse et transfèrent les électrons au catalyseur, qui active la réaction chimique. Alors que de nombreux progrès ont été réalisés ces dernières années dans le développement de catalyseurs sans métaux nobles, les photosensibilisateurs reposent encore, pour la plupart, sur des composés moléculaires à base de métaux rares et coûteux, comme le ruthénium ou l’iridium, ou sur des matériaux semi-conducteurs inorganiques contenant du cadmium, un métal toxique.

Pour la première fois, des chercheurs du Département de chimie moléculaire (CNRS/Université Grenoble Alpes) et du SyMMES (CNRS/CEA/Université Grenoble Alpes)1 ont démontré, en combinant leurs expertises en ingénierie des matériaux semi-conducteurs et en photocatalyse, qu’il est possible de produire très efficacement du dihydrogène en associant des nanocristaux semi-conducteurs (ou « quantum dots ») inorganiques constitués d’un cœur de sulfure de cuivre et d’indium, protégé d’une coquille de zinc et de soufre, à un catalyseur moléculaire à base de cobalt. Ce dispositif « hybride » combine les excellentes propriétés d’absorption de la lumière visible et la stabilité des semi-conducteurs inorganiques à l’efficacité des catalyseurs moléculaires. En présence d’un excès de vitamine C, qui fournit les électrons au système, il montre une activité catalytique remarquable dans l’eau, la meilleure obtenue à ce jour avec des « quantum dots » sans cadmium. Les performances de ce système sont bien supérieures à celles obtenues avec un photosensibilisateur à base de ruthénium, grâce à la très grande stabilité de ses matériaux inorganiques, qui peuvent être recyclés plusieurs fois sans perte notable d’activité.

Ces résultats mettent en évidence le grand potentiel de tels systèmes hybrides pour la production d’hydrogène issue de l’énergie solaire.

hydrogene-capture

Source : cnrs

Une expédition sur les traces du réchauffement climatique #5

« 26eme jour d’expédition Sur les Traces de l’Or Blanc.

Après avoir traversé Jameson Land, nous avons atteint la Terre de Liverpool qui s’y trouve à l’Est. Nous y avons posé un camp pendant 4 jours qui nous ont permis d’explorer les alentours et d’y faire un peu d’alpinisme. Nous avons décidé de remettre un peu de challenge dans notre aventure en décidant de rentrer à pied à Ittoqqorttormitt (la ville de 450 habitants tout au Sud de la Terre de Liverpool) en passant par l’est.

image1

Nous voici donc de retour sur la banquise avec nos amis les Icebergs mais côté Océan Arctique. Nous avons posé un camp près d’une cabane de pêcheurs/chasseurs dont voici la photo (ci-dessus). C’est un signe que nous nous rapprochons enfin d’une civilisation après avoir croisé les traces d’une faune et une flore qui pour l’instant se cache.

Lors de ces 4 semaines, nous avons pu apercevoir sur la neige les  empreintes de nombreux mammifères : renards, lapins, loups, ours blanc (surnommé Le seigneur de l’Arctique) bœufs musqués; mais nous n’avons entraperçu que ces derniers, au pelage noir.

Côté mer, nous avons deviné au loin des tâches noires qui d’un coup disparaissent de la banquise; des phoques qui profitaient d’un bain de soleil.

La flore aussi s’adapte à cet environnement hostile : pas d’arbres ne poussent, que des arbustes bas de 5cm qui résistent au vent et hibernent sous la neige. C’est sûr, l’Homme n’est pas ici dans son environnement non plus et seules quelques cabanes lui permettent de s’éloigner de la ville. Faune, flore et civilisation attendent toutes la même chose : l’été et le dégel. On se demande quelles sont les impacts du réchauffement climatique sur cet équilibre.

Nous tenterons d’y répondre la semaine prochaine en direct d’Ittoqqorttormitt pour la dernière étape de l’expédition. »

 

Produire de l’électricité à partir des fluctuations de température ambiantes

Avec ce nouveau procédé, pas besoin d’avoir des sources simultanées à des températures différentes, ni d’avoir des différences importantes, la fluctuation entre températures diurnes et nocturnes peut suffire. Bien sûr, la production n’est pas extraordinaire, mais néanmoins suffisante pour alimenter des capteurs qui doivent fonctionner en continu et sur de longues années par exemple. Et ce sans autre source d’énergie. Du coup, ce dispositif constitue une source d’électricité faible mais indépendante, ubiquitaire et qui s’affranchit de nombreuses contraintes environnementales (ensoleillement, vent etc). On pourrait envisager de le placer sous un panneau solaire, où il récupérerait une partie de la chaleur perdue, ou même l’enterrer sous terre, dès lors qu’il y existe des changements de températures.

Un record d’effusivité thermique

Lors des tests, ce résonateur thermique s’est montré trois fois plus performant que ses équivalents pyroélectriques disponibles sur le marché. Pour aboutir à un système le plus optimisé possible, les chercheurs ont travaillé sur la mise au point d’un matériau qui allie à la fois une bonne conductivité thermique (capacité d’un matériau à conduire la chaleur) et une bonne capacité thermique (capacité à accumuler la chaleur) : deux propriétés qui généralement ne vont pas ensemble. L’article paru dans Nature Communications explique notamment comment ils ont mis au point un matériau composite dont la structure de base une mousse métallique de cuivre et de nickel recouverte d’une couche de graphène. La mousse est ensuite emplie d’octadecane dont la particularité est de changer de phase (de solide à liquide) dans une gamme de température particulièrement pertinente. C’est l’octadécane qui stocke la chaleur et les métaux recouverts de graphène qui permettent une conduction rapide aboutissant à la conversion de la chaleur en électricité. « La combinaison des trois composants fait du dispositif le matériel avec la plus haute effusivité thermique connue aujourd’hui », affirme Mickael Strano, le professeur qui a supervisé ces recherches. Au final, le dispositif capture la chaleur d’un côté, celle-ci irradie doucement vers l’autre côté. Le système est toujours en déséquilibre d’un point de vue thermique et tente de se rééquilibrer. Cette perpétuelle différence entre les deux côtés est stockée dans des composants thermoélectriques classiques.

Pour donner une idée des résultats obtenus, l’appareil a pu produire un courant de 350mV et une puissance de 1,3mW grâce à une différence de 10°C entre le jour et la nuit.

Des applications très diverses

Les travaux pour mettre au point ce procédé ont bénéficié d’une bourse de l’Université de science et technologie du roi Abdullah d’Arabie Saoudite (KAUST), en vue notamment de mettre au point des capteurs de surveillance des conditions d’exploitation du gaz et du pétrole énergétiquement autonomes. Mais en réalité, ce résonateur thermique peut s’adapter à n’importe quel système qui présente une variation de température comme l’alternance marche/arrêt du système de chauffage/réfrigération d’un frigo ou de nombreux process industriels. Il pourrait même s’adapter à des besoins locaux sur d’autres lunes et planètes en fournissant de l’énergie sur le long terme pour des landers ou des rovers. En outre, il permet de s’inscrire dans un mouvement plus large visant à diversifier les sources d’énergie des process et à les rendre indépendantes les unes des autres pour faire face aux défaillances de l’un des systèmes. « Dans ce cadre notre solution, est un système supplémentaire qui même s’il est insuffisant pour alimenter un process industriel peut simplement permettre l’envoi d’un message d’urgence », explique l’un des auteurs.

Sophie Hoguin

Une peau artificielle dote les mains de capacités magnétiques

Aujourd’hui, la réalité virtuelle ou augmentée s’appuie principalement sur des technologies de détection optique des parties mobiles du corps pour l’interaction avec des objets virtuels. Cependant, elle nécessite souvent des dispositifs encombrants et sa résolution n’est pas suffisante pour des mouvements fins comme ceux des doigts par rapport à la paume d’une main par exemple. Pour aller au-delà, des chercheurs de laboratoires allemands et autrichiens, dans le cadre du programme européen SMART, se sont attachés à trouver une solution qui s’appuie sur la sensibilité magnétique et qui colle littéralement à la peau. Le concept et sa mise en œuvre pourraient révolutionner l’emploi de la réalité augmentée pour de nombreuses applications allant du suivi de mouvement en robotique à la médecine régénérative ou aux jeux vidéos.

application peau magnétique
@ Crédit Cañón Bermúdez et al / Sci. Adv. 2018

Une peau électronique ultrafine

Les capteurs sont intégrés entre deux feuillets d’une peau électronique ultrafine. Cette peau est constituée de deux films ultraminces (1,7 µm chacun) de polyimide. Extensible, souple et imprimable, ce film peut s’appliquer sur n’importe quelle partie de la main sans gêne importante pour le porteur. Il peut aussi être intégré à des matériaux souples comme les textiles et il supporte une température maximale de 344°C. Si les chercheurs ont assez rapidement réussi à réaliser un capteur magnétosensible qui s’intégrait à leur film et qui permettait de détecter les objets environnants, ils ont eu plus de mal à passer l’obstacle du positionnement spatial. Mais, ils y sont finalement parvenus et ont démontré la faisabilité grâce à deux expériences décrites dans un article paru dans Science Advances de fin janvier 2018 où leur dispositif permet d’interagir avec des objets virtuels qui ne sont pas dans la ligne visuelle directe du manipulateur.

Variateur de lumière et clavier virtuel

Dans la première expérience, un aimant permanent est fixé au bout du doigt d’une personne. Sur son autre main, un serre-poignet élastique contient le dispositif des chercheurs muni d’un capteur 2D. Quand le bout du doigt s’approche du serre-poignet le capteur peut déterminer l’angle d’approche, cet angle est converti en un caractère prédéfini (un chiffre par exemple). Les différentes positions du doigt procurent donc différents caractères et peuvent être transformer en un clavier activable à distance.

La deuxième expérience a démontré la possibilité de régler l’intensité d’une ampoule virtuelle via une manipulation sans contact. La peau électronique a été placée dans la paume de la main. Un aimant permanent fait office de bouton virtuel. Quand la main fait un mouvement, comme pour faire tourner un variateur dans un sens ou dans l’autre, le capteur transforme le changement dans les champs magnétiques en information pour augmenter ou diminuer l’intensité lumineuse de l’ampoule virtuelle.

Sophie Hoguin

La Chine affiche ses ambitions spatiales

La Chine vient d’annoncer, le lundi 2 avril, que la station spatiale Tiangong 1 était finalement entrée dans l’atmosphère terrestre pour s’y désintégrer à 80 %. Les autres débris se sont perdus au fond de l’océan Pacifique sud. Une page se tourne et une autre est en marche puisque Tiangong 2 est déjà en orbite et Tiangong 3 se prépare activement. Mais le programme spatial chinois est bien loin de s’arrêter là.

Lanceur lourd et satellites internationaux

Dans la nouvelle génération des lanceurs chinois, la Longue Marche 5 est très attendue. Munie de moteurs semi-cryogéniques (kérosène / oxygène liquide), cette fusée inaugure une nouvelle classe de lanceurs pour le pays. Le programme de développement de ce lanceur lourd, dont le deuxième tir a échoué à l’été 2017, retardant plusieurs autres programmes spatiaux, a bien repris. Une première mission de lancement est prévue en novembre 2018. Il s’agira de placer en orbite une plate-forme expérimentale pour des satellites de communication de nouvelle génération. Cette plate-forme (DFH-5) doit fournir des débits de 300Gbps contre 20Gbps pour DFH-4 actuellement. Elle servira en outre à tester un moteur ionique de conception chinoise et un système de communication par laser. Par ailleurs, a annoncé  un porte-parole du Bureau de l’ingénierie spatiale habitée de Chine le premier tir de la version 5B, c’est-à-dire sans le second étage est aussi prévu en 2019. Cette version est dédiée à la mise en orbite basse de charges utiles lourdes (jusqu’à 25t).

Côté lancements commerciaux, la Chine souhaite pouvoir lancer des fusées depuis la mer : fin février une annonce officielle expliquait ainsi que sur les cinq missions prévues pour les fusées Longue Marche-11 en 2018, quatre se feraient depuis la terre et une depuis la mer. Les fusées Longue Marche-11 fonctionnent au propergol solide et sont dédiées aux lancements de satellites commerciaux. En installant une aire de départ en mer, au niveau de l’équateur, cela devrait permettre d’améliorer encore leur compétitivité (moins de carburant nécessaire) et d’offrir des fenêtres de tirs plus larges. Mais il faut encore réussir à passer les contraintes techniques que cela impliquent.

Tant pour le spatial que pour le reste de son économie, la Chine poursuit son ouverture vers des partenaires internationaux, notamment des pays arabes. Ainsi, la fusée Longue Marche 2C doit lancer en juin 2018 deux satellites de télédétection pour le Pakistan. Il s’agira du premier lancement commercial international pour cette fusée, près de 18 ans après avoir placé en orbite les satellites Iridium de Motorola en 1999. Fin décembre 2017, la Chine avait assuré le lancement du premier satellite algérien de télécommunication, Alcomsat-1. En septembre 2018, le premier satellite développé conjointement par la Chine et la France doit être mis en orbite. Il s’agit d’un satellite d’observation des vents à la surface de la mer et des vagues. Les données seront partagées par les scientifiques des deux pays.

La Chine veut décrocher la Lune

Cela fait maintenant 25 ans que la Chine a lancé son programme spatial habité. Grâce à sa nouvelle Longue Marche 5B, le pays compte commencer la construction de sa nouvelle station spatiale (Tiangong 3) dès 2020 avec la mise en place du module de base et des modules expérimentaux (20 tonnes chacun) pour une mise en service prévue en 2022. Un troisième groupe d’astronautes doit être sélectionné au premier semestre 2018 : il sera composé de pilotes et d’ingénieurs de maintenance. L’entraînement des taïkonautes est désormais axé sur les spécificités liées aux longs séjours en orbite et aux activités extra-véhiculaires régulières telles que l’apprentissage de l’utilisation de bras mécaniques. Des tests de survie dans le désert et un examen sous-marin de procédure d’évacuation de la capsule sont prévus prochainement.

La Chine escompte bien coopérer avec les Nations Unies et l’agence spatiale européenne pour des applications de la station spatiale et pour le développement de modules. Sa coopération s’étendra àc d’autres pays pour ses missions lunaires. Plusieurs missions vers la Lune sont en effet programmée : Chang’e-4 qui doit poser un module sur la face cachée de la Lune au cours du deuxième semestre 2018. Et en 2019, la mission Chang’e-5, déjà plusieurs fois retardée, doit prélever des échantillons lunaires avant de les ramener sur Terre.

Recherche et observations : la Chine voit loin

En matière de recherche sur les trous noirs, les étoiles à neutrons et les étoiles à quarks, alors même que la Chine a lancé en juin 2017 son télescope spatial d’observation des rayons X (Hard X-Ray Modulation Telescope – HXMT) et que sa mise en service officielle a été annoncée début février, elle prépare déjà son successeur : le satellite de chronométrage à rayons X et de polarimétrie renforcé (enhanced X-ray Timing and Polarimetry – eXTP). Il doit permettre, selon le responsable de l’eXTP, Zhang Shuangnan, d’amener la Chine à un niveau de premier plan dans l’astronomie mondiale des rayons X entre 2025 et 2035. Le HXMT est le premier télescope spatial d’observation des rayons X de la Chine. Il est capable d’observer les rayons X durs dont l’énergie est comprise entre 1 et 250 keV.

Côté terrestre, la Chine déjà doté du FAST (pour Five-hundred-meter Aperture Spherical Radio Telescope) le radiotélescope à réflecteur unique le plus sensible du monde veut encore l’améliorer. En effet, dès fin avril 2018, il devrait être doté d’un récepteur radio plus sophistiqué et les scientifiques chinois envisagent l’installation de deux à dix radiotélescopes plus petits, de diamètres 30m, autour de lui pour que sa résolution soit 100 fois plus élevée qu’aujourd’hui. Les missions du FAST comprennent actuellement l’observation des pulsars, l’exploration des molécules interstellaires et la surveillance des signaux de communication interstellaire.

Sophie Hoguin

Minage des cryptomonnaies : un business pour les cybercriminels

L’année n’est pas encore terminée que des records sont déjà battus. Selon Crypto Aware, un site dédié à la sécurité des cryptomonnaies, l’équivalent de plus de 1,7 milliard de dollars de cryptomonnaies a été dérobé entre juin 2011 et mars dernier. Et la tendance s’est accélérée : près de 40 % de ces sommes ont été perdues au cours des trois derniers mois. De là à jeter l’opprobre sur ces monnaies, il n’y a qu’un pas vite franchi par certains.

Pour les cybercriminels et escrocs, c’est devenu un nouveau filon. Et comme pour le piratage informatique, il n’est pas nécessaire d’être un cador en lignes de code pour mettre la main sur des Bitcoin et autres cryptomonnaies. C’est toujours la victime qui est vulnérable car pas assez (in)formée sur les risques et les solutions à mettre en place pour les atténuer.

Un processeur utilisé à 100 % d’un seul coup !

Différentes techniques sont employées. La première consiste à miner des cryptomonnaies à l’insu des internautes. Le minage est le processus d’ajout d’enregistrements de transactions d’une cryptomonnaie au compte rendu public des transactions passées. Un ordinateur effectue donc des calculs pour augmenter le nombre de coins (parfois appelés « des tokens ») de la monnaie. (augmenter la masse monétaire).

D’où la tentation de s’appuyer sur un réseau d’ordinateurs infectés pour effectuer ces fameux calculs. Pour les victimes, leur PC devient d’un seul coup aussi rapide qu’une 2 CV. Le taux d’utilisation du processeur peut grimper en flèche, entre 50 % et 100 % !

Cette arnaque n’est pas récente, mais elle se multiplie car certains en profitent pour remplacer la publicité en ligne par le minage. C’est le cas du site de « torrents » The Pirate Bay qui a reconnu avoir utilisé les ordinateurs de ses visiteurs afin de miner des cryptomonnaies, sans leur demander la permission…

Il y a deux mois, des pirates ont infecté des sites pour y placer un script de minage appelé Coinhive dans le logiciel de synthèse vocale Browsealoud (un plug-in populaire qui aide les personnes aveugles et malvoyantes à accéder au Web). Les quelque 5000 sites internet qui utilisent Browsealoud – dont certaines agences gouvernementales américaines et britanniques – ont donc servi de relai pour miner la cryptomonnaie Monero, lancée en 2014 et centrée sur la vie privée. Mais selon des chercheurs en sécurité informatique, ce serait plus de 30 000 sites infectés ou ayant accepté d’intégrer dans leurs pages web ce script (là aussi pour remplacer la pub online).

Cheval de Troie

D’autres escrocs se sont appuyés sur l’application Facebook Messenger. Ils ont réussi à infecter des ordinateurs avec leur virus baptisé Digmine pour miner du Monero. Heureusement, ce code malveillant se répand principalement en Asie.

Une autre technique est employée : modifier d’adresse de destination dans un portefeuille. Cette technique a été utilisée par le développeur du cheval de Troie (ou trojan) CryptoShuffler. Dès qu’il détecte l’adresse d’un portefeuille de devises chiffrées dans le presse-papiers (ces adresses sont faciles à repérer par la longueur de lignes et les caractères spécifiques), il la remplace par une autre. Résultat, les fonds ne sont pas récupérés par le bon destinataire. Fin octobre dernier, l’éditeur de sécurité Kaspersky estimait que les auteurs de ce trojan aurait récupéré l’équivalent de 140 000 dollars.

Pour les particuliers, mais aussi les entreprises qui possèdent de la cryptomonnaie, il est indispensable de renforcer la sécurité de leur poste de travail : antivirus et pare-feu mis à jour, protection des mots de passe et conservation des cryptomonnaies dans un « cold wallet », ou un wallet hardware comme le Ledger Nano S. Réputé inattaquable par la société française Ledger, ce portefeuille hardware a bénéficié récemment d’une mise à jour suite aux révélations d’un jeune Britannique de 15 ans qui avait découvert des failles de sécurité dans la conception…

Il convient aussi d’être vigilant quant aux applications pour smartphone et extensions pour navigateurs qui peuvent être malveillantes. Google a récemment fait le nettoyage dans les extensions de minage présentes sur Chrome Store. D’ici juin, elles ne seront plus référencées, car de nombreuses personnes se sont plaintes de vol de données confidentielles et d’opérations de minage exécutées à leur insu.

Philippe Richard