Internet décentralisé : retour au Web 1.0 !

Fin septembre, Facebook annonçait avoir été victime d’une fuite de données impactant des dizaines de millions de comptes. Cet été, Google a décidé de coopérer à nouveau avec les autorités chinoises pour lancer une version censurée de son moteur de recherche.

Ironie de l’histoire, cette décision du géant du web est intervenue au moment où 800 webmasters et autres experts (dont Tim Berners-Lee, qui a créé le World Wide Web) se réunissaient à San Francisco pour discuter de projets visant à contourner la mainmise de Google et Facebook. Parmi ces projets se trouve le Web décentralisé, ou dWeb.

Lorsque le World Wide Web a vu le jour à la fin des années 80, les rares utilisateurs se connectaient directement entre eux. Mais avec l’avènement du Web 2.0, au début des années 2000, les internautes ont été de plus en plus nombreux à communiquer et à partager des informations par le biais de services centralisés développés par Google, Facebook, Microsoft et Amazon.

Le dWeb consiste à redécentraliser afin de ne plus dépendre de ces intermédiaires pour se connecter. Une utopie pour quelques geeks ? Impliquée dans ce projet, la fondation Mozilla a publié une série de billets un peu techniques sur son blog. Ils présentent des applications concrètes de ce web décentralisé.

Les données appartiennent aux internautes

On peut y découvrir plusieurs solutions émergentes comme Scuttlebutt (réseau social décentralisé qui repose sur un protocole chiffré et du P2P), WebTorrent (lecteur de torrent qui fonctionne dans le navigateur) ou encore IPFS (protocole qui pourrait remplacer le protocole HTTP). Mais les réseaux décentralisés les plus connus restent ceux utilisés pour les cryptomonnaies comme Ripple, NEM (New Economy Movement) et bien sûr Bitcoin. De nouvelles applications sont apparues, comme Stealthy (un système de messagerie instantanée décentralisée), OpenBazaar (une place de marché décentralisée), GraphiteDocs (une alternative à Google Doc) et Textile (une alternative à Instagram).

« Nous devons le faire maintenant », affirme Tim Berners-Lee dans un article publié le 29 septembre. Il explique qu’il prend un congé sabbatique du MIT pour travailler à plein temps sur Inrupt. L’entreprise sera la première grande entreprise commerciale construite à partir de Solid, une plate-forme Web décentralisée que lui et d’autres employés du MIT ont passé des années à construire.

Sur son blog, il explique : « dans l’écosystème Solid, vous décidez où vous stockez vos données. Les photos que vous prenez, les commentaires que vous écrivez, les contacts de votre carnet d’adresses, les événements du calendrier, le nombre de kilomètres que vous parcourez chaque jour à partir de votre tracker de fitness… sont tous stockés dans votre Solid POD. Ce Solid POD peut être installé chez vous ou sur votre lieu de travail, ou encore avec un fournisseur Solid POD en ligne de votre choix. Étant donné que vous possédez vos données, vous êtes libre de les déplacer à tout moment, sans interruption de service. »

Mais différents défis restent à relever et, en particulier, celui de la gouvernance. Comment le web décentralisé se met-il en place alors que personne n’est en charge ? Il faudra surtout ne pas sous-estimer la force du statu quo et de la désinformation orchestrée par les géants du web…

Par Philippe Richard

Les nanotechnologies aussi peuvent se mettre au vert

Des chercheurs de l’Institut des nanotechnologies de Lyon, du laboratoire Ingénierie des matériaux polymères, de l’Institut de science des matériaux de Mulhouse et de l’Institut lumière matière, ont mis au point un procédé de lithographie pour façonner des substrats utilisant des produits respectueux de l’environnement, en l’occurrence de l’eau et du chitosane (un biopolymère issu de déchets agroalimentaires). Leurs travaux, publiés dans la revue SPIE Proceedings montrent que non seulement ce procédé se passe des réactifs issus du pétrole, mais également qu’il est économique et permet des impressions de lithographie nanométrique.

Le chitosane, abondant et peu coûteux

Le chitosane est un polysaccharide hydrophile, biosourcé, biocompatible, biodégradable et soluble en milieu aqueux. Utilisé dans ces travaux comme résine, il est fabriqué de manière industrielle à partir de la chitine, extraite de déchets comme les carapaces de crabes et de crevettes. Le chitosane est le second biopolymère le plus abondant sur Terre après la cellulose. Il est donc peu coûteux, environ dix fois moins cher que les résines classiques et, du fait de son innocuité, son utilisation est peu contraignante. Ce n’est pas la première fois que les scientifiques essayent d’utiliser des biopolymères pour la lithographie mais, jusqu’à maintenant, cela nécessitait de les transformer ou les activer chimiquement par des réactions utilisant des produits chimiques toxiques, dangereux, ou encore des opérations complexes. L’objectif final d’une chimie plus verte ne pouvait donc pas être vraiment atteint.

Plusieurs procédés testés avec succès

L’article publié s’appuie sur le travail de thèse de Matthieu Cailleau et détaille plusieurs expériences avec différents procédés : lithographie optique, lithographie par faisceau d’électron avec ou sans activation de la résine de chitosane. Il ressort notamment de ces travaux que le chitosane peut être utilisé sans autre opération chimique supplémentaire pour fournir une résine photopositive (la gravure finale est identique à celle de la résine) et que de l’eau acidifiée avec un peu d’acide acétique suffit comme solvant. En utilisant un faisceau d’électrons, la résine photopositive a pu fournir des traits de 30 nm espacés de 200 nm, et en utilisant des UV courts (193 nm) des traits de 100nm de largeur. L’ajout d’un colorant, la riboflavine, à la résine de chitosane a permis de la rendre sensible à des UV à 248 nm et d’obtenir des gravures de taille submicronique de l’ordre de 0,3 µm avec utilisation d’eau comme développeur. Dans tous les cas, les motifs ont ensuite été transférés sur du silicium par gravure au plasma.

Les performances obtenues correspondent à celles atteintes avec d’autres résines biosourcées, mais les chercheurs, maintenant que la faisabilité technique est avérée, comptent bien les améliorer rapidement.

Par Sophie Hoguin

La Coalition pour la neutralité carbone dévoile son plan

Neuf mois après le One Planet Summit à Paris, les nations déterminées à œuvrer en faveur du climat se sont retrouvées à New York pour réaffirmer leur détermination à agir et annoncer des actions concrètes. La présidente des îles Marshall, Hilda Heine, et le premier ministre fidjien, Frank Bainimarama, sont décidés à ériger leur pays au rang d’exemples mondiaux. Le message de celui qui a également été le président de la COP 23 est clair : bien que les îles Fidji ne soient pas les plus polluantes, il veut montrer qu’il est prêt à agir en espérant que d’autres pays lui emboîtent le pas. L’objectif est le même depuis la COP 21, à savoir endiguer la hausse des températures sous la barre des 2°C, voire à 1,5°C en 2100.

Une détermination à agir vite et sur le long terme

L’une des particularités de ce sommet réside dans l’envie d’action à court terme des pays en présence. Ces derniers veulent mettre en place des stratégies de long terme pour limiter les émissions de gaz à effet de serre. « Nous le ferons bien avant 2020, et si possible même dès 2018 » ambitionnent les signataires de la Déclaration de la coalition pour la neutralité carbone. Le message est très fort car à l’origine, cet objectif était prévu pour l’horizon 2030. Afin de parvenir à la neutralité carbone, ces pays devront réduire drastiquement leurs émissions de gaz à effet de serre, avoir des villes plus propres et moins énergivores.

L’autre particularité de ce nouveau plan est la volonté de faire converger les intérêts économiques et écologiques. Les premiers secteurs d’activités concernés seraient les transports, l’énergie et l’utilisation des sols. Les nations réunies sont en effet persuadées qu’« il est maintenant évident qu’agir pour le climat ne compromet pas le développement durable ». Et les derniers mots de leur déclaration officielle : « au contraire, l’économie et le climat gagnent ensemble. Nous pouvons voir des équations fonctionner et nous sommes désormais prêts à agir avec audace avec la coalition pour la neutralité carbone » peuvent difficilement être interprétés autrement que comme un appel criant à l’action.

De grands absents à déplorer

Cet aspect s’avère néanmoins être très ambitieux lorsque l’on sait que certains des pays les plus pollueurs de la planète ont été aux abonnés absents. Notons que dans la liste finale des nations signataires de la coalition, aucun pays asiatique n’est présent. Dans le même temps, la Chine serait en train d’exploiter des nouvelles centrales à charbon, et ce contrairement aux engagements pris par le gouvernement de Li Keqiang. Il est donc très facile de s’imaginer que les intérêts de certaines nations asiatiques sont encore très loin des principes du développement durable.

De l’autre côté du Pacifique, le constat est à peine moins morose. Les États-Unis et le Brésil ont également brillé par leur absence, à l’inverse du Canada. Dans un contexte où le Brésil n’apparaît pas au rang des meilleurs élèves en termes de préservation de l’environnement et où le président Trump a notamment affirmé que le meilleur moyen de lutter contre les incendies en Californie était de raser les forêts, l’Amérique semble également être partiellement motivée à agir. Cependant, même si les pays n’étaient pas représentés dans leur intégralité, 32 villes mondes telles que Rio de Janeiro, San Francisco, New York ou encore Yokohama au Japon se sont engagées à atteindre la neutralité carbone en 2050.

Les 19 pays engagés pour la neutralité carbone en 2050 sont le Canada, la Colombie, le Costa Rica, le Danemark, l’Ethiopie, la Finlande, la France, l’Allemagne, l’Islande, le Luxembourg, le Mexique, les Pays-Bas, la Nouvelle-Zélande, la Norvège, le Portugal, les îles Marshall, l’Espagne, la Suède et le Royaume-Uni.

Les 32 villes engagées sont: Austin, Accra, Barcelone, Berlin, Boston, Buenos Aires, Cape Town, Caracas, Copenhague, Durban, Londres, Los Angeles, Melbourne, Mexico city, Milan, New York, Oslo, Paris, Philadelphie, Portland, Quito, Rio de Janeiro, Salvador, San Francisco, Santiago, Seattle, Stockholm, Sidney, Toronto, Vancouver, Washington et Yokohama.

Par Matthieu Combe

Turfu Festival : zoom sur un projet robotique open source et une intelligence artificielle

Imaginer ensemble le futur : c’est la devise du Turfu Festival, dont la troisième édition s’est tenue de 2 au 7 octobre dernier à Caen. «Et l’on parle  du futur qui arrive demain, pas dans 20 ans» précise François Millet, co-inventeur avec Jérôme Caudrelier de ce festival dont l’approche est singulière. Le mot «ensemble» n’est pas anodin en effet, car l’évènement incite à la participation de tous, sur la base du modèle instauré par «les living labs » : citoyens, étudiants, chercheurs, artistes et industriels sont conviés toute la semaine à une quinzaine d’ateliers et partagent leurs réflexions pour améliorer des projets plus ou moins avancés (voir deux exemples ci-dessous).

«Ces ateliers sont des outils extraordinaires pour changer la médiation de la culture scientifique et technique entre des publics qui se parlent peu, confie François Millet. Le grand public n’est plus passif et peut se montrer critique.» Plusieurs grands enjeux de notre époque ont été au centre des discussions : mobilité, santé et handicap, intelligence artificielle, énergie hydrogène, etc. A en juger par le nombre de participants, passant de 450 l’année dernière à 600 cette année, cette nouvelle édition a rencontré le succès. Et si jamais une découverte géniale venait à surgir de ces immenses séances de brainstorming, nul ne doit pouvoir en tirer profit. «C’est la règle du jeu, indique François Millet. Les propositions faites ici sont documentées et demeurent dans le domaine public, accessibles à tous.»

Farmbot, le robot-maraîcher en quête d’autonomie

Farmbot est un projet robotique open source dont les prémices remontent à 2011, aux Etats-Unis. Objectif : élaborer un robot déconnecté de la production intensive, capable de cultiver de manière autonome un jardin potager. «Farmbot possède une tête aimantée et va chercher l’outil approprié à la fonction, explique Matthieu Debar, chargé de développement au sein du Dôme. Il repère les mauvaises herbes à l’aide d’un endoscope, les élimine en les enterrant, sème grâce à une pompe à vide pour aspirer les graines puis les arrose… Il peut également tester l’hygrométrie du sol si besoin. La base étant ouverte, l’instrumentation est libre. L’économie du produit est basée sur la vente du kit, le département R&D est mondialisé.»

Pendant le festival, les participants ont réfléchi aux moyens de gommer ses faiblesses pour qu’il fonctionne en parfaite autonomie. «Farmbot doit en effet être relié aux réseaux d’énergie et d’eau, en plus d’être raccordé à un serveur informatique, précise Matthieu Debar. Une hypothèse de travail serait de le munir d’une toiture assortie de panneaux solaires et d’un dispositif de récupération d’eau. Un mètre-carré de panneaux solaires suffit à fournir l’alimentation de 2,5 ampères nécessaire.» Avec l’appui de la Chambre d’agriculture de Normandie, 20 sites expérimentaux sont prévus. Un exemplaire est déjà installé dans un fab lab rural, cinq autres sont déployés dans des établissements pour l’enseignement. Selon Matthieu Debar, «c’est un outil pédagogique qui promeut la culture de l’open source et implique de nombreux corps de métiers : informatique, robotique, agriculture, horticulture, chaudronnerie…»

 

©clementineandre

Phebe centralise les services pratiques à bord de la voiture

Le projet Phebe vise à installer une intelligence artificielle conversationnelle, semblable à celles proposées par Google ou Amazon, mais dans la voiture. «Phebe a pour vocation de fluidifier la mobilité, indique Jérôme Caudrelier, associé à l’entreprise et par ailleurs co-fondateur du festival Turfu. Elle vous aide à trouver une place de parking, vous y conduit et paye automatiquement la place. Nous testons la possibilité de payer de la même façon le carburant délivré par des pompes de l’industriel Tokheim, dans des magasins Leclerc. Nous travaillons sur des APIs pour que Phebe puisse aussi interagir avec des services d’assistance. Nous concevons des usages plutôt à l’échelle locale.» Pour accomplir tout cela, Phebe est un petit boîtier bardé de capteurs – lecteur d’empreinte digitale, accéléromètre, GPS, gyromètre… – et connecté au réseau 4G, via une carte SIM multi-opérateurs et prépayée.

Cet assistant communique aussi via Bluetooth et possède plusieurs micros pour écouter distinctement les consignes du conducteur. Mais Phebe peut tout aussi bien prendre l’initiative de la parole, si elle constate de forts ralentissements, afin de proposer la consultation de l’info trafic. «On revendique même l’idée que notre assistant puisse faire la moue» poursuit Jérôme Caudrelier. Les interactions et les façons de s’adresser à une telle IA faisaient partie des thématiques abordées dans les ateliers lors du festival, outre la problématique du traitement des données à caractère privé. Phebe devrait être expérimentée dans des conditions réelles l’année prochaine, à bord de plusieurs centaines de voitures dans la région normande. La commercialisation est prévue fin 2019, auprès des particuliers et des entreprises qui gèrent des flottes de véhicules.

Par Frédéric Monflier

Le GIEC met en garde contre un monde à plus de 1,5°C

6 000 publications scientifiques ont été étudiées par les experts de l’ONU depuis la COP21 en décembre 2015. Le rapport qui en résulte a été adopté par les représentants de 195 États à la suite d’une semaine de négociations, à Incheon (Corée du Sud). Les conclusions sont formelles : au rythme actuel, nous atteindrons un réchauffement de +1,5°C entre 2030 et 2052, les +2°C d’ici 2065 et +4 ° C d’ici 2100. Quant aux engagements pris lors de l’Accord de Paris, ils nous conduisent vers un réchauffement de +3°C.

Les écarts d’impacts entre un réchauffement de +1,5°C et de +2°C sont déjà importants. Dans un monde à 1,5°C, déjà 6 % des insectes, 8 % des plantes, et 4 % des animaux vertébrés seraient affectés. À 2°C, deux fois plus de plantes et vertébrés seraient touchés et trois fois plus d’insectes. Un réchauffement de +1,5°C limiterait aussi la hausse du niveau de la mer de 10 cm, et 10 millions d’habitants seraient ainsi préservés de la submersion marine.

Réduire drastiquement les émissions

Le GIEC estime qu’il est encore possible de ne pas dépasser les +1,5°C. Le WWF appelle ainsi à un « big bang écologique ». Pour y parvenir, il faudra toutefois une volonté politique absolue. En particulier, il faudra une sortie définitive urgente des énergies fossiles, responsables des trois quarts des émissions de gaz à effet de serre. Nous avons besoin d’une transition très rapide vers un modèle énergétique 100% renouvelable et des politiques ambitieuses de réduction d’émissions, tout en augmentant la surface de nos forêts, zones humides et prairies pour capter le carbone déjà dans notre atmosphère.

« Je ne doute pas que les historiens considéreront cette publication comme l’un des moments marquants de l’histoire de l’humanité, a réagi Amjad Abdulla, négociateur en chef de l’Alliance des petits Etats insulaires. J’exhorte tous les pays civilisés à en assumer la responsabilité en redoublant d’efforts pour réduire les émissions responsables de la crise et à faire le nécessaire pour aider les populations vulnérables à faire face aux conséquences dévastatrices qui ne peuvent plus être évitées. »

Le rapport sera discuté par les ministres européens de l’environnement mardi 9 octobre. Il devrait servir de base pour essayer de convaincre les gouvernements à revoir leurs objectifs de réduction d’émissions à la hausse en vue de la COP24 qui se déroulera du 3 au 14 décembre 2018 à Katowice, en Pologne.

Par Matthieu Combe, journaliste scientifique

Mondial de l’Auto 2018 : les 7 innovations les plus marquantes des startups

Si le Mondial de l’Auto – pardon, le Mondial Paris Motor Show – se déroule toujours jusqu’au 14 octobre, le Mondial.Tech s’est quant à lui achevé samedi dernier. C’était une première : un salon dans le salon, occupant l’étage d’un hall de la Porte de Versailles à lui tout seul, concentré sur l’innovation technologique, les start-ups et les thématiques les plus en vue dans l’automobile de demain : mobilité, bien-être et confort, électrification, connectivité, cybersécurité, etc. Si l’organisation de l’espace était parfois curieuse – qui a compris le sens caché du labyrinthe planté en plein milieu ? – l’évènement donnait à voir plusieurs inventions, prochainement susceptibles de bonifier l’expérience du conducteur ou de valoriser la filière industrielle. En voici un aperçu.

Ce simulateur analyse le stress du conducteur

Les simulateurs de conduite automobile impliquant la réalité virtuelle ne sont pas rares sur un salon comme le Mondial de l’Auto. Celui-ci ne vise pas à divertir toutefois, mais à mesurer le stress du conducteur et son état cognitif. C’est le fruit d’un partenariat entre l’Institut de recherche technologique b<>com et Human Design Group, dont l’expertise se focalise sur l’ergonomie et les interfaces homme-machine. Volant, siège, pédales d’accélération et de freinage : le poste de conduite est comparable à celui du cockpit d’une voiture. Mais dans le cas présent, le conducteur-cobaye s’équipe d’un casque RV et de capteurs mesurant son rythme cardiaque, sa transpiration (par réponse galvanique de la peau) et les mouvements de tête. Evoluant sur une artère urbaine en 3D, il est soumis à divers incidents – GPS qui perd la boule, insecte perturbateur, impact sur le pare-brise -et réagit en conséquence. Ses signaux biométriques et ses actions peuvent être corrélées puis analysées, afin de mettre en lumière des subtilités que les méthodes traditionnelles occultent. Ce projet, au stade de preuve de concept, se destine aux constructeurs automobiles et aux fournisseurs de technologie.

L’éthylomètre Ocigo combine fiabilité et connectivité

Réalisation de la société Olythe, née en 2013, Ocigo est un éthylomètre connecté qui sera commercialisé début 2019, au prix de 250 €. Il n’a rien d’un gadget. «Sa technologie est identique à celle des éthylomètres officiels employés par les forces de l’ordre, explique Guillaume Nesa, PDG et cofondateur d’Olythe. C’est de la spectrométrie infrarouge, aussi fiable qu’une prise de sang pour mesurer le taux d’alcoolémie.» Mais il a fallu relever plusieurs défis pour qu’Ocigo soit à la fois compact et abordable. «D’ordinaire, la miniaturisation et la précision de la mesure spectrométrique sont deux notions contradictoires, explique Guillaume Nesa. A l’aide de simulations numériques, nous avons rusé en mettant au point un système multi-réflectif, qui remplace le système rectiligne habituel des spectromètres. L’autonomie est un autre enjeu, car le préchauffage, nécessaire pour dépasser la température du point de rosée, est énergivore. Ocigo, prêt en 30 secondes, ne consomme que 300 mW durant cette phase.» Enfin, et même s’il fonctionne de manière indépendante, Ocigo communique via Bluetooth : l’application mobile avise du taux d’alcoolémie et de la courbe d’absorption, indiquant le délai au bout duquel la conduite est autorisée. «Ces données peuvent être transmises à un serveur, si le client en exprime la demande» poursuit Guillaume Nesa. Car Ocigo intéresse aussi les entreprises qui gèrent des flottes de véhicules.

Selfplug se charge de la recharge de la voiture électrique

Et si la recharge du véhicule électrique s’effectuait automatiquement ? C’est le principe du Selfplug, une réalisation de la start-up grenobloise Gulplug, née en 2014 au sein de Schneider Electric. Le geste qui consiste à brancher à chaque fois la prise électrique du véhicule peut en effet être vécu comme une corvée. «40 % des personnes qui possèdent une voiture hybride finissent par ne plus le brancher» constate Benoît Thevenot, ingénieur chez Gulplug. Si cette jeune pousse va au bout de son projet, elles n’auront peut-être plus à s’en soucier. Selfplug est formé de deux parties : d’un côté, un disque de 50 centimètres, posé sur le sol et branché sur le secteur, de l’autre un câble et son embout magnétique attachés sous le véhicule. Quand le véhicule est garé et que les deux parties sont suffisamment proches (une communication Bluetooth signale cette proximité), le câble se déroule et rejoint le centre du disque, où le contact électrique s’établit. «C’est comme un électro-aimant, détaille Benoît Thevenot. On active des bobines successivement pour guider l’embout jusqu’au centre de l’accessoire, puis le contact final est assuré par un aimant.» Quand le véhicule redémarre, le câble s’enroule aussi de lui-même. Selfplug prendra en charge des puissances de 3 W et de 22 kW en triphasé. En phase d’optimisation, il devrait être commercialisé en 2020.

Boarding Light remédie au mal des transports

Créée en 2015, la société Boarding Ring s’est donnée pour mission de lutter contre le mal des transports, «qui a affecté au moins une fois 40% des personnes ayant pris place dans une voiture», indique Antoine Jeannin, le PDG. Leur première réalisation est une étrange paire de lunettes comportant un liquide coloré, déjà disponible auprès des pharmaciens notamment. «Le mal des transports résulte d’un conflit sensoriel entre l’oreille interne et la vue, le cerveau ne parvenant pas à traiter deux informations contradictoires, explique Antoine Jeannin. Notre paire de lunettes resynchronise la vue avec le sens de l’équilibre. Il suffit de les porter 10 minutes à l’apparition des symptômes, puis on est tranquille.» Le deuxième produit en préparation, Boarding Light, reprend le même principe mais le modernise : ce sont des barrettes LED qui, placées dans le champ de vision des passagers, créent un plan d’horizon artificiel. Elles pourraient être incorporées dans les montants. «Nous travaillons avec l’équipementier automobile Novares, poursuit Antoine Jeannin, et devrions présenter le projet aux clients courant 2019.»

Les pilotes remettent la gomme avec Track Connect

Un pneu connecté ? C’est plutôt gonflé, et c’est de la part de Michelin. Le spécialiste du pneumatique avait présenté cette innovation au printemps dernier et a récidivé au Mondial de l’Auto. Track Connect n’est pas fait pour tout le monde : il s’adresse aux pilotes amateurs qui cherchent à grignoter la moindre seconde au terme de leurs passages sur circuit. Concrètement, il s’agit de quatre capteurs fixés à l’intérieur de chaque pneumatique. Les données de température et de pression sont transmises à un relais radio qui les communique ensuite au smartphone du pilote. L’application mobile recommande d’abord les pressions adaptées au véhicule et aux conditions de roulage (circuit sec, humide ou mouillé), puis enregistre les informations pendant la conduite. Un moyen pour le pilote d’analyser l’évolution de ces paramètres et d’optimiser le gonflage, en vue d’obtenir de meilleures performances. Ce système pourrait s’inviter à des compétitions de rallye l’an prochain.

Les capteurs de Nanomade enrichissent l’interactivité et l’analytique

Existant depuis 2009, Nanomade conçoit des capteurs souples, brevetés, qui  rendent sensibles au toucher et à la pression des matières telles que le plastique ou le cuir. L’entreprise investit depuis deux ans le secteur automobile pour mettre «l’interactivité à portée de main», confie Faouzy Soilihi, le PDG. Mais ces capteurs peuvent aussi être placés sous la surface du siège : un prototype avait été présenté avec l’équipementier Valeo au salon CES 2018 à Las Vegas. «On peut alors mesurer de manière non intrusive les micro-mouvements du corps et en extraire, à l’aide d’algorithmes, des informations telles que les rythmes cardiaques et respiratoires» explique-t-il. L’amélioration du confort (analyse de la posture, etc) et de la sécurité sont des applications possibles.

Carfit Puls surveille l’état de santé de la voiture

Conçu par l’entreprise californienne Carfit, ce mini-capteur Bluetooth se colle au-dessus du volant et détecte les vibrations du véhicule, provenant de la direction, des amortisseurs, des freins, des pneus… Tout écart par rapport à la signature vibratoire initiale traduit une usure ou une anomalie, dont le conducteur prend connaissance en utilisant l’application mobile développée par Carfit. Cette analyse comparative, réalisée dans le cloud, s’appuie sur du traitement de signal, une base de données construite à partir de voitures neuves et un moteur d’intelligence artificielle dont les algorithmes s’affinent progressivement. Ces informations intéressent aussi les concessionnaires et les réparateurs, dans un objectif de maintenance prédictive, ou encore les assurances.

 

Par Frédéric Monflier

Le prix Nobel de physique vient d’être décerné au chercheur français Gérard Mourou.

Le prix Nobel de physique vient d’être décerné au chercheur français Gérard Mourou, co-inventeur avec Donna Strickland, de la technique d’amplification par dérive de fréquence ou Chirped Pulse Amplification (CPA).

À cette occasion, (re)découvrez le principe de cette technique (Réseaux de diffraction pour les lasers de haute intensité) dans les ressources documentaires.

Réseaux de diffraction pour les lasers de haute intensité

 

 

Socotec certifie les compétences BIM

Le BTP se transforme avec l’utilisation de maquettes numériques non plus seulement pour la conception mais aussi pendant la construction et l’exploitation, imposant donc une collaboration et des échanges de données autour de cette maquette numérique. Le BIM (Building Information modelling) et tous ses outils vont devoir être utilisés par l’ensemble des acteurs du secteur. A des niveaux très différents bien sûr. Les compétences en BIM sont à présent très recherchées et très bien valorisées d’un point de vue de la rémunération. Pour aider les salariés à valoriser leurs savoirs et compétences et pour aider les entreprises à embaucher de manière pertinente ou à faire reconnaître les compétences de leurs salariés, Socotec a lancé cet été une certification de personnes dans le BIM. Baptisée « BIM user », cette certification existe en trois niveaux différents. Ils sont délivrés après un examen théorique, un examen pratique et des évaluations de surveillance. La certification initiale est délivrée pour une période de 2 ans. Les certificats de renouvellement sont délivrés pour 3 ans.

BIM User – Basic knowledge

Il s’adresse à l’ensemble des salariés qui peuvent être en contact avec le BIM : des artisans, chefs de chantiers, mainteneurs aux programmistes, architectes ou ingénieurs de conception. Les candidats doivent démontrer qu’ils possèdent une bonne compréhension des fondamentaux du BIM et qu’ils en identifient les enjeux, les terminologies et les principes du BIM niveau 2*. Ils doivent avoir la capacité d’utiliser une visionneuse BIM.

BIM User – niveau 2 Conception Construction

Cette fois, il ne s’agit plus de comprendre et connaître les principes du BIM niveau 2 mais bien de savoir les mettre en pratique : les candidats devront par exemple démontrer qu’ils savent rédiger une convention BIM, mettre en place l’organisation nécessaire à la production de données BIM, gérer et échanger ces informations (CDE, COBie, IFC) pour répondre aux exigences d’information du client. On attend d’eux qu’ils comprennent les pratiques du BIM management, les attentes de maîtres d’ouvrage et la gestion des données des projets. Cette certification s’adresse aux acteurs du BIM rattachés aux secteurs de la conception et de la construction des bâtiments, ouvrages et infrastructures qui ont au moins une année d’expérience.

BIM User – niveau 2 Exploitation

Cette certification s’adresse à l’ensemble des acteurs du BIM rattachés aux emplois de l’exploitation, la maintenance et des services liés aux bâtiments, ouvrages et infrastructures disposant d’au moins 3 années d’expérience dans le secteur de la construction ou de l’immobilier et deux années d’expérience de pratique en BIM.

Outre une bonne compréhension du BIM niveau 2, on attend des candidats qu’ils connaissent aussi la gestion des documentations BIM du maître d’ouvrage (charte BIM, cahier des charges BIM) et  la gestion des données des projets. Ils doivent notamment maîtriser les maquettes numériques propres à la phase d’exploitation et savoir analyser les besoins de l’organisation, évaluer les équipes et définir les exigences des équipes concourantes.

*Pour rappel, on distingue généralement 4 niveaux de maturité dans le processus BIM. Le niveau 2, actuellement le plus haut au niveau opérationnel, correspond à l’étape où les différents acteurs sont capables de créer des maquettes numériques échangeables qui peuvent être fédérées en un seul modèle.

Sophie Hoguin

Echodrone, le bateau-robot du port d’Anvers

Au festival international technologique Supernova à Anvers (Belgique), dont la première édition s’est déroulée du 27 au 30 septembre derniers, le public a fait la connaissance d’Echodrone, le petit bateau qui va sur l’eau de manière autonome. Actuellement en phase de test dans ce même port d’Anvers, où transitent chaque année 224 millions de tonnes de marchandises (deuxième rang européen derrière Rotterdam), Echodrone devrait être opérationnel l’an prochain.

Ce bateau robotisé a pour mission de sonder la profondeur de l’eau le long des voies de navigation et de mouillage, en particulier dans le dock Deurganck où il sera basé. Il identifie ainsi les zones nécessitant des travaux de dragage, les fonds marins s’élevant en permanence sous l’action du dépôt sédimentaire. C’est un impératif dans les infrastructures portuaires, pour que le trafic maritime soit sûr. Echodrone est appelé à seconder le vaisseau-mère Echo, qui remplit la même tâche et bénéficie quant à lui d’un équipage. En raison de sa petite taille, il se faufile partout, à plus forte raison quand le trafic est dense, et n’a pas besoin de personnel à bord.

C’est l’entreprise dotOcean, sise à Bruges, qui a mis au point la technologie à l’origine d’Echodrone. Elle fournit tout le nécessaire (propulsion électrique, batteries, coque…) ou juste le dispositif AYB (pour Automate your boat) qui servira à équiper un bateau existant. Ce kit AYB, commercialisé à partir de 15000 €, contient l’unité qui actionne le moteur du bateau, le système de communication 3G/4G accompagné de deux cartes SIM, le compas de navigation, le GPS (un GPS externe est possible), une tablette tactile et aussi un contrôleur radio, le pilotage manuel étant envisageable à tout moment.

Cartographie enrichie

A bord, il n’y a aucune trace de détecteurs ou de caméras, qui permettraient à ce bateau d’analyser son environnement immédiat et de se frayer son chemin au milieu des porte-conteneurs. Et pour cause : la vigie et le capitaine sont restés à terre et ont pris la forme d’algorithmes, qui décident automatiquement du cap et de la vitesse. «Notre technologie repose intégralement sur le cloud, précise Wim Defevere, directeur technique senior en charge des accès maritimes auprès de l’Autorité portuaire d’Anvers. Les consignes de navigation sont le produit des données provenant de tous les systèmes portuaires, dont les radars (…).»

Facturée 85 €/mois, cette plateforme logicielle établit une cartographie de la zone où évolue Echodrone, enrichie de la position des autres navires, et calcule la meilleure trajectoire avant de la transmettre au bateau-robot via le réseau 3G/4G. Elle fait appel à des fonctions d’apprentissage automatique, selon dotOcean, mais l’entreprise belge n’en dit pas plus. A l’aide de son navigateur web ou de sa tablette tactile, l’utilisateur n’a besoin que de planifier la campagne de mesure et obtient en retour les résultats de l’opération, à savoir la profondeur de l’eau ou un autre paramètre selon le type d’instrument embarqué. DotOcean n’en est pas à son coup d’essai et a conçu un autre navire automatisé, Calypso, destiné à des mesures hydrographiques.

Frédéric Monflier

L’ingénierie de conseil en technologies se transforme et peine à trouver les bons profils

L’Observatoire Paritaire des Métiers du Numérique, de l’Ingénierie, des Études et du Conseil, et des métiers de l’Evènement (OPIIEC) a fait réaliser une étude* sur l’ « Avenir des emplois, des compétences et des formations au sein des Entreprises de Services du Numérique (ESN) et des sociétés d’Ingénierie et de Conseil en Technologies (ICT) en France ». Deux secteurs proches dans leur structure et leur fonctionnement puisque dans les deux cas il s’agit de vendre des prestations intellectuelles de haut niveau à des entreprises et qui sont tout deux très dynamiques. Les ICT sont d’ailleurs au coeur des transformations à venir dans l’industrie et doivent elles-mêmes réussir leur adaptation à l’arrivée massive de nouvelles technologies liées au numérique.

Les ICT, créateurs de richesse

Le secteur des ICT se porte bien : 116 000 emplois, une production en valeur de l’ordre de 13Md d’euros, une croissance annuelle de 4,2 % en 2017 et une croissance prévisionnelle de 4,5 % en 2018. La croissance profitant mieux aux plus grands : 87 % des acteurs de grande taille ont augmenté leur CA contre 59 % pour les acteurs de taille intermédiaire. Le secteur est cependant très scindé entre une dizaine de très grands acteurs se partageant la moitié du marché et une multitude de petites à très petites sociétés.

Une mutation numérique profonde

La frontière entre ICT et ESN s’amincit de plus en plus avec la numérisation de toutes les technologies. Ainsi, relèvent les auteurs de l’étude, « les leaders français du secteur des ICT ont développé une offre de service relevant des activités des ESN » et alors qu’en 2007, 20 % des activités ICT relevaient des entreprises du numérique, en 2016 cette proportion est passée à 40 %. Le numérique et l’informatique dans l’industrie deviennent le support aux autres technologies et demandent donc de nouvelles compétences. Parallèlement, les entreprises sont demandeuses de nouvelles offres de service, notamment en terme de formation. Elles veulent monter en compétence et être en capacité de gérer elles-mêmes les technologies implémentées par les ICT ou les ESN. Cette tendance s’accompagne d’une intégration verticale le long de la chaîne de valeur, un point assez nouveau pour les ICT qui doivent désormais proposer des projets globaux sur tout le cycle de vie du produit qu’elle vende. Au niveau du marché, la croissance externe est très importante et les concentrations se multiplient. Face à des groupes multinationaux généralistes puissant et efficaces, les acteurs de petite taille ne résistent que lorsqu’ils sont positionnés sur une niche technologique ou sectorielle protégée.

Embauches à l’horizon

Dans les 10 prochaines années, les ICT devraient recruter quelque 80 000 personnes, dont 25 000 créations nettes de postes. Ces embauches devraient intervenir principalement au sein de 15 thématiques clés qui portent l’industrie et l’économie française. Parmi elles, on peut citer :

  • l’industrie du futur (14000 recrutements)
  • l’Internet des objets (12500  recrutemetns)
  • l’énergie – smart grid, transition énergétique (11500 recrutements)
  • véhicules autonomes, nouvelles mobilités (9000 recrutements)
  • smart city/building (9000 recrutements)

Ces créations de postes prendront aussi la forme de nouveaux métiers. L’étude en identifie 19 pour les ICT et les ESN. Il s’agit par exemple des métiers de :

  • consultant blockchain
  • BIM modeleur
  • tacticien de l’usine du futur
  • géomaticien
  • responsable usage et communauté

La formation, clé de voûte du secteur

Les questions de formation sont désormais au centre des activités des ICT à trois titres :

  • la formation continue de ses salariés qui doivent se montrer ouverts, adaptables, capables d’apprendre vite pour suivre les évolutions constantes des nouvelles technologies qui arrivent à maturité comme l’intelligence artificielle, l’IoT ou la fabrication additive
  • la capacité à former les acteurs des entreprises pour lesquelles ils travaillent
  • la formation initiale qui doit faire l’objet d’une promotion sans précédent pour pouvoir fournir de la main d’oeuvre qualifiée pour les embauches à venir

Un manque de main d’oeuvre criant

Les auteurs de l’étude exposent plusieurs raisons expliquant le déficit de candidats dans ces secteurs qui pourtant embauchent maintenant régulièrement depuis plusieurs années :

  • le manque d’attractivité des métiers de l’ingénierie (horaires contraignants, travail sous tension…)
  • le manque d’intérêt et de connaissance des jeunes par rapport à ces métiers (manque d’information sur les formations existantes)
  • le déficit de lien entre le monde de l’enseignement et celui de l’entreprise
  • la faible attractivité auprès des femmes

Ce manque de main d’oeuvre crée en plus de la difficulté à fidéliser les salariés dans les entreprises d’ICT ou d’ESN. De part la concurrence : entre ces mêmes entreprises, avec les donneurs d’ordre qui veulent internaliser ces compétences, avec l’étranger qui offre de meilleures rémunérations ou conditions de travail ou encore avec le développement du travail en freelance.

La fédération réagit

Le Syntec Ingénierie s’est aussitôt saisi des constats dressés dans cette étude pour interpeller le gouvernement et propose un plan d’action « pour permettre aux entreprises d’ICT de continuer leur développement et de répondre aux besoins du marché ».

Ce plan s’articule en trois grands points :

  1. Enrichir et restructurer l’offre de formation en fonction des nouveaux besoins en compétences.
  2. Promouvoir les métiers de l’industrie et du conseil en technologies auprès d’un plus large public. La fédération professionnelle de l’ingénierie appelle ainsi à des campagnes nationales de sensibilisation aux métiers de l’ingénierie du conseil en technologies, qui accordent une attention particulière aux jeunes filles.
  3. Développer un environnement favorable aux entreprises d’ICT : accompagnement sur un nouveau positionnement dans la chaîne de valeur, ouverture à l’international des TPE et PME

*Etude réalisée par les cabinets Katalyse et D&Consultants entre janvier et mai 2018 pour le compte de l’OPIIEC (synthèse de l’étude)

Par Sophie Hoguin

StarVR, le casque VR qui vous regarde (aussi)

Si l’on se fie à son poids de 450 grammes environ, le casque de réalité virtuelle StarVR est semblable au Vive Pro de HTC ou à l’Oculus Rift. Mais, au vu de ce qu’il contient et ce qu’il propose, il ne joue pas tout à fait dans la même catégorie. Son champ de vision horizontal de 210°, contre 110° chez les concurrents, se révèle en effet beaucoup plus immersif. Il bénéficie en supplément d’un système de «eye tracking» intégré (suivi de la direction du regard) qui modifie dynamiquement la définition de l’image afin d’améliorer les performances graphiques. Dévoilé dans sa version définitive au salon Siggraph, en août dernier, le StarVR s’apprête à la commercialisation. Sa disponibilité et son prix (au delà des 1000 € probablement) ne sont pas encore officiels.

Le StarVR  se distingue également en raison de ses origines françaises. Il est le descendant d’un prototype de casque à large champ de vision conçu en 2013 par des anciens ingénieurs d’Airbus. A l’époque déjà, l’angle horizontal du champ de vision s’élève à 210°, ce qui correspond au champ de vision humain quand on bouge les yeux sans bouger la tête. Ce casque, nommé InfinitEye, et l’entreprise du même nom sont acquis deux ans plus tard par l’entreprise suédoise Starbreeze, spécialisée dans le développement et l’édition de jeux vidéo.

ic3XXCJw

StarVR_One_04_white background

StarVR_One_02_white background

Pour le divertissement et l’industrie

StarVR est désormais le fruit d’une co-entreprise impliquant Starbreeze et l’industriel taïwanais Acer, qui détient 66% du capital. «Le StarVR se destinait principalement au marché du LBE (location based entertainment ou salles d’arcade, ndlr), confie Marc Piuzzi, ingénieur en solutions de réalité virtuelle. Depuis l’arrivée d’Acer, nous ciblons aussi les entreprises et l’industrie.» Si la société StarVR est représentée à Taipei, à Stockholm et à Los Angeles, les locaux consacrés à la recherche et développement sont situés sur les Champs-Elysées et regroupent une petite trentaine de personnes.

«Les premiers clients intéressés par notre technologie sont les concepteurs de l’industrie automobile, qui sont déçus par la qualité et l’étroitesse du champ de vision des casques RV actuels, enchaîne Marc Piuzzi. Un champ de vision large est notamment un argument pour les ingénieurs qui apprécient l’ergonomie dans l’habitacle d’un véhicule. Les secteurs de la simulation automobile et aéronautique sont également des débouchés potentiels.»

De manière concrète, le StarVR se compose de deux écrans de 1840×1460 pixels chacun et de deux lentilles de Fresnel, qui reproduisent ce champ de vision de 210° à l’horizontal et de 130° à la verticale. Ces deux lentilles ont constitué un défi technique à part entière. «Elles ont demandé deux ans de développement, détaille Marc Piuzzi. Elles jouissent de bonnes propriétés optiques et peuvent être fabriquées à l’échelle industrielle.» Les écrans ont de même leurs particularités. Alors qu’une précédente version disposait d’écrans classiques de téléphone portable, à 60 Hz, la version commerciale est équipée d’écrans Amoled à 90 Hz, élaborés par Acer.

«Un taux de rafraîchissement de 60 images par seconde n’est pas suffisant, indique Marc Piuzzi, et peut provoquer des cinétoses et des scintillements sur les surfaces très claires des objets 3D. Qui plus est, l’arrangement des sous-pixels de nos écrans est complet : chaque pixel compte des sous-pixels rouge, vert et bleu, ce qui a son importance quand l’affichage est placé juste devant les yeux. C’est mieux que la technologie Pentile de Samsung, où les sous-pixels verts sont prédominants (l’oeil humain est plus sensible au vert, ndlr).»

Un gain de performances de 100%

Quant au suivi oculaire, l’idée faisait partie initialement du projet d’InfinitEye. Elle s’est concrétisée cette année avec l’intégration d’un système conçu par une autre société suédoise, en l’occurrence Tobii, dont c’est le domaine d’expertise. Cette fonction est avantageuse à double titre. «En premier lieu, elle améliore les performances, explique Marc Piuzzi. Sur la base d’une carte graphique nVidia GTX 1080Ti (carte graphique haut de gamme prisée par les joueurs «hardcore», ndlr), on parvient à créer deux flux vidéo – un pour chaque écran – à 90 images/seconde, ce qui dépend toutefois du niveau de détails graphiques. En liaison avec le dispositif de Tobii, la carte graphique calcule l’image 3D dans sa définition optimale à l’intérieur d’un cercle centré sur le regard de l’utilisateur, qui couvre 30% du champ de vision. A l’extérieur du cercle, elle traite l’image à 40% de la définition native des écrans. Les performances peuvent doubler en fonction des applications. La puce Tobii analysant le regard étant à l’intérieur du casque, la latence est éliminée.»

D’autre part, «ce dispositif automatise l’ajustement de la distorsion optique de l’image, qui dépend de l’écart interpupillaire de l’utilisateur, ajoute Marc Piuzzi. Il n’y a plus besoin de molette de réglage manuel.» Son incorporation n’a pas été une mince affaire. «Les LEDs à infrarouge sont placées sur le pourtour des lentilles, décrit Marc Piuzzi. Il a fallu aussi trouver de la place pour les miroirs et les deux caméras qui analysent la position des rétines.» Cette technologie devrait être également utile dans la filière de la formation (BTP, industrie…), qui fait un usage croissant de la réalité virtuelle pour enseigner les bons gestes ou sensibiliser aux risques. «On sait où la personne regarde» constate Marc Piuzzi. Une information qui peut être mise à profit pour améliorer les opérations.

Pour en savoir plus : www.starvr.com

Par Frédéric Monflier

L’État explique comment se passer des GAFAM

« Étant donné l’importance du numérique dans nos vies, créer les conditions d’une dépendance maîtrisée et limitée à ces plateformes est une nécessité. Ainsi, Mounir Mahjoubi, Secrétaire d’État auprès du Premier ministre, chargé du Numérique, met à votre disposition plusieurs pistes de solutions alternatives ou complémentaires aux services proposés par les grandes plateformes ».

Tout est dans la nuance. À aucun moment, il n’est fait mention de façon explicite aux GAFAM (Google, Amazon, Facebook, Apple ou Microsoft (GAFAM). Or il s’agit de multinationales tentaculaires : Facebook possède WhatsApp et Instagram, Google détient YouTube et Waze, Microsoft distribue Skype…

Comme l’association Framasoft qui publie régulièrement des alternatives libres et faciles d’accès aux services de Google & consorts, l’État a décidé de publier sa liste.

Elle permet de constater qu’il existe d’autres solutions pour travailler et échanger des données. Indirectement, elle invite à retenir ces alternatives afin de soutenir un écosystème européen et renforcer notre indépendance technique.

Vie privée

Les alternatives sont classées par domaines : gestion de projet, questionnaire en ligne, partage de documents, microblogging, données géographiques ou bien statistiques.

Logiquement, cette liste commence par les navigateurs web et les moteurs de recherche. Firefox, Brave et Vivaldi sont les trois navigateurs proposés. Chrome, Internet Explorer, Edge ou Safari ne sont pas présents dans cette catégorie pour des raisons évidentes.

Concernant les moteurs de recherche, cette liste ne cite pas Google et Bing (Microsoft) mais plutôt Qwant et DuckDuckGo. Le premier est conçu et basé en France. Le second est un méta-moteur de recherche dont la société éditrice est en Pennsylvanie. Les deux moteurs partagent la même philosophie : préserver la vie privée et de ne stocker aucune information personnelle concernant les utilisateurs.

Les entreprises, administrations et, de manière générale, tous les professionnels peuvent (re)découvrir des solutions pour l’organisation de leurs rendez-vous  : Zoutch ! (pour des événements professionnels ou privés entre amis) ou Moreganize qui réunit sur une seule interface un agenda partagé, un outil de sondage privé ou anonyme et une liste de tâches partagée. L’association Framasoft propose des équivalents avec notamment Framadate.

À la place de Dropbox ou de Google Drive, il est possible d’utiliser les services de Owncloud ou de Pydio (une start-up française spécialisée dans le partage sécurisé de fichier open source pour les entreprises) pour partager des documents. La catégorie « Suite collaborative » montre qu’il existe de nombreuses solutions alternatives : Nextcloud, Alfresco (un système de gestion de contenu distribué sous licence libre), Mattermost (un clone de Slack, open source auto-hébergé, sous licence MIT)…

La liste du Secrétaire d’État auprès du Premier ministre n’a pas vocation à être exhaustive. Elle s’enrichira au fur et à mesure de l’évolution de cet écosystème.

Par Philippe Richard

Petits satellites : premières exigences internationales

La nouvelle industrie spatiale, qui s’appuie notamment sur l’utilisation de micro- ou nanosatellites, a ouvert la porte à beaucoup de nouveaux arrivants sur ce secteur particulier. Les experts du secteur se sont inquiétés de voir des engins dont la fabrication, l’exploitation ou la récupération ne soient pas assurées dans des conditions d’exigences minimales que les acteurs historiques se sont fixés pour préserver la sécurité des autres occupants de l’espace. Il faut dire que le nombre de lancements d’engins spatiaux n’a jamais été aussi grand. Et cela va encore augmenter. Un rapport de la société SpaceWorks souligne ainsi une augmentation de 205 % du nombre de nanosatellites lancés entre 2017 et 2016. Une tendance qui devrait perdurer encore plusieurs années au vu des constructions en cours ou prévues. On estime ainsi que 2600 petits engins spatiaux devraient être lancés dans les cinq prochaines années.

Un cadre pour les petits développeurs

Pour l’ISO, ce document n’est pas un frein à l’entrée sur le marché de nouveaux opérateurs mais plutôt une aide pour être plus conformes aussi aux exigences des grandes entreprises du secteur ou des agences gouvernementale avec lesquelles ils travailleront peut-être. En effet, la fabrication de ce type d’engins implique le respect de certaines normes ou réglementations que certains nouveaux arrivants ignorent peut-être. Grâce à ISO/TS 20991, Systèmes spatiaux – Exigences relatives aux petits engins spatiaux, ils peuvent connaître les attendus minimaux pour les différentes étapes du cycle de vie des systèmes des petits engins spatiaux, et ce qu’elle que soit leurs missions. Ces lignes directrices servent notamment à mieux assurer la sécurité et la mitigation des débris spatiaux. Elle aborde tant les phases de conception, de lancement, de déploiement et d’exploitation que celle du retrait de service et se réfèrent aux normes déjà existantes.

Par Sophie Hoguin

Des dizaines de pesticides contaminent les femmes enceintes

Les chercheurs de l’Institut national d’études démographiques (Ined) et de l’Institut national de la santé et de la recherche médicale (Inserm) se sont réunis mi-septembre à Paris pour faire part de leurs nouveaux résultats concernant le projet Elfe. Cette étude longitudinale à envergure nationale a pour but d’étudier durant plusieurs années différents aspects de la vie de plus de 18.000 enfants nés en 2011. Les recherches menées se concentrent autour de trois axes : le cadre social, la santé et l’environnement. Si les enfants sont les premiers concernés par ces recherches, les autres membres de la familles intéressent également. Ainsi, Cécile Chevrier, épidémiologiste à l’Inserm a révélé que la cohorte Elfe s’est penchée sur l’exposition des femmes enceintes aux pesticides.

Une exposition aux pesticides qui influe sur le poids de naissance

L’objectif de cette étude était d’établir le nombre de molécules phytosanitaires auxquelles les femmes sont exposées durant leur grossesse. Pour y parvenir, des analyses de trois à neuf centimètres de mèches de cheveux de plusieurs dizaines de femmes enceintes vivant en zone périurbaine en France ont été soumises à examen dans le but de détecter jusqu’à 140 molécules définies. En partant du principe qu’un centimètre de cheveux pousse en un mois, les mèches étudiées permettent d’analyser entre un trimestre et une grossesse entière d’exposition aux pesticides. Parmi ces molécules se retrouve notamment la perméthrine, un « foudroyant insecticide interdit dans les usages agricoles » atteste l’épidémiologiste de l’Inserm. Elle révèle également que cette substance est également un acaricide, qui se retrouve dans des insecticides domestiques.

Les résultats de l’étude sont édifiants : aucune femme enceinte n’a les cheveux parfaitement sains. Pour la moitié de celles dont les cheveux ont été analysés, 43 molécules ont été détectées. Et sur les 140 molécules recherchées, 122 ont été retrouvées. Bien qu’elle n’ait pas souhaité apporter des précisions sur ce point, Cécile Chevrier a expliqué que ce type de recherche était essentiel pour, à terme, mettre en évidence l’impact probable de l’exposition aux pesticides sur les problèmes neurologiques et de poids des nourrissons à la naissance. La chercheuse a en effet rapidement évoqué l’éventualité que l’exposition aux pesticides des femmes enceintes durant la grossesse pourrait potentiellement favoriser le risque de développement de l’hypospadias, une maladie génitale du petit garçon.

Par Chaymaa Deb

TOP 5 : les articles les plus lus #septembre2018

Emploi des ingénieurs : au beau fixe et pour longtemps

Les études annuelles continuent de confirmer les tendances des années précédentes. L’emploi des ingénieurs ne connaît pas la crise. Le secteur informatique tient le haut du pavé mais toutes les spécialités connaissent une évolution vers une demande massive de digitalisation.

emploibig

 

Spacetrain, le monorail français hyper-rapide : le projet devient concret

Conçu comme une alternative technologique à l’Hyperloop, Spacetrain s’appuie, non pas sur la lévitation magnétique, mais sur des coussins d’air. Le projet industriel a pris une tournure très concrète où acteurs privés et pouvoirs publics commencent à s’impliquer.

spacetrain-1140

 

Les bus à hydrogène se déploient en Europe

Afin de faire baisser le coût des bus électriques à hydrogène et favoriser l’émergence d’une offre industrielle européenne, des stratégies d’achats groupés se mettent en place. La France attend ses premiers bus pour 2019.

bus-hydrogene-1140

 

Les enjeux de l’innovation ouverte

L’innovation n’est plus un processus exclusivement interne à l’entreprise. Aujourd’hui, d’autres modèles émergent, en particulier celui de l’innovation ouverte. Explications.

innovation-ouverte-1140

 

General Electric choisit la blockchain pour valider ses pièces 3D

Les progrès du numérique vont-ils conduire au remplacement des humains par des machines en toutes tâches ? Enquête auprès de chercheurs en intelligence artificielle et en économie sur l’évolution de nos emplois dans dix ou vingt ans

blockchain-impression3D-1140

 

Par I. B

1 milliard d’euros supplémentaires pour la transition écologique

Le projet de loi de finances pour 2019 a été présenté en Conseil des ministres le 24 septembre. Pour 2019, le budget du ministère de la transition écologique et solidaire devrait atteindre 34,2 milliards d’euros, en hausse de 3,1 % par rapport à 2018. Les fonds serviront en priorité à soutenir le développement des énergies renouvelables électriques et la méthanisation : près de 7,3 milliards d’euros, en hausse de 1,3 %. Grâce à la baisse des coûts des nouvelles installations, les projets éoliens et solaires se multiplient : la puissance totale de ces deux énergies devrait atteindre 25 gigawatts (GW) fin 2018, en hausse de 14 %.

Le deuxième poste de dépenses du ministère est consacré à la mobilité : 6,99 milliards d’euros, en hausse de 5 %. En particulier, le gouvernement s’attellera à moderniser le réseau routier et ferroviaire, renouveler les rames des Intercités et des TER, commencera à rembourser la dette de la SNCF et développera le vélo. Le gouvernement consacrera également plus de 2,37 milliards d’euros à des actions dans le domaine de l’eau et de la biodiversité, en hausse de 1,7 %. Enfin, près de 1,22 milliards d’euros seront consacrés à la prévention des risques, à la santé et à la gestion des déchets.

Quelles mesures pour les particuliers ?

Les primes pour aider les particuliers à acheter des véhicules moins polluants, les aides à la rénovation énergétique et le chèque énergie seront renforcés. Face au succès de la prime à la conversion, le budget sera augmenté de 47 % en 2019, pour atteindre près de 570 millions d’euros. Dès la fin 2018, la moitié de l’objectif du quinquennat devrait être atteint, soit près de 250.000 véhicules.

Contrairement à ce qui avait été annoncé, le Crédit d’Impôt pour la Transition Energétique (CITE) sera reconduit en 2019 et ne sera pas transformé en prime immédiate, sur présentation des justificatifs. En revanche, le taux réduit de TVA à 5,5% pour les travaux sera maintenu et l’éco-prêt à taux zéro (EcoPTZ) sera simplifié. Ce dernier sera notamment élargi à des actions simples de rénovation unique et non plus seulement à des « bouquets de travaux ». Le dispositif des certificats d’économies d’énergie (CEE) sera quant à lui largement renforcé, avec une ambition doublée sur la période 2018-2020 et une mobilisation de fonds privés de plus de 2 milliards d’euros par an.

Enfin, le chèque énergie passera de 150 à 200 euros en moyenne pour les 3,7 millions de ménage modestes qui en bénéficient. Ce poste s’élève à près de 710 millions d’euros, en hausse de 22 %.

Le projet de Loi de finances 2019 sera discuté, puis, voté par le Parlement lors du dernier trimestre 2018. Il sera publié au Journal officiel avant fin décembre 2018.

Par Matthieu Combe

Application mobile : le Magazine d’Actualité désormais dans votre poche !

Les plus attentifs d’entre vous l’ont remarqué : au printemps dernier, nous sommes passés de 99e au 101e dossier du Magazine d’actualité !

Pourquoi avoir attendu ?

Pour vous livrer avec une surprise : la sortie de l’application du Magazine d’actualité de Techniques de l’Ingénieur compatible iOS et Android.

Pourquoi marquant ?

Parce qu’à partir d’aujourd’hui, l’actualité scientifique et technique tient dans votre poche, en ligne et hors ligne. Une petite révolution pour rester en veille sur les innovations, l’actu des entreprises et des marchés, mieux comprendre le monde de demain ! Et tout cela gratuitement !

Alors, ça se fête ?

visuel_sortie_appli_apple_portrait
Et oui, à cette occasion, participez au concours pour gagner un voyage Extraordinaire dans l’usine de demain. Vous pouvez remporter votre séjour à Paris à l’occasion de l’exposition l’Usine Extraordinaire.

Téléchargez vite l’application, un indice majeur s’y trouve ! Le premier mot qui apparaît au lancement de l’appli vous aidera à répondre aux questions du concours.

et participez au grand jeu concours lancé pour l’occasion !

(lien direct vers le concours) !

 

Toute la rédaction du Magazine d’Actualité vous remercie de votre fidélité et vous souhaite bonne chance !

 

Gagnez un Voyage extraordinaire dans l’Usine de demain !

Pour jouer (et gagner !) votre voyage, cliquez ici

Il suffit de répondre aux trois questions avant le 16 Novembre 2018. Choisissez votre catégorie : étudiant ou professionnel, un tirage au sort désignera un gagnant dans chacune de ces deux catégories parmi les participants ayant donné toutes les bonnes réponses.

Pour maximiser vos chances de gagner ce voyage, téléchargez l’application « Techniques de l’Ingénieur, le Magazine d’Actualité », disponible sur Play Store et Apple Store, accessible depuis techniques-ingenieur.fr, liens en bas de page. Une des trois bonnes réponses apparaît à l’ouverture de l’appli !

Vous pourrez alors remporter un voyage à Paris*, comprenant une nuit d’hôtel pour 2 personnes et le transport aller-retour pour visiter l’Usine Extraordinaire, exposition qui se tient du 21 au 25 Novembre 2018, sous la nef du Grand Palais.

Le tirage au sort aura lieu au plus tard le 19 novembre 2018.

Répondez simplement aux 3 questions et tentez de gagner votre voyage ici

Pour plus d’informations, vous pouvez consulter le règlement de ce concours.

* départ de la ville de votre choix, en France métropolitaine

 

 

REACH : une réglementation pour les substances chimiques

La production des substances chimiques a connu une ascension fulgurante au cours des 70 dernières années, passant de 1 million de tonnes en 1930 à plus de 400 millions de tonnes actuellement, la part des substances chimiques dangereuses augmentant dans des proportions équivalentes. Si certains produits dangereux sont réglementés voire interdits, les risques liés à l’usage de nombreux produits chimiques sont encore mal identifiés. Cette connaissance insuffisante de l’incidence de ces substances chimiques sur la santé humaine et sur l’environnement entraîne de vives préoccupations tant du public que des autorités. La réglementation européenne en ce domaine, bien qu’ayant évolué depuis une quarantaine d’années, s’est avérée insuffisante pour évaluer correctement les dangers de l’ensemble des substances mises sur le marché et les risques associés à leurs usages. C’est pour répondre à un objectif de meilleure prévention vis-à-vis du risque chimique que la Commission européenne a décidé dès 2001 de mettre en place une nouvelle politique chimique, concrétisée par l’adoption en décembre 2006 du règlement REACH.

Principes généraux du règlement

REACH a donc pour ambition deux objectifs principaux : assurer un haut niveau de protection pour la santé humaine ainsi que l’environnement et renforcer la position concurrentielle de l’industrie chimique européenne. Pour cela, il établit un système intégré d’enregistrement, d’évaluation et d’autorisation des substances chimiques ainsi que de restrictions applicables à ces substances.

« Avec REACH, l’innocuité d’une substance devra être prouvée par l’industriel, faute de quoi la production, la mise sur le marché et la transformation dans l’Union européenne devront cesser »

REACH a introduit une nouvelle ère dans la politique sur les substances chimiques en Europe. Il constitue une véritable refonte du système réglementaire européen en remplaçant près d’une quarantaine de directives existantes. Il s’applique aux fabricants et importateurs, mais aussi aux utilisateurs en aval de substances chimiques, telles quelles ou contenues dans des articles ou des préparations. Il permet d’augmenter les connaissance des propriétés dangereuses des produits chimiques pour une gestion efficace des risques liés à l’utilisation de ces produits tout en promouvant l’utilisation de méthodes alternatives non réalisées sur animaux pour l’évaluation des dangers des substances. Il prévoit le renforcement de la communication et de la mise en œuvre des conditions d’utilisation tout le long des chaînes d’approvisionnement du producteur/importateur à l’utilisateur final. Il tend également à la substitution progressive dans l’Union européenne des substances chimiques les plus dangereuses, en particulier les substances très préoccupantes comme les cancérogènes, mutagènes et toxiques pour la reproduction (CMR).

Parmi les dispositions importantes prévues dans le règlement REACH figure par ailleurs la création d’une Agence européenne des produits chimiques (ou ECHA pour European CHemical Agency), basée à Helsinki, dont le rôle est d’assurer la mise en œuvre, la gestion et la coordination administrative, scientifique et technique du système.

Les éléments essentiels de ce règlement sont :

  • l’obligation par les producteurs/importateurs de fournir des données sur les propriétés mais aussi sur les usages et les risques des substances qu’ils produisent ou importent à plus de 1 t/an : « Pas de données, pas de marché». Ces dispositions doivent permettre de résorber « la charge héritée du passé » par étapes successives pour acquérir les connaissances adéquates sur toutes les substances chimiques ;
  • le renversement de la charge de la preuve ; dorénavant, c’est aux producteurs des substances de prouver que les risques liés aux substances qu’ils produisent sont valablement maîtrisés, et non plus aux autorités publiques. « Il incombe aux fabricants, importateurs et utilisateurs en aval de veiller de fabriquer, mettre sur le marché ou utiliser des substances qui n’ont pas d’effets nocifs pour la santé humaine ou l’environnement. Ses dispositions reposent sur le principe de précaution». Ils doivent donc assurer une gestion responsable des risques et informer la chaîne de leurs utilisateurs en aval. Seules les substances les plus préoccupantes seront traitées par les autorités ;
  • la réduction ou la non-utilisation des essais sur animaux en obligeant les déclarants à partager les données dont ils disposent pour une même substance, en favorisant les méthodes in vitroet en évaluant au cas par cas les demandes d’essais sur animaux ;
  • la mise en place d’un système unique d’évaluation des substances existantes et nouvelles ;
  • la création d’un nouvel outil de gestion des risques qui est la procédure d’autorisation pour les substances extrêmement préoccupantes pour inciter à la substitution de celles-ci ;
  • la reprise de la procédure précédente de la directive « Limitations » sous une forme légèrement différente pour gérer les risques non couverts par ailleurs.

L’ensemble de ces dispositions étant inscrit dans un règlement, c’est une réelle harmonisation de la politique chimique européenne qui se met en place, car ce dispositif évite les délais d’application et les différences de transpositions dans les droits nationaux. Les sanctions et dispositifs de contrôle seront toutefois régis par des textes nationaux.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 octobre !

REACH : une nouvelle réglementation pour les substances chimiques, un article de Huguette DÉCHARIAUX

Cybersécurité : le marché de l’emploi va encore grandir

Aujourd’hui la cybersécurité est passée d’un positionnement stratégique pour les entreprises et les administrations à un enjeu vital encadré par une obligation réglementaire (existence d’une responsabilité générale et pénale de sécuriser leurs systèmes d’information). Pour autant les entreprises françaises sont loin d’être matures. Les informaticiens jugent même que 89 % d’entre elles y sont mal préparées (enquête Apec 2017). Les offres d’emplois, dont la quasi-totalité sont de niveau cadre, ne cessent de se multiplier.

A titre d’exemple, entre 2014 et 2016, les offres de postes en cybersécurité recensées par l’Apec sont passées de 315 à 1133.

Une tendance qui ne se dément pas. La réglementation joue un rôle important dans l’augmentation de la demande de compétences en matière de cybersécurité. Par exemple, avec la transposition de la directive européenne dite directive «NIS» (UE 2016/1148) sur la sécurité des réseaux et des systèmes d’information de nombreuses entreprises vont avoir des exigences encore plus drastiques de sécurisation de leurs systèmes d’informations. Il s’agit notamment des entreprises de transports, de banque, d’assurances, de santé, de distribution d’eau ou d’infrastructures numériques. Le liste exacte des entreprises concernées doit être fixée par décret avant la fin de l’année et leurs obligations vont être détaillées dans un arrêté à paraître dans les jours qui viennent.

Une filière qui se structure

La filière et le marché de l’emploi en la matière commencent à se structurer.  On peut distinguer trois-quatre grands structures d’emploi : les entreprises qui veulent monter en compétences et font des embauches directes, les entreprises prestataires de services qui embauchent pour vendre leur expertise aux entreprises utilisatrices qui ont choisi d’externaliser toute ou partie de la fonction et des entreprises de R&D (principalement des start-up) qui vont développer des produits dédiés. L’Apec sépare de ce marché celui très spécifique de la défense qui comprend les grandes entreprises comme Thalès, Airbus ou le ministère de la Défense lui-même. D’un autre côté, tout le secteur de la formation se mobilise : tant en formation initiale que continue. A ce titre, l’Anssi (agence nationale pour la sécurité des systèmes d’information) est devenue centrale et structurante. En effet, depuis 2016 elle labellise les formations (SecNumedu et SecNumedu-FC) et délivre des «Visas sécurité» pour les produits, logiciels, solutions qu’elle a évalué comme fiables.

Des salaires au plus haut

Sans conteste les différentes études qui se sont intéressées à la rémunération des ingénieurs en cybersécurité relève que les salaires sont au plus haut. Ainsi en avril 2017, le site d’offres d’emplois Jobibjoba publiait un palmarès des salaires dans les métiers du numérique construit à partir des offres parues. En salaire brut (sans primes ou avantages en nature), les postes en cybersécurité arrivaient en tête avec une moyenne de 60 000 euros/an devant les architectes logiciel ou responsables acquisition online à 52500 euros. Une enquête de cet été publiée par un analyste en cybersécurité, connu sous le pseudo de x0rz, et menée auprès de 368 professionnels de SSI donne un aperçu des rémunérations dans le secteur. Les données, disponibles en open source, révèlent que le salaire moyen (hors primes) varie de 39k€ à près de 70k€ par an en fonction de l’expérience.

Sophie Hoguin

BIM manager : un métier jeune pour cadres expérimentés

Selon le référentiel des métiers de l’OPIIEC*, le BIM manager «développe et met en place le processus BIM (Building information modeling – maquette numérique) afin de faciliter la conception, coordonner les différentes phases de construction et optimiser l’exploitation de l’ouvrage tout au long de son cycle de vie. Il assure la communication et le travail collaboratif entre les acteurs du projet à travers la mise en commun d’une plateforme.» Bref, c’est le chef d’orchestre de la maquette numérique : il doit à la fois s’assurer que les outils sont en place et fonctionnels et que les personnes les utilisent correctement et qu’elles communiquent entre elles.

Premiers postes et premières formations

Les premiers postes créés datent à peu près de 2012-2013. Ils ont été initiés parce que certains maîtres d’ouvrage voulaient commencer à tester la maquette numérique sur quelques projets, les entreprises ont dû suivre et nommer quelqu’un pour superviser et organiser la mise en place des outils, des compétences et la nouvelle organisation du travail. Du coup, il fallait des profils qui connaissent bien le métier et qui soient partants pour se former à ces nouvelles technologies. Petit à petit, le BIM a infusé le monde du BTP et aujourd’hui en France, le rapport d’étape du Plan Transition numérique dans le bâtiment, publié en mars 2018, affirme que «à la fin de l’année 2017, 35 % de l’ensemble des acteurs du BTP considéraient avoir une connaissance suffisante du BIM, en forte progression puisqu’ils n’étaient que 15 % par rapport à fin 2016». Evidemment, ce taux est très variable selon la taille des entreprises et leurs métiers. Autant en maîtrise d’oeuvre (bureaux d’études, architectes), l’emploi des maquettes numériques est généralisé, notamment pour la conception, et se développe donc facilement vers la réalisation voire parfois l’exploitation autant il peut être moins évident pour certains métiers opérationnels où les outils traditionnels et la culture de l’expérience terrain sont fortes.

Pour accompagner cette montée en puissance, des formations spécifiques se créent. A tous les niveaux de compétences : depuis le Mastère Spécialisé® BIM : conception intégrée et cycle de vie du bâtiment et des infrastructures de l’ESTP qui propose 400h de formation à des professionnels qui ont déjà une dizaine d’années d’expérience et qui veulent devenir BIM manager à l’intégration de modules BIM dans les formations d’ingénieurs BTP, de techniciens ou d’architectes tant en formation initiale que continue.

Polyvalence, curiosité, compétences relationnelles

Mais attention, le BIM ne créé pas d’emplois. Selon une étude** de l’OPIIEC de juillet 2016 «il apparaît que le BIM ne devrait pas créer de besoins supplémentaires en recrutement mais que les entreprises vont recruter des collaborateurs déjà formés au BIM pour accompagner leur montée en compétences en remplaçant les départs à la retraite ». Le BIM devient donc un atout pour l’embauche et pour la valorisation du salaire. En apportant une transformation du travail et des relations entre les travailleurs avec une forme plus collaborative autour de nouveaux outils, il oblige les ingénieurs et cadres du BTP notamment à développer de nouvelles compétences. Pour les BIM Manager : aptitude à la pédagogie et facilité avec les relations humaines car le BIM manager est au coeur de la transmission des savoirs en la matière et doit savoir fédérer et animer des équipes, capacité et volonté à maintenir une veille technologie impliquant d’être pro-actifs dans la recherche d’information et a minima lire couramment l’anglais. Mais le BIM manager doit aussi être adaptable. Car les limites de son poste sont différentes d’une entreprise à l’autre, et vont certainement bouger au fil du temps : selon les capacités d’autonomie des autres collaborateurs, le BIM manager aura plus des fonctions vers l’extérieur qu’en interne où il sera plus orienté vers la gestion de données que vers le support technologique ou encore il mutera vers l’intégration d’autres nouveaux outils : robotisation, intelligence artificielle, réalité augmentée etc. Et, pour les PME qui n’ont pas la chance d’avoir en interne les compétences et qui doivent répondre à des projets BIM, on voit apparaître une offre de sous-traitance des compétences BIM pour de l’accompagnement ou de la gestion de projets via des bureaux de conseils. Un lieu privilégié d’embauche de profils «BIM manager».

Sophie Hoguin

*Observatoire Paritaire de l’Informatique, de l’Ingénierie, des Etudes et du Conseil

**KYU Lab pour OPIIEC –Etude sur l’évolution de l’ingénierie française de la construction liée au BIM -juillet 2016

Entreprises recherchent développeurs polyglottes !

Pendant longtemps, même si les développeurs ont pu étudier plusieurs langages lors de leur formation, le monde du travail leur demandait généralement de se spécialiser. Et puis l’Internet et la mobilité se sont développés. La numérisation des données et des process est entrée dans tous les secteurs d’activité. De nombreux nouveaux langages informatiques sont nés, pour la conception de nouveaux objets numériques liés au développement de l’Internet, de la téléphonie mobile, de l’IoT, d’applications dédiées etc. Les entreprises se sont mises à développer leur propre environnement, des « nuages personnalisés » pour partager leurs données en interne. Et l’accumulation de différentes fonctions et la demande de personnalisation ont logiquement donné lieu à la cohabitation de plusieurs langages informatiques au sein des entreprises.

Une étude commanditée par Cloud Foundry Foundation* et parue en août 2018 sur les langages informatiques les plus usités dans les entreprises souligne ce nouvel état de fait : de plus en plus d’entreprises emploient une stratégie polyglotte pour atteindre leurs objectifs. Pour les auteurs, c’est notamment la flexibilité des technologies liées au cloud qui a permis de se diriger vers une informatique plus flexible, portable et interopérable. Dans cet état d’esprit, les entreprises créent des équipes de développeurs polyglottes qui peuvent piocher dans le langage le plus adapté aux outils qui doivent être utilisés. Cette translation vers le polyglottisme transparaît aussi dans les offres d’emplois analysées par l’Apec : les profils recherchés doivent surtout être adaptables, capables d’apprendre de nouveaux langages. Mais, note cependant l’Apec ces annonces cachent parfois un objectif un peu différent : la constitution de viviers de spécialistes auxquels l’entreprise peut faire appel à la demande.

Polyglottes au quotidien ?

En réalité, le polyglottisme recouvre différentes réalités au sein de la population des développeurs. On trouve ainsi des polyglottes du quotidien qui travaillent avec plusieurs langages tous les jours. En 2013, le cabinet d’étude Forrester Research estimait qu’ils représentaient 4 développeurs sur 10. Mais on trouve aussi, surtout chez les développeurs seniors, des polyglottes au long terme qui travaillent avec plusieurs langages mais successivement dans leur carrière, accumulant ainsi les connaissances au fil des projets qu’ils ont pu mener. L’idée sous-jacente du polyglottisme, c’est que la programmation serait plus mature : chaque langage étant utilisé au mieux de son utilité. Pour certains, c’est aussi la preuve que le développeur dépasse un langage pour comprendre une ou des logiques sous-tendant la programmation et apporte alors une vision globale et généraliste qui permet d’optimiser les processus. Pour les employeurs, il y a parfois une dérive : voyant dans les polyglottes des personnes qui peuvent assurer à elles seules plusieurs postes. Attention, là, l’épuisement professionnel voire le burn-out peuvent surgir. Finalement, on est dans une sorte de transition où le marché du travail lui, répond qu’il veut des développeurs capables de porter un projet avec une vision holistique mais qu’il a aussi besoin de développeurs qui puissent soit coder dans plusieurs langages soit hyper-spécialisés et performants dans un ou deux seulement. En attendant, que le foisonnement de nouveaux langages se tassent et que quelques grands gagnants se stabilisent comme c’est déjà le cas pour Java, Javascript, Python ou C++, il est clair que le marché du travail pour les développeurs est en tension. Mais pas pour les candidats, surtout pour les entreprises qui ont du mal à trouver du personnel.

Un métier pour les jeunes, désertés par les jeunes

C’est là un paradoxe de ce métier : il demande d’être curieux, actif, adaptable, vif, toujours en train d’apprendre. Des qualités plutôt disponibles chez les jeunes ingénieurs. Pour autant, l’étude réalisée par le cabinet YouGov pour l’éditeur CA Technologies cet été et dont les conclusions ont été dévoilées à l’occasion de la journée mondiale des programmeurs le 13 septembre sont plutôt pessimistes : en France, le métier de développeur n’attire pas du tout les jeunes. Ils en ont toujours l’image d’un « geek » solitaire, codant plusieurs heures par jour, enfermé dans son programme et le métier ne fait rêver que 8 % des 15-34 ans. Alors qu’aujourd’hui le métier a évolué et offre de nombreux débouchés. Bien rémunéré, il fait appel de plus en plus à l’imagination, la créativité, et se pratique au sein d’une équipe, souvent en mode projet. La présence des femmes ne cesse de diminuer depuis 10 ans et cette étude semble indiquer que les raisons sont plus à chercher du côté de l’image véhiculée que par des différences de salaires ou des freins à l’entrée en formation ou à l’embauche.

Sophie Hoguin

*La Cloud Foundry Foundation est fondation à but non-lucratif créée pour soutenir et promouvoir la plateforme d’applications pour le Cloud (PaaS – plateforme en tant que service) open-source du même nom.

Emploi des ingénieurs : au beau fixe et pour longtemps

Deux tiers des jeunes ingénieurs sont embauchés en CDI dès leur sortie de l’école soulignait en juin 2018 ainsi l’enquête annuelle de l’IESF (association des Ingénieurs et scientifiques de France, qui rassemble 180 réseaux d’alumni ingénieurs). Un chiffre confirmé par «l’enquête insertion» de juin 2018 de la conférence des grandes écoles (CGE) qui affirmait que 90 % des élèves entrés sur le marché du travail ont trouvé un emploi après 6 mois (et c’est un CDI pour plus de 80 % d’entre eux) et 100 % à 12 mois. Des chiffres en progression par rapport à 2017. L’enquête précise aussi que «l’entrée dans la vie active est rapide puisque 62 % des étudiants ont trouvé un emploi avant même leur sortie de l’école». Ils étaient 60 % en 2017. Une insertion exemplaire qui perdure tout au long de la carrière : le taux de chômage des ingénieurs est ainsi évalué à 3,4 % en 2017 par l’IESF, en baisse par rapport à 2016 (3,9%).

Salaires : l’inégalité hommes/femmes perdure

Selon l’enquête de l’IESF, le salaire médian en début de carrière est de 34000 euros brut annuel, il monte rapidement pour atteindre 42000 au bout de cinq ans et 100 000 en fin de carrière. La part des femmes, qui ne représentent que 20 % des ingénieurs, augmente cependant atteignant 28,5 % de la promotion 2017. Leur salaire brut médian est de  47000 euros contre 60 000 pour les hommes. L’IESF avance deux grandes explications : une expérience en moyenne inférieure et un choix de filières traditionnellement moins rémunératrices (agronomie, agroalimentaire, sciences de la vie, chimie, environnement…). Mais ce constat des inégalités hommes/femmes présent aussi dans l’enquête de la CGE montre que c’est tout de même plutôt une dévalorisation des femmes qui explique ces écarts que des explications techniques. En effet, précise l’étude de la CGE «Qu’il s’agisse du taux net d’emploi, de la nature des contrats de travail, du statut et surtout du niveau de salaire, tous les indicateurs montrent qu’il subsiste un différentiel en défaveur des femmes et aucune amélioration n’est observée sur les dernières années». Par exemple, en 2018 chez les ingénieurs, le taux de CDI offert aux jeunes femmes est inférieur de 14 points comparés aux jeunes hommes et les ingénieures perçoivent en moyenne 1800 euros de moins par mois… Une différence qui atteint 2500 euros avec les primes !

Informatique, informatique et informatique

Quels sont les métiers et secteurs qui embauchent le plus ? Sans surprise les fonctions liées à l’informatique et la digitalisation de la société. Une étude réalisée par l’Apec en exclusivité pour les  Echos Start relève les fonctions qui s’adressent aux jeunes diplômés. Sur les 10 premiers intitulés de métier retenus, quatre relèvent directement de l’ingénierie informatique (développeur, ingénieur en développement informatique, chef de projet informatique, ingénieur en étude et développement informatique) et représentent 9 608 offres soit à peu près 50 % des offres d’emplois totaux de ces 10 premiers métiers recensés. Le reste des offres se répartissant entre des fonctions commerciales, de recrutement ou comptable. Dans les secteurs qui recrutent le plus, on retrouve cette tendance avec le secteur de «programme, conseil et autres activités informatiques) qui tient le haut du pavé (12131 postes offres), devançant les «activités d’architecture et d’ingénierie» (8860 postes) et les «conseils de gestion» (7158). Un tableau qui concorde avec les prévisions présentées par le cabinet McKinsey en mai 2018 dans son rapport sur l’automatisation et l’avenir du travail» qui anticipe les nouveaux besoins en compétences d’ici à 2030. «D’ici 2030, estime le rapport, le temps passé à utiliser des compétences avancées en technologie devrait augmenter de 50 % aux USA et 41 % en Europe. La demande en compétence dans les technologies de l’information et la programmation informatique devraient enregistrer une croissance de 90 % entre 2016 et 2030». Et si, souligne le rapport, les compétences avancées seront aux mains d’une minorité de spécialistes, c’est toute la population qui va devoir intégrer un certain nombre de compétences de base. Soulignant que le besoin de formation, pour tous les secteurs et les métiers est énorme. L’Apec étudie d’ailleurs l’évolution des compétences des cadres et ingénieurs avec l’arrivée de la digitalisation et de l’usine 4.0. Le constat est sans appel : tous les métiers industriels sont impactés qu’il s’agisse de la maintenance, de la production, de l’organisation même du travail. Cela se traduit par des transformations en profondeur pour certains métiers qui vont perdurer mais sous une forme différente comme par exemple les ingénieurs conception qui doivent évoluer avec l’arrivée de la maquette numérique et de la fabrication additive, l’ingénieur en BTP avec le BIM etc…

Sophie Hoguin

Assises de l’eau : comment moderniser l’eau

Selon un diagnostic élaboré dans le cadre des Assises de l’eau, un litre sur cinq se perd dans les réseaux d’eau à cause de fuites. Il existe de forts contrastes en fonction des services et des régions. Lutter contre ces fuites dans les territoires ruraux constitue le premier axe du plan d’actions mis en place. Pour ce faire, doubler le rythme de renouvellement des canalisations est le premier levier que les acteurs veulent actionner.

Des réseaux modernes avec un meilleur service

Actuellement, le cycle de renouvellement des réseaux est de 170 ans. L’ambition du plan est de le diviser par deux, à 85 ans. Entre 2019 et 2024, les investissements dans les infrastructures vont augmenter de 5 milliards d’euros, passant de 36 à 41 milliards d’euros. Deux milliards d’euros seront notamment consacrés au renouvellement des réseaux dans les zones les moins favorisées. Par ailleurs, le gouvernement souhaite améliorer les conditions d’accès à l’emprunt des collectivités. La Caisse des dépôts accordera des prêts pour financer les réseaux ou les usines, sur une durée pouvant atteindre 60 ans. Le taux d’intérêt sera faible, égal à celui du taux du livret A +0,75%.

Le deuxième axe du plan consiste à améliorer la qualité de service pour les Français. À ce jour, seulement la moitié des services d’eau et 40 % des services d’assainissement publient leurs données. La publication deviendra obligatoire pour que chacun puisse connaître de façon transparente la performance de ses services d’eau. Les Assises de l’eau visent également à soutenir l’innovation, en particulier pour améliorer le goût de l’eau, et le suivi de sa qualité. 50 millions d’euros seront consacrés chaque année à cette politique.

Davantage de confiance, de solidarité et d’informations

Le plan veut renforcer la confiance et la solidarité dans le secteur de l’eau. Selon le Ministère de la transition écologique, 20 % des Français ne font pas confiance à l’eau et 47 % des Français déclarent boire de l’eau en bouteille tous les jours ou presque. Un comité stratégique de filière devra rendre plus transparente l’information délivrée aux usagers sur la qualité de l’eau potable. Le gouvernement propose également aux collectivités volontaires de mettre en place un chèque-eau, sur le même modèle que le chèque-énergie, avec le même opérateur national.

Dans un sondage récent, le Centre d’information sur l’eau révèle que 74 % des Français souhaitent recevoir davantage d’informations sur l’eau qu’ils boivent, notamment concernant le traitement et la qualité de l’eau du robinet. En particulier, 37 % des Français souhaitent un engagement accru de l’état sur l’amélioration de la qualité de l’eau et 35 % sur la préservation des ressources.

Le second volet des Assises de l’eau se déroulera d’octobre à décembre autour de la question « Changement climatique et ressource en eau : comment les territoires et l’ensemble des acteurs vont-ils s’adapter? » Les travaux s’articuleront autour de trois axes : économiser, protéger et partager la ressource en eau.

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #20 spéciale high tech

Intelligence artificielle : les robots DRH

Certaines entreprises utilisent une intelligence artificielle pour évaluer les demandeurs d’emploi. Mais cette pratique est-elle éthique ?

robot-drh

Source : The Wall Street Journal

 

La salle de bain de plus en plus high tech

Des brosses à dents innovantes aux WC qui lancent vos morceaux préférés, la salle de bain s’apprête à connaître une petite révolution…

0

Source : The Wall Street Journal 

 

Alexa d’Amazon sait ce que vous avez oublié et peut deviner ce que vous pensez

L’assistant vocal sera bientôt capable de rappeler aux habitants de la maison de penser à fermer les portes et à éteindre les lumières.

Amazon_alexa1140

Source : The Guardian

 

La sonnette intelligente de Google

Nest Hello de Google est une sonnette vidéo qui se veut plus intelligente que les autres avec un enregistrement, et une reconnaissance du visage et des objets.

4450

Source : The Guardian

 

La reconnaissance faciale fait son chemin

Les restaurants, les compagnies aériennes et autres veulent utiliser la technologie dans le commerce quotidien.

reconnaissance-faciale-1140

Source : The Wall Street Journal

 

Par I. B.

Revue du web #117 : les 6 vidéos les plus étonnantes

Après la voiture , voici la moto autonome

BMW Motorrad vient de présenter sa R 1200 GS autonome qui devrait servir de plateforme de développement pour la sécurité du motard.

 

Deepfake : un trucage vidéo troublant

Des chercheurs de l’université Carnegie Mellon ont développé une nouvelle technique de trucage vidéo particulièrement inquiétante : grâce à ce procédé, on peut faire dire n’importe quoi à n’importe qui.

 

La réalité augmentée au service des panneaux solaires

La réalité augmentée nous permettait déjà de visualiser notre futur canapé dans le salon. Dorénavant, il sera également possible de se faire une idée de l’esthétique finale avant la pose des panneaux solaires sur le toit et de calculer la production future selon l’emplacement !

 

 

Une intelligence artificielle capable de prédire les réactions chimiques

Des chercheurs d’IBM ont mis au point une intelligence artificielle capable de prédire les réactions de synthèse.

 

DelFly Nimble : le robot-mouche

Des ailes bien sûr mais aussi aussi une paire de contrepoids qui permettent de stabiliser son corps, à la manière d’un gyroscope.

 

Le sprint spatial d’Usain Bolt

Le nouveau défi du champion : faire un sprint en gravité lunaire !

 

Par I. B

 

Vélo électrique: 380 kilomètres d’autonomie ? Avec Delfast, c’est possible

Combien de cycles est-il possible de réaliser avec un vélo électrique ? Selon le site velo-electrique.org les batteries de vélo électrique «se recyclent très bien, elles peuvent tenir entre 600 et 1500 cycles de charge». Delfast explique dans sa FAQ «que dans des conditions d’utilisation optimales, la batterie peut durer 3000 cycles!».  On peut ainsi réaliser plus de 200.000 kilomètres (hypothèse très conservatrice de 250 km x 800 cycles) avec le vélo Delfast.

Combien d’énergie faut-il consommer pour fabriquer la batterie de 3 kWh ? Selon la Fondation pour la Nature et pour l’Homme il fallait il y a quelques années consommer 350-400 kWh par KWh de stockage  (page 51). La baisse très rapide du coût des batteries est corrélée à la baisse de la consommation énergétique, on peut ainsi estimer qu’il ne faut plus que 200 kWh par kWh de stockage aujourd’hui. En retenant une hypothèse ancienne, non actualisée, de 400 kWh par kWh de stockage, l’investissement énergétique dans la batterie du vélo Delfast correspond à 6 Wh/km (hypothèse de 200.000 km) qui s’ajoutent aux 7,9 Wh/km de consommation de ce vélo (à 21,5 km/h), soit un total de 13,9 Wh/km.

delfast-larger-header

Un kWh d’électricité française correspond à 50 grammes de CO2 par kWh (electricitymap.org). Si une entreprise française développait un vélo similaire à celui de Delfast et s’il était utilisé en France, il émettrait par conséquent 0,7 gramme de CO2 par kilomètre (fabrication de la batterie de 3 kWh comprise). 3,9 grammes avec de l’électricité ukrainienne.

Il faut 30 grammes d’hydrogène pour parcourir 100 kilomètres en VAE à hydrogène selon le Député de la Dordogne Michel Delpon. La durée de vie de la pile à combustible est estimée à 4000 heures, soit 80.000 km à 20 km/h. 95% de l’hydrogène provient du gaz fossile en France. «Sauf à réécrire les ouvrages de chimie, on produira toujours onze tonnes de CO2 pour fabriquer de cette manière une tonne d’hydrogène» explique le journaliste Yves Heuliard dans le média We Demain. Par ailleurs la fabrication de la pile à combustible et du réservoir à très haute pression est énergivore et émettrice de CO2. Et la pile à combustible est couplée à une petite batterie. La production de l’hydrogène à partir d’électricité française (ou ukrainienne) est possible par électrolyse, mais étant donné que le rendement de la chaîne hydrogène est trois fois moins bon que celle de la batterie, cela multiplie environ par trois les émissions de CO2.

Le vélo Delfast peut être utilisé soit en mode 100% électrique, soit en mode VAE (avec assistance musculaire).
Sa vitesse peut être bridée pour entrer en conformité avec la législation des différents pays. Une autre version de ce vélo, équipé d’un moteur électrique de 5 kW (au lieu d’1 kW) permet d’atteindre 80 km/h.

Guinness

380 km en vélo électrique avec une seule charge à 21,5 km/h est le record du monde, comme l’a rapporté fin août 2018 le média américain spécialisé Electrek. C’est la distance Lyon/Marseille, Paris/Bruxelles ou encore Kiev/Moscou. Nul besoin de changer de batterie ou d’effectuer une charge rapide de la batterie en cours de voyage. En effet une promenade à vélo dure rarement plus de 17 heures. Dans le cadre du projet The Sun Trip des aventuriers ont parcouru 12.000 kilomètres en 50 jours grâce à des vélos électriques à batterie alimentés par des panneaux solaires. Soit une moyenne de 240 kilomètres par jour. France-Chine via l’Ukraine et le Kazakhstan.

En France 75 % des déplacements domicile-travail font aujourd’hui moins de 5 km et 70% de ces trajets sont réalisés en voiture thermique avec bien souvent une seule personne à bord.  5 km en vélo électrique à une vitesse de 20 km/h, cela ne prend qu’un quart d’heure. Nul besoin par conséquent d’avoir une batterie de 3 kWh pour ce type d’usage. Une capacité de batterie 10 fois inférieure est amplement suffisante, ce qui permet d’économiser les ressources en matières premières et d’améliorer encore davantage le bilan CO2. Ainsi que de réduire les frais à l’achat.

En France les facteurs de la Poste roulent environ 2 heures par jour à faible vitesse mais avec une charge à transporter (lourde en début de tournée, et réduite à zéro à la fin). Disposer d’une batterie de 3 kWh (au lieu de par exemple d’1 kWh) permet de recharger 3 fois moins souvent, et ainsi d’augmenter d’un facteur 3 la durée de vie de la batterie. Au lieu de durer par exemple 1 an et demi elle dure alors alors 4 ans et demi.

Jean-Gabriel Marie

La blockchain, nouvel atout pour le médical

Techniques de l’ingénieur : Qu’est-ce que la blockchain dans le médical?

Anca Petre : La blockchain est un outil. La plupart du temps, les données sont stockées de manière centralisée dans des bases de données conservées par des entreprises. Avec la blockchain, la même information sera stockée dans une multitude de bases de données d’entreprises différentes. L’information est sécurisée et est partagée dans un réseau où tout le monde peut avoir de la visibilité. Pour mettre à jour une information, tous les acteurs doivent être d’accord. On ne peut jamais modifier ce qui a été enregistré, il est seulement possible d’enregistrer une nouvelle version de la donnée, ce qui permet de suivre son évolution.

En santé, la blockchain permet de s’assurer que les informations échangées dans le réseau sont fiables et sécurisées. L’intérêt n’est pas d’y stocker toutes les données de santé, mais plutôt de choisir celles qui sont critiques ou sensibles et qu’il faut authentifier, protéger et tracer. Elle sert par exemple à tracer un médicament de façon transparente pour redonner de la confiance dans les produits de santé surtout sur les marchés émergents où la contrefaçon est un enjeu de santé publique important. L’intérêt est également d’enregistrer des droits d’accès. Concrètement, on enregistre dans la blockchain le fait que le médecin X a ou non le droit d’accès aux informations du patient Y. Si le médecin X demande l’accès, le logiciel vérifie ce qui est enregistré dans la blockchain. Si l’accord a été donné, alors il pourra y accéder, sinon l’accès sera refusé.

E.T.I. : Concrètement, comment cela fonctionne-t-il?

A.P. : La blockchain est une architecture informatique qui permet d’enregistrer des informations dans ce que l’on appelle des blocs qui sont des structures de données. Dès que le réseau valide un certain nombre de transactions, il va les mettre dans un bloc. Les prochaines transactions seront dans un autre bloc qui sera relié au premier et ainsi de suite, pour former une chaîne de blocs.

La même blockchain, avec les mêmes informations, est enregistrée dans plusieurs ordinateurs, appelés « nœuds ». Plus on souhaite sécuriser la donnée, plus on augmente le nombre de nœuds dans le réseau. De quelques-uns jusqu’à des dizaines de milliers.

E.T.I. : Quel est le métier de votre cabinet?

A.P. : 23consulting est une société leader dans l’accompagnement des acteurs de santé sur la technologie blockchain. Basés à Paris, nous travaillons avec un réseau d’experts et de développeurs en France, mais aussi à l’international, surtout aux États-Unis et en Suisse. Le cabinet conseille, forme et accompagne les laboratoires, les startups ou les hôpitaux privés dans la compréhension de la blockchain. Nous répondons à trois besoins : la compréhension de la technologie, l’anticipation de l’impact sur l’organisation et la mise en place de projets de A à Z. Nous participons également à des groupes de travail internationaux. Dans le cadre du projet PHUSE, le but est par exemple de trouver une façon de sécuriser le circuit de données issues des essais cliniques.

Nous essayons également d’approcher les régulateurs et les autorités civiles. Il est important pour les acteurs qui s’intéressent à la blockchain dans le secteur de la santé de comprendre la position des autorités sur cette technologie et sur son utilisation dans des contextes très réglementés. Par ailleurs, nous espérons pouvoir échanger avec les porteurs de la mission parlementaire en cours sur la blockchain afin d’y apporter la vision de l’industrie de la santé et mettre en lumière ces applications encore peu connues de la blockchain.

Propos recueillis par Matthieu Combe, journaliste scientifique

La géolocalisation : une technologie qui change le monde

Géolocalisation au cœur de l’histoire moderne

De l’astrolabe antique jusqu’au GPS d’aujourd’hui, en passant par la boussole, le sextant, le gyroscope et le satellite, les technologies de positionnement ont accompagné et même souvent initié le développement économique, scientifique et social tout au long de notre ère. Mais, il faut attendre que la physique quantique nous révèle les secrets de l’horloge atomique pour que le GPS initie le mouvement de démocratisation que nous connaissons aujourd’hui, et mette la géolocalisation à la portée du plus grand nombre. Les besoins exprimés par les utilisateurs ont aiguisé l’imagination des constructeurs de matériels ou les systémiers, assembleurs de sous-ensembles et développeurs de logiciels spécifiques.

Convergence technologique

Ces 20 dernières années, les technologies de positionnement se sont modernisées : certaines, déjà anciennes comme le gyromètre, l’accéléromètre ou le compas magnétique trouvent, grâce à la miniaturisation des composants et la baisse de leurs coûts, de nouvelles possibilités d’intégration, notamment dans les smartphones. D’autres comme les GNSS, le positionnement par WiFi, Bluetooth, réseau mobile, QR code, RFID ou NFC constituent de véritables ruptures technologiques. De nouvelles pistes s’ouvrent également dans le domaine de l’intelligence artificielle, comme le positionnement par reconnaissance d’image.

Mais ces technologies seules sont insuffisantes. Des plateformes performantes sont nécessaires pour les mettre en œuvre et les exploiter, avec notamment des systèmes d’exploitation multitâches et mobiles, l’explosion de la puissance de calcul disponible, le déploiement des réseaux mobiles haut-débit, ou la création et la mise à jour de cartographies numériques précises et exhaustives…

Impact sur la société

L’amélioration des performances des techniques de géolocalisation a été l’un des facteurs du déclenchement de la mondialisation et de l’émergence du capitalisme entrepreneurial moderne. Les développements récents des technologies numériques créent un contexte nouveau dans lequel la géolocalisation, historiquement cantonnée au voyage et au transport, est placée au cœur d’une explosion d’applications et de services inédits.

Cette révolution est comparable à celle qui a suivi la démocratisation de la mesure du temps. L’introduction de la montre portable, qui donne à tous l’accès à l’heure à la minute près, a modifié en profondeur la société et l’économie au 19e siècle. De même, le smartphone, support essentiel de la diffusion des technologies numériques, n’a que quelques années d’existence.

Mais on perçoit déjà que la géolocalisation s’insinue dans tous les processus de la vie sociale, économique et même privée des individus. Disponible à faible coût, à tout instant et en tout lieu, elle contribue à améliorer le confort, la sécurité, l’efficacité, la productivité et apporte de nouveaux services. En revanche, l’utilisateur n’a pas, ou peu conscience, des informations qui circulent et surtout n’a aucun contrôle.

Intimité et liberté d’action

Sommes-nous toujours maîtres de notre intimité et de notre liberté d’action ? Le débat déjà bien entamé au sujet des moteurs de recherche et de réseaux sociaux s’étend désormais à la géolocalisation. Le questionnement actuel sur l’indépendance et la neutralité d’internet montre bien la nécessité d’anticiper sur ces sujets. Les législations ne peuvent seules apporter la solution. La coopération industrielle et internationale a certainement un rôle à jouer dans la création d’une interface normalisée qui pourrait prendre la forme d’un « GeoCloud ». Celui-ci garantirait à la fois l’interopérabilité nécessaire, la transparence et le contrôle des données de géolocalisation dans le respect le plus absolu de la liberté et de l’intimité de leurs propriétaires et utilisateurs.

geolocalisation
Trafic sur GoogleMap mesuré par la position et le déplacement des smartphones des utilisateurs

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 30 septembre !

Applications de la géolocalisation- Une technologie qui change le monde, un article de Philippe Saint-Martin

Téléviseurs : après la 4K, la 8K !

L’IFA de Berlin, la grand-messe de l’électronique qui vient de fermer ses portes, permet de découvrir les appareils qui feront (peut-être) partie de notre quotidien dans les prochaines années. Si l’électroménager connecté était très présent sur des stands, c’est la 8 K qui a le plus retenu l’attention des visiteurs.

Après le choc visuel avec la HD, les définitions n’ont cessé d’augmenter. Ainsi, l’Ultra HD (3840 x 2160 pixels) – ou Quad HD (voire 4 K car assez proche du format cinéma et ses 4096 x 2160 pixels) – propose deux fois plus de lignes horizontales et verticales que la Full HD, soit quatre fois plus de pixels au total. Mais avec le 8K, nous passons dans une autre dimension : ce format a deux fois plus de lignes (toujours en verticale et horizontale) que l’Ultra HD.

Peu de contenus…

Mais il faut le voir pour le croire ! L’IFA a justement permis de constater la qualité des images en 8 K. Et il sera possible d’en profiter chez soi. Samsung a en effet créé la surprise en annonçant la commercialisation de trois téléviseurs Qled 8K. Les écrans Qled reposent sur l’insertion d’une couche de nanocristaux liquides entre l’écran LCD et le système de rétroéclairage LED.

Ils seront disponibles dès le mois d’octobre à des tarifs assez proches de ceux du Q9F (autour de 3200 €). Les téléviseurs Samsung Q900R embarquent une dalle VA 10 bits Qled 8K affichant une définition native de 7 680 x 4 320 px, soit quatre fois plus de pixels que l’Ultra HD.

Le géant coréen grille ainsi la politesse à Sharp qui a prévu d’en proposer en France début 2019. Seul problème, il n’y a pas de contenu grand public au format 8 K.

Même l’offre en 4 K reste encore limitée. Quelques chaînes de télévision en proposent. Des événements sportifs comme Roland Garros, mais aussi la Ligue Europa et la Ligue des Champions sur BT Sport en Angleterre et sur YouTube ont permis aux amateurs d’apprécier des détails encore plus fins.

Grâce à sa LaBox 4K et Decodeur Plus, deux équipements compatibles Ultra HD de SFR, les abonnés de cet opérateur peuvent regarder les contenus en 4 K de Netflix parmi lesquels House of Cards, Unbreakable Kimmy Schmidt, Master of None ou encore Bloodline. À condition, qu’ils soient abonnés à la fibre optique.

Pour profiter de la 4 K, il faut donc compléter l’achat d’une TV par un lecteur Blu-Ray (mais il faudra aussi acheter des Blu-Ray) ou une console de jeu comme la Xbox One X ou la PS4 Pro.

Faute de source 8K, Samsung s’appuie sur son propre moteur pour faire de l’upscaling. L’objectif de cette astuce, qui n’est pas récente, doper le contenu en pixels. Le Coréen s’appuie donc sur son moteur 8K IA Upscaling pour effectuer une mise à l’échelle assez fidèle des contenus SD, HD, Full HD et Ultra HD.

Pour les ménages accros aux belles images, il faudra aussi acheter un câble HDMI 2.1. Validée prochainement, cette norme supporte une bande passante maximale de 48 Gb/s (2,6 fois plus que le HDMI 2.0 limité à 18 Gb/s). Cela permet de transporter des flux vidéo 8K à 60 Hz (60 i/s), et même 4 K à 120 Hz.

Ces différentes limites expliquent le peu d’intérêt des Français. Selon Gfk, 50 % des ménages seulement seront équipés d’une TV UHD 4K d’ici… fin 2020. Quant au 8K, ce seront d’abord des professionnels de l’image qui pourront l’apprécier.

Philippe Richard