Naïo Technologies robotise le désherbage !

Le robot autonome Oz équipe déjà plus de 50 maraîchers. Il permet de désherber un hectare par jour, grâce à une autonomie comprise entre 3 et 10 heures. Il équipe principalement les petits maraîchers dont la production est diversifiée. Le tout nouveau robot enjambeur Dino s’applique au maraîchage industriel spécialisé. Il désherbe jusqu’à 4 hectares par jour, avec une autonomie comprise entre 8 et 10 heures. 10 commandes sont déjà passées pour 2017. « Nos robots ont une large plage d’autonomie, qui dépend notamment du pack batterie dont ils sont équipés et du type de sol sur lesquels ils évoluent », confie  Julien Laffont, responsable du développement à l’international de Naïo Technologies. Côté prix, Oz est vendu entre 21.000 et 25.000 euros. Pour Dino, il faudra en débourser entre 75.000 et 100.000.

Naïo Technologies développe actuellement deux robots particuliers pour désherber les vignes. Ils seront lancés dès 2018. « On a senti une attente importante des viticulteurs pour avoir des alternatives aux herbicides chimiques, explique Julien Laffont. C’est pourquoi on s’est attaché à développer deux solutions pour les vignes ».  Il y a d’un côté Ted pour les vignes larges. Doté d’une autonomie jusqu’à 10h, il peut désherber jusqu’à 6 hectares par jour. Pour les vignes étroites, Bob peut s’occuper de 3 hectares par jour. Son autonomie pourrait atteindre 8 heure. Le prix de ces deux robots n’est pas encore fixé.

Bannir les herbicides

Les clients sont principalement des agriculteurs en bio ou des agriculteurs conventionnels cherchant à réduire les herbicides chimiques. «Nos solutions permettent de réduire la pénibilité du désherbage et de gagner du temps », explique Julien Laffont. Le temps de retour sur investissement dépend évidemment de la quantité d’intrants utilisés au départ et de la taille de l’exploitation. Chaque agriculteur peut le calculer facilement en fonction de ses dépenses.

En Dordogne, l’exploitation des énisson utilise le robot Oz sur ses deux hectares de pivoines. L’établissement est ainsi passé de trois applications d’herbicides en plein par année à un passage localisé. Oz serait amorti en 5 ans dans ce cas précis. « Ce client a réussi une baisse de l’utilisation des herbicides de 94%, se félicite le salarié de l’entreprise. Les traitements ne se font plus que là où le robot a du mal à aller ». «Notre objectif est biensûr d’atteindre une baisse de 100% avec les futurs développements », complète-t-il.

Des robots made in France

Si le moteur est construit en Italie, l’ensemble des autres fournisseurs sont basés dans la région Occitanie. L’assemblage du robot est fait par Naïo Technologies à Toulouse. La start-up fournit ses robots en Europe. Notamment, en Suisse, au Danemark, en Belgique, en Angleterre et en Irlande.

Matthieu Combe, journaliste du webzine Natura-sciences.com

Les télécoms à la recherche d’un numéro gagnant

Comme tous les ans, Barcelone a été du 27 février au 2 mars la capitale mondiale de la téléphonie mobile. La grand-messe du Mobile World Congress a rassemblé fabricants, équipementiers, opérateurs et développeurs d’applications et de services. Mais tous ces acteurs ont reconnu que le marché s’essoufflait : en 2015, la croissance atteignait 10 %. L’an passé, elle a plafonné à 2,3 % d’après IDC.

Pour le monde des télécoms, il devient urgent de trouver un nouveau numéro gagnant, celui qui va booster les ventes pour quelques années. Certains misent sur le vintage comme HDM qui exploite la licence Nokia pour ressentir une version customisée du mythique 3310. Lancé en 2000, il s’était vendu à 126 millions d’exemplaires.

Mais le coup d’accélérateur devrait plutôt venir d’une augmentation très forte des débits avec la 5G. Ils seraient, en théorie, supérieurs à 10 gigabits par seconde. Autres atouts majeurs : plus de capacités et une latence très basse.

Officiellement, sa commercialisation est prévue pour 2020. Mais vingt-quatre entreprises (dont Qualcomm et Intel) se sont regroupées pour demander une accélération. Ils souhaiteraient une mise en œuvre dès 2019 et la publication des normes (les fréquences ne sont pas encore retenues) par le 3GPP à la fin de cette année.

Assistants virtuels

En attendant, les Américains mettent la pression. Verizon va prochainement lancer, au premier semestre, un test pilote dans onze villes des États-Unis. Autre initiative américaine, Intel a présenté une BMW dont un aileron du toit intègre une antenne 5G.

L’intelligence artificielle est également en pole position pour doper ce marché. Pour l’instant, son usage le plus connu est celui de la reconnaissance vocale sur smartphone. Mais à Barcelone, la conférence « Intelligence artificielle : chatbots et assistants virtuels » a montré comme l’IA pouvait modifier la relation client et les applications de messagerie, à l’instar de Whatsapp, Line, WeChat… Avec leurs 4 milliards d’utilisateurs actifs par mois (en septembre 2016), ces applications se diversifient vers davantage de commerce conversationnel.

Les objets connectés ont également étaient très présents. Orange, aux côtés de huit autres opérateurs, a confirmé son engagement en faveur de l’évolution de la 4G pour les objets connectés : la technologie LTE-M. Ce positionnement ne signifie pas pour autant l’abandon de LoRa pour lequel il a déployé un réseau d’antennes en 2016. « LoRa est davantage orienté B2B, avec sa capacité « deep indoor » », explique Frédéric Dutronc, responsable produit Smart Home et IoT chez Orange. Elle sera donc privilégiée pour connecter des compteurs d’eau et d’électricité, tandis que le LTE-M conviendra mieux pour la connexion des compteurs de gaz, où une qualité de service (au sens télécom du terme) et une faible latence sont requises, avec davantage de contrôle.

Reste une absence remarquée. Pas celle d’Apple, qui ne présente jamais les nouvelles versions de son iPhone sur un salon, mais celle de Microsoft. Plus aucun constructeur ne propose de smartphones sous Windows Phone, son système d’exploitation…

Philippe Richard

Le numérique dans l’agriculture : pour une meilleure compétitivité

La Ferme Digitale a vu le jour en janvier 2016 grâce au rapprochement de 5 start-up. Un an plus tard, elle en compte 13.  « Notre promesse est simple : promouvoir les solutions digitales », résume Paolin Pascot, président de la Ferme Digitale. L’association travaille ainsi sur deux plans. Elle rapproche les consommateurs et les producteurs, via La Ruche qui dit Oui et monpotager.com. Mais surtout, elle vise à faciliter le travail des agriculteurs pour utiliser moins d’intrants et augmenter leur compétitivité. Via ses 13 start-up adhérentes, l’association regroupe 350 salariés et 200.000 clients agriculteurs et citoyens.

Acheter et vendre au meilleur prix

Plusieurs offres permettent de faciliter le quotidien des agriculteurs. Côté matériel, Agriconomie.com est une place de marché spécialisée dans l’approvisionnement agricole (semences, pièces, équipements, engrais…), au meilleur prix. 8.000 agriculteurs utilisent ce service, dont le volume d’affaires atteint 50 millions cette année.

Piloter sa ferme conçoit des outils de pilotage personnalisés pour aider les agriculteurs à gérer le risque de la volatilité des prix des matières premières. Grâce à des algorithmes mathématiques personnalisés pour chaque exploitation, la start-up fournit à 400 agriculteurs un robot conseil dédié à la gestion du risque prix.

En fin de chaîne, moncomparateuragricole.com permet de comparer les prix de vente des céréales. Il assure ainsi  à ses 1.000 agriculteurs clients de vendre au meilleur prix la tonne de produit. La start-up est en plein développement : le chiffre d’affaires de janvier 2017 est égal à celui de l’année 2016.

Digitaliser sa ferme : des start-up complémentaires

Weenat propose des capteurs connectés permettant de mesurer la température de l’air, l’hygrométrie, la pluviométrie, la température du sol… Il fournit l’information météorologique et agronomique à la parcelle en temps réel pour aider à la prise de décision. Les données ultra locales sont transmises en temps réel aux agriculteurs. Des outils d’aide à la décision les conseillent pour prendre de meilleures décisions, optimiser leur emploi du temps et améliorer la gestion de leurs cultures.

NeXXtep offre pour sa part des capteurs et objets connectés (traçabilité, supervision, sécurité) pour faciliter le travail quotidien. Les bilans sont saisis automatiquement pour une gestion plus efficace des exploitations. De son côté, Ekylibre fournit un outil de gestion open-source pour faciliter les nombreuses démarches administratives des exploitations. Son but : atteindre l’objectif tant convoité de la « zéro saisie ».

La Ferme Digitale propose aussi les drones agricoles d’Airinov pour optimiser les engrais et suivre la santé des céréales à paille et du colza. Et les robots autonomes de Naïo Technologies pour assurer le désherbage mécanique des maraîchers, légumiers et viticulteurs. L’association accueille également Axioma qui propose des complexes biostimulants destinés à stimuler de manière naturelle les processus physiologiques des cultures agricoles. Son objectif: diminuer les intrants chimiques. De même, l’entreprise fournit des biostimulants et aliments diététiques complémentaires en nutrition animale pour diminuer le recours aux antibiotiques.

Le collaboratif s’invite en agriculture

Le collaboratif a aussi le vent en poupe en agriculture. Votremachine.com est un site de location de matériel agricole entre agriculteurs. MiiMosa est un site de financement participatif exclusivement dédié aux projets agricoles. Déjà 600 projets ont été soutenus pour un montant total de 2,5 millions d’euros. La start-up voit grand puisqu’elle a pour objectif d’atteindre 1.300 projets d’ici fin 2017.

Par Matthieu Combe, journaliste scientifique

Les Européens reprennent la main sur le marché éolien

Vestas en tête

Vestas a installé en 2016 des turbines éoliennes dans 35 pays, cumulant pas moins de 8,7 GW, soit 16,5% du total mondial, selon les données compilées par Bloomberg. Un record qui permet au groupe danois de prendre la tête du classement des constructeurs devant General Electric, à qui il a ravi la 1ère place sur son marché domestique : les Etats-Unis. La compagnie américaine réalise néanmoins une bonne performance avec 6,5 GW, juste devant le chinois Goldwind (6,4 GW) qui perd sa place de leader conquise l’année dernière. Suivent plus loin l’Allemand Enercon et l’Espagnol Gamesa. Ce dernier a récemment fusionné avec Siemens (l’opération est dans sa dernière ligne droite) ce qui devrait permettre au duo Gamesa/Siemens de déranger le trio de tête à l’avenir.

1 top-turbine-mfg

L’offshore balbutiant

La filière de l’éolien en mer (offshore) ne représente que 832 MW sur les près de 53 000 MW éoliens installés en 2016. Mais le secteur a bénéficié d’un soutien des Pouvoirs Publics notamment en France avec l’organisation d’appel d’offres pour la construction de parcs éoliens en mer (Tréport, Fécamp, St Brieuc notamment). L’Allemagne ou le Royaume-Uni ont déjà des installations offshore en fonctionnement. Pour autant, Selon le classement BNEF, c’est le Chinois Sewind qui arriverait numéro un avec 489 MW installés. Des chiffres qui s’expliquent par le fait que les turbines fabriquées par la compagnie chinoise sont en fait sous licence Siemens, le leader européen historique de l’offshore. Sur les 489 MW, seuls 101 MW étant vraiment des machines de conception chinoise.

2 top-offshore-turbine-manufacturer

L’Asie portée par la Chine et l’Inde

Le dynamisme du marché asiatique de l’éolien est largement lié à deux pays : la Chine et l’Inde qui représentent à eux deux la moitié du marché mondial (49,3%). Selon le Global Wind Energy Council (GWEC), la Chine aurait à elle seule connectée 23 GW éoliens, un chiffre impressionnant bien qu’en-deçà du record absolu de 2015 (30 GW en une année). Le ralentissement du marché chinois est lié à une demande électrique moins forte qu’anticipée et une baisse des aides aux renouvelables.

GWEC_PRstats2016_EN_.indd

A noter que les Etats-Unis sont le 2ème marché après la Chine en terme de capacités installées (8,2 GW), et que l’Europe affiche également un certain dynamisme : l’Allemagne bien sûr (5,4 GW) et la France (1,5 GW). Enfin, les pays d’Amérique Latine devraient également monter en puissance grâce aux grands appels d’offres renouvelables conclu en 2016 (Mexique, Chili, Argentine notamment) qui ont vu de nombreux projets éoliens attribués, avec une mise en service prévue avant 2020.

Romain Chicheportiche

@mod, la domotique à la carte d’Avidsen

Zigbee, Z-Wave, EnOcean, DIO, KNX Wireless… Les protocoles qui existent sur le marché de la domotique sont innombrables, et ce constat est particulièrement avéré pour les protocoles radio. Or, cette multiplicité complique l’interopérabilité entre les équipements (détecteurs, actionneurs, contrôleurs), provenant de marques différentes, et ne rassure pas les non-initiés, craignant les incompatibilités. Peut-on attendre un langage universel adoubé par toute l’industrie ? «Ces langages n’évoluent pas vers une standardisation» tempère Alexandre Chaverot, président de Smart Home International, dont Avidsen est une filiale.

concept_@modEt si le protocole radio était interchangeable, choisi par l’utilisateur en fonction du système et du contrôleur domotique qu’il a mis en place ? C’est la solution mise au point par Avidsen et qui se nomme @mod. «Cette gamme d’accessoires possède une carte mère électronique dépourvue de la composante radio, explique Alexandre Chaverot. Celle-ci prend la forme d’une carte fille, semblable à une carte SIM.» Ce petit module radio s’insère à l’intérieur du périphérique et apporte la connectivité voulue. Les usages les plus courants au sein du Smart Home sont pris en compte par les accessoires @mod : gestion énergétique (thermostat…), sécurité (détecteur de mouvement, détecteur de fumée…), confort et contrôle des accès.

C’est à se demander si Avidsen réussira son pari tant la quantité d’options est impressionnante : Thread, Zigbee 3.0, Z-Wave +, EnOcean, ARW (le protocole 868 MHz d’Avidsen), io homecontrol, Weave, Somfy RTS, DIO, KNX Wireless, WiFi… Même les protocoles radio longue portée/basse consommation Sigfox et LoRa sont au programme. «Nous ajouterons le Bluetooth 5.0 dès que la spécification sera finalisée, prévoit Alexandre Chaverot. Quant à Homekit, nous devons d’abord nous rapprocher d’un partenaire industriel d’Apple.»

Un pilote logiciel adaptatif

Certains protocoles sont plus compliqués que d’autres à loger sur un module radio aussi miniature. «Citons, à titre d’exemple, les protocoles sur IPV6, confirme Minh Hoa HOANG, directeur technique d’Avidsen. Leurs niveaux de sécurité sont élevés et demandent une puissance de calcul plus importante et aussi plus de mémoire.» Par ailleurs, ce module radio devait s’adapter à la fonction de l’accessoire en question. «Le profil change automatiquement en fonction de la carte mère à laquelle la carte fille est branchée, explique Minh Hoa HOANG. Ainsi, le module radio chargera-t-il le logiciel de détection d’ouverture de porte s’il est raccordé à un détecteur d’ouverture de porte. Il a fallu structurer le logiciel pour répondre à ce besoin avec le minimum de taille mémoire.»

Mais cette innovation n’implique-t-elle un surcoût ? «Certes, en raison de la présence d’un circuit imprimé supplémentaire, d’un connecteur, etc, répond Minh Hoa HOANG. Mais cette solution permet de mutualiser les volumes sur les cartes mères et donc de baisser les prix. » Ces prix sont encore inconnus à l’heure actuelle, la livraison des accessoires @mod et des modules radio ne débutant qu’à partir de mai

La fabrication a lieu en France, alors qu’Avidsen a pour habitude de produire en Tunisie, en Israël et en Croatie (et autrefois en Chine). «La localisation française nous permet d’optimiser les échanges en phase de développement, donc le time to market, confie Alexandre Chaverot. C’est un industriel, accrédité qualité avionique, avec lequel nous avons initié des discussions en 2016 pour un partenariat actif en 2017. Notre volonté a toujours été de favoriser le made in France quand c’est possible.» L’identité de l’industiel en question n’a pas encore été communiquée.

Frédéric Monflier

Le Tumulte, mini-cinéma interactif, sort de son repaire

De la vidéoprojection immersive à 360°, de l’interactivité, des lunettes 3D : l’assemblage de tous ces ingrédients constitue une expérience de réalité virtuelle spectaculaire, nommée Tumulte et vue récemment au salon Virtuality à Paris. C’est la première fois que le Tumulte s’exporte hors du Musée de la BD à Angoulême, où il a établi domicile depuis 2015.

Cortex-2037retouch_AurelieCOUDIERE_HQ
copyright Aurelie Coudiere

Le Tumulte est l’aboutissement de six années de recherche et développement. Il a été conçu par Cortex Productions, qui se définit comme une manufacture de films et de réalités virtuelles pour le compte d’une clientèle publique ou privée. Ces réalisations en images de synthèse explorent des thématiques aussi variées que l’industrie, l’astronomie et la santé. Au salon Virtuality, les spectateurs voyageaient dans un vaisseau sanguin, au beau milieu des globules rouges, et étaient invités à éliminer des virus d’un geste de la main.

Une immersion à 360°

Cortex-1838_AurelieCOUDIERE_HQ
copyright Aurélie Coudiere

La structure, cylindrique et fermée, a l’avantage d’offrir une excellente immersion totale dans l’œuvre audiovisuelle. Quatre vidéoprojecteurs, fixés en hauteur, projettent le film en relief et à 360°. Aucun raccord n’est visible, grâce à la mise au point d’un logiciel spécifique de «edge blending» (fusion des bords). Des capteurs, placés aussi en position zénithale, s’occupent de détecter la position des mains des spectateurs, qui portent par ailleurs des lunettes 3D pour visualiser les images en relief. Ces capteurs sont des Kinect, destinés habituellement à la console de jeux Xbox 360. Une preuve supplémentaire que des équipements grand public sont désormais suffisants pour des projets de cette ampleur.

Le Tumulte, avec son diamètre de 7,5 mètres (la version ambulante est un peu plus petite), peut aujourd’hui accueillir une quarantaine de personnes simultanément. Mais sa montée en puissance est programmée. «La prochaine génération, opérationnelle cet automne, mesurera 24 mètres de diamètre et pourra prendre en charge 600 personnes, explique Andreas Koch, le gérant de Cortex Productions. Nous prévoyons d’équiper les lunettes de capteurs supplémentaires et nous pourrons traiter davantage de données.» Les parcs à thème, la simulation industrielle et militaire, l’enseignement et les arts numériques sont parmi les débouchés possibles.

Frédéric Monflier

Le nucléaire entre en campagne électorale !

Le SFEN souligne « la nécessité de donner une nouvelle ambition à la filière nucléaire française », une ambition qui ne peut pas être « la limitation de sa part dans le mix électrique ou de fermeture de réacteurs ». Tourné vers l’avenir, il veut que la France continue à être leader du nucléaire et soit le pays « où s’invente le nucléaire du futur ». Pour ne pas laisser cette place aux Etats-Unis et à la Chine. L’organisme demande ainsi à ce que la France relance la politique nucléaire à l’échelle européenne.

Garantir l’avenir du nucléaire

Pour relancer la machine nucléaire, le SFEN propose un  « choc de simplification » pour une chaîne de contrôle plus efficace. Il s’agirait de simplifier les complexités administratives en vue d’ « associer renforcement continu du niveau de sûreté, amélioration de la compétitivité et innovation ». Notamment en généralisant les outils numériques pour sortir du « tout papier », généralisé dans les procédures des centrales.

L’organisme n’accepte pas la réduction de la part du nucléaire proposée par la loi de transition énergétique. Il veut « piloter efficacement le mix énergétique bas carbone » et « relier les coûts d’une action avec les économies d’émissions de CO2 qu’elle engendre ». Car « substituer par principe les énergies renouvelables au nucléaire ne répond ni aux objectifs de réduction des émissions de CO2 , ni aux objectifs de compétitivité ». La fermeture de Fessenheim doit être stoppée et le renouvellement du parc anticipé d’ici 2030.

Mais surtout, le nucléaire devrait aussi êrte valorisé dans les nouvelles applications, aujourd’hui réservées aux énergies renouvelables. C’est notamment le cas de l’alimentation des réseaux de chaleur ou les applications de « power-to-gas » pour produire de l’hydrogène ou du méthane . Des réacteurs pourraient être intégralement dédiés à ces nouveaux usages.

Le nucléaire pour l’habitat et les transports

L’organisme propose une nouvelle ambition basée sur une nouvelle vague de substitution des énergies fossiles par de l’électricité bas carbone pour le transport et l’habitat. Il n’y va pas par 4 chemins et suggère de fixer un objectif de 45 % de véhicules électriques et hybrides rechargeables à l’horizon 2050. Il voit l’installation de 7 millions de points de recharges d’ici 2030 pour accompagner cette transition.

Pour favoriser l’électricité dans la future réglementation thermique 2018, il incite à inscrire la réduction des émissions de CO2 comme « objectif prioritaire », avec un plafonnement par m² et par an . Car la RT 2012 aurait eu un effet pervers. « La part des énergies fossiles (gaz naturel, GPL, fioul) n’a cessé de croître sur l’ensemble de la construction neuve passant de 25 % à 61 % entre 2008 et 2014 », assure l’organisme.

Rémunérer le nucléaire comme les renouvelables

Le SFEN souligne l’intérêt de toutes les énergies bas carbone pour limiter le réchauffement climatique. Il estime donc que les systèmes de rémunération doivent être communs entre le nucléaire et les renouvelables. L’idée : mettre en place des contrats similaires à celui proposé par les britanniques pour l’achat de l’électricité à Hinkley Point. Ces contrats garantiraient un prix de vente, sous la forme d’une prime versée entre le prix du marché de gros et le prix garanti. Ce nouveau mode de rémunération aurait pour but de faciliter le financement de l’investissement.

Par Matthieu Combe, journaliste scientifique

Exoplanètes : beaucoup de bruit pour rien ?

Sans aucun doute, la recherche de vie extraterrestre et d’exoplanètes habitables (voire habitées) est un des domaines de l’astronomie qui continue de faire rêver l’humanité.

Avec la dernière annonce de la Nasa (qui en fait vient compléter l’annonce déjà faite l’année dernière par l’ESO et une équipe belge – voir cet article -), on a encore pu assister à un emballement médiatique mondial dont l’emblème pourrait être ce “doodle” de Google sur le thème.

seven-earth-size-exoplanets-discovered-6423181526040576-hp

Des projets et des recherches à la pelle

La chasse aux exoplanètes bat son plein depuis une vingtaine d’années. Au compteur, plus de 3400 exoplanètes répertoriées dont 1284 pour la mission du télescope spatial Kepler, dont les données ne sont pas encore toutes analysées. Et les trouvailles continuent avec les observatoires spatiaux déjà lancés comme Kepler et Spitzer (le téléscope spatial infrarouge qui a servi à compléter les données sur le système planétaire autour de Trappist-1 – voir cet article -) et bientôt avec le prochain téléscope spatial James Webb (JWST) qui sera lancé par la Nasa en 2018. Mais les télescopes terrestres ne sont pas en reste et, avec l’aide enthousiaste de millions d’amateurs (comme ceux réunis autour du projet de sciences participatives Planet Hunters), ils participent activement à cette quête. A titre d’exemple, des chercheurs ont rendu publique la masse de données accumulées par le spectromètre HIRES installé sur le télescope Keck-1 à Hawai afin de monter un projet participatif (voir cet article). Sur ces données, les astronomes ont déjà identifié 114 signatures pouvant être des exoplanètes : 54 à forte probabilité, 60 à confirmer.

D’autres projets sont prévus à plus ou moins courts termes tels que les observatoires spatiaux européens CHEOPS (mesure et caractérisation d’explanètes déjà connues) et PLATO (photométrie et astrosismologie pour découvrir de nouvelles planètes) dont les lancements sont respectivement prévus en 2017 et 2024.

Des sondes pour aller sur place

Enfin dans le domaine du projet plus lointain, citons les deux expéditions présentées pour aller visiter Proxima b, l’exoplanète la plus proche de la Terre (4,2 années lumières) et potentiellement habitable. Breakthrough Starshot, proposée par le milliardaire russe Yuri Milner, est un essaim de nanosondes munies de voiles qui seraient poussées par des lasers tirés depuis la Terre. Elles pourraient survoler Proxima b d’ici 20 ans, mais ne feraient que passer. Un autre projet alternatif, proposé début février dans un article de Astrophysical Journal Letters, consisterait à envoyer des sondes munies de voiles poussées par les vents solaires pour un voyage de plus de 300 ans dans tout le système de Proxima du Centaure avec un retour sur Terre. Evidemment, cette fois la moisson de données seraient vraiment plus importante.

L’illusion de la zone d’habitabilité

Cependant, dans un pertinent article paru sur le site The Conversation, l’astronome chilien Joshua Tan, condamne l’emballement médiatique et scientifique autour des exoplanètes “analogues” à la Terre et qui sont placées dans la zone d’habitabilité. En effet, cette fameuse zone d’habitabilité d’une planète, définie comme la zone par rapport à une étoile où l’eau pourrait se trouver sous forme liquide est une condition tellement insuffisante pour déterminer si la vie pourrait s’y développer qu’on peut même s’étonner qu’elle soit encore utilisée: selon que la planète possède une atmosphère, selon sa géologie et son environnement dans l’espace tout peut changer ! Il n’y a qu’à regarder Vénus ou Mars. Si l’on continue à utiliser cette notion, c’est surtout pour restreindre le champ de recherche à une zone de probabilité d’apparition de la vie plus grande. Mais, pourtant notre système solaire, nous l’a maintenant dévoilé, l’eau liquide, que l’on considère comme le support privilégié de la vie, peut tout aussi bien se trouver sous la surface d’une planète, bien en dehors de cette zone d’habitabilité…

De l’eau, de l’eau !

De l’eau liquide sous la surface, on est à présent sûr qu’il y en a sur Encelade (satellite de Saturne) ou sur Europe (satellite de Jupiter), et certainement sur bien d’autres lunes, planètes ou météorites de notre système. Ce sont les résultats des dernières explorations du système solaire. Des océans enfouis, protégés des rayonnements et vents cosmiques par de la glace ou de la roche. Quand on voit la richesse de la vie sous-marine dans les abysses, que peut-on s’attendre à trouver si la vie y existe ? Ceci sans compter la vie qui peut se passer d’eau, comme cela pourrait être le cas sur Titan (voir cet article). Seulement, il faudra encore être patient avant d’en avoir le coeur net. La mission la plus proche pour aller voir le système Jupiter est Juice (Jupiter Icy Moon Explorer) programmée par l’Esa en 2022 avec une arrivée en 2030. Elle survolera en détail Jupiter et trois de ses satellites (Ganymède, Europe et Callisto). Suivie de peu, si elle obtient les financements, par la mission américaine Europa Multiple Flyby Mission qui est censée préparer l’arrivée d’un atterriseur dix ans plus tard. Mais si les grandes puissances spatiales traînent un peu des pieds, c’est que la communauté internationale est plutôt focalisée actuellement sur la maîtrise et l’étude approfondie de la Lune et de Mars, plus proches, avant de se lancer dans des atterrisseurs pour des mondes inconnus comme Titan, son épaisse atmosphère et ses mers d’hydrocarbures ou d’envisager sérieusement des robots foreurs à faire fonctionner dans les glaces des satellites de Jupiter. En attendant, il est plus simple de scruter le ciel pour répertorier des mondes qui pourraient, dans un avenir bien plus lointain, nous intéresser.

Sophie Hoguin

La réalité virtuelle tient salon à Paris

Si la réalité virtuelle (VR) est en plein essor, elle doit encore convaincre de son utilité une bonne partie du grand public et des professionnels. «Nous voulons démontrer que la réalité virtuelle n’est pas un gadget» insiste Olivier Godest, jeune entrepreneur qui, avec cette idée en tête, a fondé le salon Virtuality. La première édition se déroule ces jours-ci au Centquatre, situé dans le 19e arrondissement de Paris. Environ 10 000 visiteurs sont attendus par les organisateurs.

«Virtuality poursuit deux objectifs, enchaîne Olivier Godest. Promouvoir la réalité virtuelle auprès du grand public et des entreprises, et stimuler les échanges entre les professionnels. Car cette technologie n’est plus réservée à un petit nombre d’entreprises qui s’équipent de «caves». Elle se démocratise, grâce à la mise sur le marché de nombreux casques VR, dont 6 millions d’unités sont désormais en circulation dans le monde. Les coûts baissent, ce qui ouvre davantage de perspectives dans le registre de la communication, du marketing, de l’évènementiel, du cinéma, de la formation, de la santé

Priorité au milieu de la création

L’ordre des secteurs d’activités mentionnés par Olivier Godest n’est pas anodin quand on parcourt les allées du salon, au milieu d’une centaine d’exposants. Les agences de création de contenu numérique ont en effet la part belle et cherchent à démontrer leur savoir-faire – développement d’image de marque, divertissement, storytelling… – au travers d’expériences VR parfois spectaculaires et amusantes. Les «créatifs», au sens le plus large, sont un peu à la maison il est vrai. «Le Centquatre a pour vocation de soutenir la création artistique et culturelle, rappelle Valérie Sanghor, directrice adjointe de l’établissement. Or, la VR est un langage au service de nouvelles formes de narration.»

En revanche, si la thématique de la santé dispose d’un petit pôle dédié, les applications industrielles et la réalité augmentée sont invisibles voire absentes. On les rencontrera plutôt à Laval, où la 19e édition de Laval Virtual se profile fin mars.

Frédéric Monflier

Virtuality, du 24 au 26 février au Centquatre-Paris

Prix : 15 €/jour pour le grand public, «pass» 3 jours de 150 € pour les pros.

www.virtuality-paris.com

Revue de presse anglophone #6 : Nasa, robotique, Adidas…

yahoo-200Pourquoi Verizon rachète Yahoo

Malgré la faille de sécurité qui a touché Yahoo il y a quelques mois, Verizon n’a rien remis en cause quant à sa volonté d’acquérir ce géant du web.

Source : The Washington post

zuckerberg-200Mark Zuckerberg a t-il vraiment besoin d’être président pour diriger le monde ?

Le Guardian s’est penché sur la question.

Source : The Guardian

nasa200La NASA annonce la découverte d’exoplanètes potentiellement habitables

Ces planètes, situées à 40 années-lumières de la terre, seraient toutes d’origine rocheuse.

Source : Techcrunch

adidas200Adidas lance son usine du futur destinées à l’impression 3D de ses produits

La ville bavaroise d’Ansbach verra bientôt la naissance d'une nouvelle usine de fabrication 3D Adidas remplie de machines innovantes. Un virage pour la marque qui veut généraliser la vente de modèles imprimés en 3D.

Source : 3dprint

robot2002016, année de la robotique !

En 2016, les start-ups du secteur robotique se sont financées dans des proportions jamais vues jusque-là. Quelques chiffres pour illustrer le phénomène.

Source : roboticstomorrow

 

 

 

 

Portraits d’ingénieurs

À travers cette série de portraits, notre ambition était de rendre hommage non seulement à cette communauté d’ingénieurs, mais également à tous les conseillers et auteurs qui collaborent régulièrement à nos publications.

portrait
Intersection – 2011 – 70×90 cm – Tirage Lambda sur Dibond + caisse américaine. Martine F., École nationale des travaux publics de l’État (ENTPE), Lyon / Ingénieure d’État spécialisée dans le transport, détachée en région puis en communauté d’agglomération, responsable marketing à Transpole en délégation de service public pour les transports de l’agglomération lilloise.

 

Delphine Lermite est diplômée de l’École régionale des Beaux-Arts de Rennes (DNSEP) et de l’École nationale supérieure de la photographie d’Arles (Master). Artiste dans la veine de la straigth photography et du documentaire, elle cherche à exprimer le monde du sensible à travers un travail se présentant a priori d’un point de vue objectif et réaliste. http://www.delphinelermite.com/

Christelle Didier est maître de conférence en Sciences de l’éducation à l’université Charles-de-Gaulle (Lille-3). Ses sujets de recherche portent sur l’éthique et la responsabilité sociale dans l’ingénierie. Elle collabore avec Techniques de l’Ingénieur en tant que conseillère éditoriale sur la rubrique Ingénierie et responsabilités.

 

>Télécharger la lettre des éditeurs TI au format PDF

Découverte d’un système de 7 planètes de la taille de la Terre

« A présent, nous avons la bonne cible » pour rechercher la présence de vie éventuelle sur des exoplanètes, a déclaré Amaury Triaud, de l’Université de Cambridge, coauteur de l’étude.

Les sept planètes, qui pourraient avoir des températures assez proches de celles de la Terre, tournent autour d’une toute petite étoile peu lumineuse et ultra-froide TRAPPIST-1 située dans notre galaxie, à « seulement » 40 années-lumière de nous.

« Vingt ans après les premières exoplanètes, il s’agit sans nul doute d’une des plus grandes découvertes dans le domaine des planètes extrasolaires », estime Didier Queloz, de l’Université de Genève, coauteur de l’étude. « La recherche du vivant sur une autre planète est aujourd’hui à portée de main », ajoute-t-il.

L’équipe internationale, dirigée par l’astronome belge Michaël Gillon de l’Université de Liège, avait déjà découvert fin 2015 trois de ces planètes à partir du petit télescope TRAPPIST de l’ESO (Observatoire européen austral) basé au Chili.

Mais grâce notamment au télescope spatial Spitzer de la NASA, les scientifiques ont pu progresser à grands pas dans leur observations et ont recensé finalement sept planètes de la taille de la Terre.

« C’est la première fois que l’on détecte autant de planètes de taille terrestre dont trois potentiellement +habitables+, pour lesquelles une étude poussée est possible avec la technologie actuelle, y compris la détermination de la composition atmosphérique et la recherche de traces chimiques de vie », déclare à l’AFP Michaël Gillon, principal auteur de l’étude.

Le système planétaire a été détecté grâce à la méthode des transits. Elle permet de répérer la présence d’une planète lorsque celle-ci passe devant le disque de son étoile, car cela provoque une légère baisse de la luminosité (appelée transit).

« Coucher de Soleil »

« Ce qui est surprenant c’est que les sept planètes ont une grande régularité en taille », déclare à l’AFP Franck Selsis, chercheur CNRS à l’Université de Bordeaux, et coauteur de l’étude. Leur rayon est plus ou moins 15% celui de la Terre.

Elles ont des insolations et donc des températures moyennes proches de celles de la Terre.

Six de ces planètes tournent autour de la naine rouge en 1,5 à 12 jours. Elles sont beaucoup plus proches de leur étoile que la Terre du Soleil. Du fait des forces de marée, elles présentent toujours la même face à leur étoile.

Trois des planètes (TRAPPIST-1 e, f et g) se trouvent dans la zone « habitable » du système, c’est-à-dire susceptible d’abriter de l’eau liquide sur la majeure partie de la surface. « C’est le Graal pour les astronomes », souligne l’ESO.

« L’eau liquide est un pré-requis à l’existence de la vie » même si cela n’est pas une condition suffisante car il faut aussi « la présence des bonnes molécules », rappelle Franck Selsis.

« Coup de chance », les planètes sont « en résonance » entre elles, ce qui permet de mesurer leur masse, indique à l’AFP Didier Queloz.

Les premières indications de la masse pour six d’entre elles suggèrent la nature tellurique de ces planètes, c’est-à-dire qu’elles sont solides et composées en partie de roches.

En outre, « grâce au contraste de taille favorable entre les planètes et leur petite étoile, nous allons pouvoir mesurer leur atmosphère », se réjouit Didier Queloz. « C’est absolument unique. »

L’étude de cette suite de planètes va s’intensifier avec le télescope spatial James Webb qui sera lancé par la NASA en 2018.

« Il va nous permettre de caractériser les propriétés des atmosphères de ces planètes et peut-être même de trouver des biomarqueurs c’est-à-dire des molécules comme l’eau, l’ozone, le gaz carbonique, le méthane, qui pourraient indiquer qu’il y a de la vie sur ces planètes », précise Michaël Gillon.

Le spectacle sur ces planètes doit être « assez beau », selon Amaury Triaud. « Il doit y avoir environ 200 fois moins de lumière qu’à midi sur la Terre ». Cela doit ressembler un peu à « la fin d’un coucher de Soleil », selon lui.

« Tous droits de reproduction et de représentation réservés. © 2017 Agence France-Presse. »

8 chercheurs répondent à la question «Pourquoi cherchez-vous ?»

Particulièrement originale car entre arts et science, la série « Pourquoi cherchez-vous ? » remonte aux origines de la vocation du chercheur. Ecrite et réalisée par Geneviève Anhoury avec les peintures animées de Patrick Pleutin et les trucages de Lalunela, ces vidéos questionnent les chercheurs sur la part de choix, d’engagement, de hasard, d’émerveillement et d’anxiété de leurs activités. La question n’est pas « Que cherchez-vous ? » mais « Pourquoi cherchez-vous » ?

Valérie L’Hostis, physico-chimiste, nous raconte en vidéo ce qui motive ses recherches sur le béton armé.

Stefano Panebianco, physicien, nous surprend en comparant la physique des particules à une vaste enquête de police.

Sylvain Chaty, astrophysicien du CEA/Université Paris Diderot et de l’Institut Universitaire de France, nous raconte son travail de chercheur, d’observateur du ciel et sa passion pour l’Univers et les étoiles.

Source : cea

De surprenantes dunes sur la comète Tchouri

La formation de dunes sédimentaires réclame la présence de grains et de vents assez forts pour les transporter le long du sol. Or, les comètes ne possèdent pas d’atmosphère dense et constante comme sur Terre. La caméra OSIRIS embarquée sur la sonde Rosetta a pourtant montré la présence de structures, espacées d’une dizaine de mètres, rappelant des dunes sur 67P/Churyumov-Gerasimenko. Elles se retrouvent sur les lobes de la comète ainsi que sur le cou qui les relie. La comparaison d’une paire de photos prises d’un même endroit, à 16 mois d’intervalle, prouve de plus que les dunes se sont déplacées et qu’elles sont donc actives.

Face à cette surprise, les chercheurs ont montré qu’il existe en réalité un vent le long de la surface de la comète. Il est dû à la différence de pression entre le côté ensoleillé, où la glace de surface peut se sublimer grâce à l’apport d’énergie par le rayonnement solaire, et la face où il fait nuit. Cette atmosphère transitoire reste très ténue, avec une pression maximale 100 000 fois plus petite que sur Terre, au périhélie, le moment où la comète est au plus près du soleil. Cependant, la gravité est elle-même très faible et l’analyse des forces exercées sur les grains de la surface de la comète montre que ces vents thermiques peuvent transporter des grains de taille centimétrique, dont la présence est confirmée par les photos du sol. Les conditions nécessaires pour permettre la formation des dunes, des vents capables de transporter des grains le long du sol, sont donc réunies à la surface de Tchouri.

Ces travaux représentent une avancée dans la compréhension des différents processus à l’œuvre à la surface des comètes. Ils soulignent également que la mission Rosetta nous réserve encore de nombreuses surprises et découvertes.

Cap-tchouri
© ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA À gauche, une photo de la comète Tchouri où l’on distingue le dégazage de vapeur d’eau qui entraîne des poussières (© ESA/Rosetta/NAVCAM). À droite, la région du cou entre les deux lobes de la comète. On y observe différents types de relief, dont ces dunes au bas à gauche (cercle rouge), dans la zone sableuse.

Source : cnrs

La blockchain comme révolution… mais révolution de quoi ?

Les questions que pose la blockchain sont extrêmement nombreuses. Au-delà de celles largement débattues autour de son utilisation réelle ou potentielle (disruption des tiers de confiance, sécurisation des échanges, gages d’authentification, technologies de partage de ressources, économies d’échelles, garantie des transactions, auto-exécution de contrats, décentralisation des processus, etc.) un certain nombre d’autres plus complexes à explorer se pose.

L’histoire des sociétés n’est jamais lisse ni linéaire. À des périodes de bouleversements brutaux généralement très rapides – souvent en moins de deux ou trois générations – succèdent de grandes époques beaucoup plus longues, durant souvent plusieurs siècles, où les acquis de ces courtes périodes de bouleversements fondent un réel commun satisfaisant plus ou moins la société. S’ils sont sans cesse réaménagés, corrigés, repris, améliorés, modifiés, il n’en reste pas moins que ces acquis forment un socle stable à partir duquel la vie en société est possible.

Révolutions et changements radicaux

Le monde des sociétés occidentales modernes tel qu’on le connaît actuellement a, pour faire court, moins de deux siècles. Il date de la Révolution de 1789 et de la révolution industrielle qui a suivi au xixe siècle. Les grands bouleversements précédents ont été principalement la Renaissance vers le xive siècle puis les Lumières entre le xvie et le xviie siècle.

Chacune de ces époques de changements radicaux – le monde tel qu’on le décrit et tel qu’on le vit n’est d’un coup plus du tout le même – a créé les outils dont elle avait besoin pour lui permettre d’accompagner et de réaliser ces changements ; on pense par exemple à l’imprimerie qui, originellement, avait été inventée en plein monde médiéval pour diffuser massivement la doctrine de la foi chrétienne et qui, au bout du compte, a surtout été utile à la modernité de la Renaissance pour diffuser ses thèses humanistes émancipatrices. On voit à travers cet exemple qu’une technologie quelle qu’elle soit peut donc être à la fois incrémentale – elle sert à améliorer, à modifier, à transformer la société mais sans jamais remettre en cause ses fondements ni les façons qu’elle a de décrire la réalité qu’elle vit (comme l’a été par exemple le passage de la machine à vapeur à la machine électrique qui a transformé toute l’industrie sans remettre en question les fondements purement économiques du « comment produire ») – et disruptive.

La blockchain cristallise cinq valeurs

Ce qui distingue et qualifie une technologie est donc, au-delà de ce pour quoi on dit qu’elle est faite, ce qu’elle porte ou ne porte pas comme nouvelle façon de voir et de dire le monde.

Il est probable qu’à travers la blockchain, ce soit en définitive notre monde qui, engagé dans toute une série de mutations extrêmement profondes, si profondes qu’elles remettent en question tout notre modèle sociétal patiemment édifié depuis près de deux siècles, trouve à exprimer quelques-uns des grands enjeux qui le traversent.

La blockchain en cristallise au moins cinq : la valeur, la monnaie, le travail, l’être-individu et la question démocratique. Elle peut bien sûr être techniquement utilisée pour répondre à d’autres enjeux tout aussi importants (par exemple la préservation de l’environnement, la gestion de l’énergie, etc.) mais elle ne me semble pas les porter intrinsèquement en elle, dans sa construction même, alors que ces cinq-là sont directement questionnés par la blockchain.

En limitant ses potentialités aux champs connus et reconnus de l’économie (échanges monétaires décentralisés, transactions simplifiées, éviction d’intermédiaires coûteux), de la production (modélisation de l’entreprise 4.0 de demain, les DAO), de l’applicatif pur (sécurisation des échanges et des données) ou de la gouvernance (décentralisation, consensus), on s’empêche toute vision prospective de la blockchain ; la restreindre à ces fonctions, c’est ne pas la prendre en compte dans sa perspective historique large.

Ici, nous abordons successivement les questions de la valeur (comment s’évalue-t-elle, à partir de quels présupposés initiaux), de la monnaie (à quoi sert-elle, que vaut-elle, qui l’émet), du travail (qu’est-ce que produire), de l’identité (comment nous définissons nous) puis enfin de l’organisation politique des sociétés (selon quels modes de gouvernance), montrant comment la blockchain porte en elle des modèles théoriques potentiels qui dépassent de très loin ce pour quoi elle semble être faite.

L’émergence de la blockchain

Au-delà de ce qui se dit, des séries de « pratiques » apparaissent autour de la blockchain comme autant d’énoncés venant parfois infirmer ou contredire ce qui est dit. Exactement de la même façon que la question « qu’est-ce que le Web et à quoi sert-il ? » aura reçu des réponses radicalement différentes selon qu’on l’aura posée en 1996, en 2006 ou en 2016, la question « qu’est-ce que la blockchain et à quoi sert-elle ? » ne trouvera pas sa solution dans une collecte exhaustive recensant l’intégralité des formulations à son sujet, mais dans l’étude et l’observation de ses pratiques. Comment est-elle utilisée et pour en faire quoi nous en apprendra plus que toutes les prédictions/ divinations émises çà et là.

C’est dans cet interstice entre « dire » et « faire » que la blockchain est actuellement en train d’émerger. Dire, c’est se placer le plus souvent dans le seul registre économique ; c’est en endosser à la fois la logique, le lexique et les outils conceptuels, en déclarant par exemple que « la blockchain nous fera réaliser d’importantes économies ». C’est vrai mais c’est faux.

C’est vrai comme effet de bord immédiat à très court terme, mais c’est faux comme probable réorganisation de toute la production de richesses à plus long terme.

La blockchain n’est que l’outil d’un monde entré en révolution

La blockchain n’est pas une révolution. Elle n’est que l’outil d’un monde lui-même entré en révolution. Et donc, paradoxalement, dire aujourd’hui ce qu’est la blockchain revient le plus souvent à énoncer ce que le monde de demain ne sera probablement plus. Et parce que la blockchain n’est ni une technologie ni une révolution, elle ne peut ni être décrite sous l’angle de sa capacité à disrupter, ni être réduite à la technique qui la sous-tend sans prendre le risque de passer à côté de ce qui, au fond, est peut-être sa nature originelle : n’être qu’un artefact au service d’un changement de civilisation, changement qui s’annonce comme au moins aussi radical et aussi dévastateur qu’ont pu l’être en leurs temps la Renaissance, les Lumières ou les révolutions industrielles pour leurs propres « empires du passé ».

Par Laurent Leloup (extrait de son livre Blockchain, La révolution de confiance)

image002BLOCKCHAIN
La révolution de la confiance

par Laurent LELOUP

en librairie le 16 février

224 pages
17 €


unnamed (1)Laurent LELOUP
est le créateur -en 2006- de Finyear Group qui publie les quotidiens Finyear et BlockchainDaily News et produit de nombreux évènements.

Il a par ailleurs cofondé -en 2016- Blockness, startup centrée blockchain, France Blocktech, l’association de l’écosystème blockchain français, et Blockchain Valley, à la fois campus, centre de formation et incubateur.

Énergie : la Blockchain peut-elle faire des étincelles ?

Timidement, les géants de l’énergie se branchent sur la Blockchain. Outre-Rhin, le conglomérat RWE s’est associé avec la start-up Slock.it qui a levé plus de 150 millions de dollars. Baptisé Blockcharge, ce projet consiste à développer de nouvelles bornes de rechargement électrique de véhicules. Grâce à la Blockchain, la borne calculerait automatiquement l’électricité fournie dès que le conducteur quitterait la place de stationnement. Chaque personne qui souhaite bénéficier de ce service, souscrit à un contrat et rejoint la communauté. Il est équipé d’un « smart plug », à brancher sur n’importe quelle prise et permettant ainsi d’activer son « smart contract ». C’est un contrat numérique reposant sur la technologie blockchain qui permet de contrôler les engagements de chaque partie.

Il présente trois avantages : la sécurité des transactions, la réduction des coûts de vérification et d’exécution du contrat, et l’absence d’intermédiaire physique.

Enfin, grâce au « smart plug » et une application smartphone l’utilisateur peut recharger sa voiture partout en ne payant que l’électricité consommée.

En France, Engie mène des expérimentations, dans l’Yonne, concernant en particulier la traçabilité des flux. Des compteurs d’eau connectés peuvent déclencher automatiquement l’appel d’un dépanneur en cas de fuite, grâce à des « smart contracts ».  Une fois exécutée, cette intervention est immédiatement répertoriée dans la chaîne de blocs.

Mais comme pour le Bitcoin, des particuliers n’ont pas attendu la concrétisation des projets de grande envergure. Ils ont adopté cette solution pour s’acheter et vendre de l’électricité.  C’est le cas du projet TransActive Grid développé par deux entreprises : Lo3 Energy, qui développe des réseaux d’énergie solaire, et ConsenSys, spécialisée dans le Bitcoin. Inauguré à Brooklyn début 2016, ce réseau local et autonome est composé de cinq maisons de « producteurs » qui vendent à cinq foyers « consommateurs ». Ces particuliers peuvent ainsi gérer eux même leur consommation d’électricité grâce à des transactions légales, sécurisée et monétisées.

Centrale électrique virtuelle

Des capteurs mémorisent l’historique de la création énergétique à un point précis, et l’enregistre aussitôt sur la Blockchain Ethereum, une cryptomonnaie un peu moins connue que Bitcoin. Des « smart contracts » peuvent ensuite régir les règles d’utilisation de cette énergie, et les tarifs des producteurs. Avec cette solution, ils n’ont plus besoin de passer par un distributeur local. Même concept aux Pays-Bas où Vattenfalls teste l’échange d’électricité entre quelques-uns de ses clients. Au Québec, PowerStream a développé la première centrale électrique virtuelle gérée par des habitants d’un quartier au Canada. Grâce à une technologie novatrice, le projet pilote permet à une vingtaine de résidents de stocker l’énergie produite par des panneaux photovoltaïques sur leur maison. Les clients peuvent « déplacer » une portion de l’énergie produite dans le réseau et ainsi diminuer leur facture d’électricité.

Nous n’en sommes pas encore là en France. L’ordonnance de juillet 2015 concernant l’autoconsommation n’autorise les échanges d’électricité qu’entre producteurs et consommateurs reliés à un même point de basse tension, autrement dit, à l’intérieur d’un immeuble ou d’un lotissement. Bouygues, Energisme, Stratum et Microsoft devraient lancer une expérimentation (reposant sur l’énergie photovoltaïque) cette année à Lyon Confluence. Ce serait un peu l’équivalent au projet de Brooklyn.

« Nous voulons permettre aux habitants d’un écoquartier de bénéficier d’une énergie d’origine locale certifiée, provenant des panneaux photovoltaïques du voisinage. Nous espérons pouvoir équiper un immeuble début 2017 à Lyon et puis dans d’autres écoquartiers en France dès que le pilote aura démontré toutes ses possibilités », précise Olivier Sellès, responsable innovation et smart city de Bouygues Immobilier.

Cadre réglementaire et juridique

Malgré ces initiatives séduisantes, « à l’heure actuelle, il n’est pas encore possible d’affirmer si la Blockchain parviendra ou non à s’imposer dans le secteur de l’énergie. Cette question ne dépend pas uniquement des possibilités techniques du système, mais aussi, et surtout du cadre réglementaire et juridique, de l’évolutivité de cette technologie et de sa résilience, ainsi que de la rentabilité des investissements », indique Pascale Jean, associée responsable du secteur énergie chez PwC.

La régulation et l’économie de marché sont les deux principaux écueils au développement de projet reposant sur la Blockchain. Les experts de PwC soulignent que, « dans un réseau transactionnel de type Blockchain, il convient de déterminer qui est l’opérateur de points de mesure, qui détient un agrément en tant que fournisseur d’électricité et qui est responsable d’équilibre. Par ailleurs, un système de transactions d’énergie reposant sur la Blockchain soulève des problèmes en termes de responsabilité, notamment vis-à-vis du périmètre d’équilibre ».

Ce secteur a seulement lancé quelques projets. Pas de quoi enflammer les ardeurs…

Philippe Richard

Blockchain : c’est quoi ?

À la fin des années 60, il y avait les Shadoks qui passaient des heures à utiliser leur Cosmopompe destinée à pomper le cosmogol 999. Aujourd’hui, des « mineurs » passent plusieurs heures à vérifier les transactions d’un bloc d’une « chaîne de blocs », la fameuse Blockchain.  Ces blocs contiennent des transactions (opérations d’écriture dans la chaîne) qui sont dans un ordre précis.

L’usage le plus connu est la monnaie virtuelle Bitcoin, première Blockchain créée en 2008. Neuf ans plus tard, le Bitcoin est toujours mis à l’index par des pays ou des organisations. Avec un argument récurrent : des transactions illégales sont favorisées par l’anonymat qu’il donne à ses utilisateurs.

Des transactions certifiées

Au-delà de cette polémique, une Blockchain représente une solution iconoclaste. Elle pourrait « révolutionner » différents secteurs d’activité et en particulier tous les intermédiaires de « confiance » chargés de vérifier l’identité d’une personne en prenant au passage une commission plus ou moins élevée.

Cette base de données ordonnée permet en effet de certifier toutes les informations et de les rendre incontestables. La transaction peut être certifiée par la communauté, même si toute la difficulté est de définir dans le domaine P2P quelles sont les limites de cette communauté. « L’intégrité de la chaîne est garantie par la cryptographie. Toute modification est détectable par tous. Notez bien que j’ai dit toute modification. La chaîne ne distingue pas entre modification “légitime” ou “illégitime” », précise Stéphane Bortzmeyer (Ingénieur R&D à l’Association française pour le nommage Internet en coopération – Afnic), sur son blog.

Autre principe fondamental d’une Blockchain : la décentralisation. La chaîne est « vérifiable par tous et contrôlée par personne ». Lorsque deux personnes souhaitent organiser un transfert d’argent entre elles (il peut s’agir de régler un achat ou de faire un virement pour un membre de sa famille), elles possèdent chacune une clé (un code) publique et une autre privée pour envoyer et recevoir de l’argent.

Enregistrée sous forme d’un code informatique, cette opération en rejoint d’autres qui forment un « bloc ». Ce dernier apparaît dans la base de données géante de la Blockchain. « Tous les utilisateurs de la Blockchain possèdent ce même registre et à chaque fois qu’une personne y écrit quelque chose, c’est répliqué dans tout le réseau », précise François Dorléans, directeur des opérations de la start-up française Stratumn, qui s’appuie sur la technologie Blockchain pour créer des outils à destination des entreprises.  C’est à ce moment-là qu’interviennent les fameux « mineurs » qui, tels les Shadoks, activent leur machine pour vérifier les transactions du bloc (s’assurer par exemple que A dispose bien des fonds nécessaires à envoyer à B). A la clé, une rémunération.

Autre singularité, la chaîne de blocs est publique. « Tout le monde peut créer un nœud du jour au lendemain, qui va automatiquement télécharger et vérifier la chaîne, avec toutes les données qu’elle contient », explique Stéphane Bortzmeyer.

Repérer de faux médicaments

Quelles applications pourraient tirer profit de telles particularités  ? Elles sont très variées, aussi bien grand public que professionnelles. Dans le premier cas, la Blockchain facilite les transferts d’argent entre particuliers. Plus besoin de se rendre à un guichet spécialisé, une simple connexion internet et un smartphone suffisent. Les frais d’envoi s’en trouvent drastiquement diminués (maximum 1 % contre 5 à 15 %), et les formats de monnaies utilisables sont beaucoup plus étendus. Plusieurs start-ups ambitionnent d’« uberiser » Western Union et consorts. Les plates-formes musicales comme Spotify et Deezer ainsi que les maisons de disques pourraient être également concernées : la gestion des droits se ferait en temps réel et sans passer par des intermédiaires.

Mais ce sont les applications professionnelles qui devraient se multiplier, en particulier dans la finance et l’énergie. La constitution de registres de transactions infalsifiables serait très utile dans de nombreux domaines exigeant une traçabilité optimisée des objets et produits. L’alimentaire et la santé pourraient en tirer profit. Un scandale sanitaire comme celui de la viande de cheval et les contrefaçons de médicaments seraient limités, voire impossibles. Une bonne nouvelle, car selon l’Organisation mondiale de la Santé, les faux médicaments sont à l’origine de 700 000 décès par an. La start-up française blockpharma est sur ce créneau. Sa solution permet de vérifier instantanément via son smartphone l’authenticité de la boîte de médicament achetée. Cette authentification renforcée serait également très utile pour l’identité numérique (cadastre, banque, transport, certificats de naissance et de décès…).

Des transactions assez lentes

En Afrique, mais aussi en Amérique latine, de nombreux pays ne disposent pas de cadastres, ou tout au moins de cadastres fiables. L’ONG Bitland a annoncé le lancement d’un projet de cadastre numérique au Ghana en permettant aux propriétaires d’arpenter leurs terres via GPS et d’enregistrer leurs actes fonciers sur une Blockchain.

Mais une Blockchain n’est pas non plus la panacée. Cette solution présente quelques limites. La principale est sa lenteur relative (plus de dix minutes pour enre­gistrer une transaction) et son coût énergétique (elle mobilise beaucoup d’ordinateurs). Elle est aussi la cible de pirates. S’ils ne peuvent pas altérer la chaîne de blocs, ils sont en mesure de repérer des failles dans les applications pour détourner de l’argent.

Mais l’impact de ces inconvénients semble très minime au regard des avantages offert par ce système décentralisé.

Par Philippe Richard

La Blockchain peut-elle faire sauter la banque ?

La technologie Blockchain ne fait plus peur aux banquiers ! Au contraire, elle les attire. Selon une étude publiée le 13 février 2017 par Infosys Finacle, entité d’EdgeVerve Systems et son partenaire Let’s Talk Payments (LTP), plus de 80 % des banquiers interrogés s’attendent à voir l’adoption commerciale de cette technologie se concrétiser d’ici 2020. Et ils mettent en avant quatre arguments principaux : moins d’intermédiaires dans les transactions, donc moins de coûts de fonctionnement, des échanges plus rapides et plus sécurisés.

La moitié (50 %) des institutions financières ont d’ailleurs déjà investi ou prévoient de le faire dès cette année en s’associant avec une start-up de la FinTech ou une entreprise technologique. La Banque de France confirme cet intérêt. Après avoir noué un partenariat en 2016 avec deux start-ups spécialisées (le Labo Blockchain et Blockchain France), elle vient d’ouvrir un Lab pour attirer les start-ups de la Blockchain. « La digitalisation du secteur financier peut accélérer ce processus positif : (…) la Blockchain aide aussi à accélérer le développement de l’e-commerce et à moderniser les échanges physiques », a déclaré François Villeroy de Galhau, son gouverneur dans un discours à Paris FinTech Forum. En Suisse, UBS a invité des concurrents – Deutsche Bank, Santander, etc. – à la rejoindre pour travailler sur une monnaie virtuelle qui pourrait être utilisée dans les transactions entre banques.

12 milliards

Mais certaines institutions en sont déjà au déploiement. Les banques Emirates NBD et ICICI Bank vont s’appuyer sur la Blockchain dans le cadre des virements internationaux et des financements commerciaux. Selon l’enquête d’Infosys, cinq principaux cas d’utilisation devraient entrer rapidement en production : les paiements transfrontaliers, la gestion de l’identité numérique (pour réduire la fraude lors des paiements électroniques), la compensation et le règlement, la gestion des lettres de crédit et la syndication de prêts.

La Blockchain est aussi perçue comme un moyen de faire des économies. Pour les banques d’investissement, la rationalisation de certaines fonctions permettrait d’économiser environ 12 milliards de dollars par an selon une étude réalisée en 2016 par Accenture. Dans le détail, cette étude estime que les établissements pourraient abaisser les coûts de 70 % dans les reporting financiers, de 50 % dans les fonctions de compliance et dans la même proportion pour les supports opérationnels comme la rédaction des accords de principe.

Et le client, dans tout ça ? Comme nous l’avons évoqué dans notre article sur ce qu’est la Blockchain, les deux principaux intérêts sont le développement du micro-paiement et l’accélération des transferts d’argent, tout en payant une commission réduite. Concernant les tarifs justement, leur attractivité dépendra en partie de la capacité des petits acteurs et des cryptomonnaies à concurrencer sérieusement les banques. C’est le cas notamment de Ripple, troisième plus importante cryptomonnaie par capitalisation boursière, après Bitcoin et Ethereum. Utilisé par des entreprises telles que UniCredit, UBS ou Santander, le protocole Ripple a été de plus en plus adopté par les banques et les réseaux de paiement comme technologie d’infrastructure de règlement. Il permet d’effectuer des transactions financières sécurisées, instantanées et presque gratuites, de toute taille sans rejets de débit. Il prend en charge n’importe quelle monnaie fiduciaire, cryptomonnaie, marchandise ou toute autre unité de valeur telle que miles aériens, minutes mobiles, distances de GPS…

La crainte d’être ubérisé…

Malgré cet engouement, la Blockchain inquiète, car il n’existe aucune barrière à l’entrée : n’importe qui peut créer un service qui fonctionne et bousculer des acquis. « La Blockchain (peut) remettre en cause des modèles économiques, mais aussi des modèles de régulation. (…) Nous sommes pour une Blockchain réglementée : on garde un modèle ouvert et il faut créer des nœuds d’accès », expliquait au site FrenchWeb Franck Guiader, directeur FinTech, Innovation et Compétitivité à l’AMF (Autorité des Marchés Financiers).

D’où notamment le partenariat signé en juin dernier entre la Caisse des Dépôts, la BNP et la Société Générale afin de favoriser le financement des PME grâce à la Blockchain. Derrière cet accord, c’est la volonté de ne pas être « ubérisé » et de conserver la position d’intermédiaires privilégiés des entreprises. L’économiste Philippe Herlin considère en effet que « les banques sont ubérisables en tant que très grosses structures, très hiérarchisées et centralisées ».

Philippe Richard

Revue du web #100 ! : les 10 robots les plus étonnants du mois

Les Zooïdes, des petites machines roulantes capables d’interagir avec l’humain

Handle, le nouveau-né de Boston Dynamics

 

Un robot parvient à abuser le captcha « I’m not a robot »

Un drone capable de polliniser les plantes à la place des abeilles

 

Robot porteur de Piaggio : confiez-lui vos courses et vos bagages !

 

Cassie, le robot bipède qui vous livre vos colis

 

Robot bricoleur : le dernier robot du CNRS visse et perce des trous

 

Robot soldat : le nouveau robot de Sarcos Robotics glisse comme un serpent

 

Robot épicier : un robot capable de manipuler les fruits et les légumes

 

Darpa robotics Challenge : les plus belles chutes

 

Bonus : 

Un aquarium piloté par un poisson rouge

Par I. T

Air Liquide s’interroge à propos de la voiture électrique à batterie

cH2ange est une initiative portée par le groupe Air Liquide, centrée autour de la place de l’hydrogène dans la transition énergétique.

La page est accessible à cette adresse: https://www.facebook.com/cH2ange. Elle est également relayée sur Twitter par le service communication d’Air Liquide avec le hashtag #cH2ange.

Voici quelques éléments de réflexion dans le cadre du débat qu’Air Liquide appelle de ses vœux, ceci sous forme de réponse aux différentes questions posées et avec de nombreux documents de référence intégrés en liens hypertextes.

Air Liquide (cH2ange) interroge:  « Ne vous êtes vous jamais demandé ce qui se passerait si toutes les voitures électriques étaient uniquement alimentées par des batteries ? Ne vous êtes vous jamais demandé ce qui se passerait si tout le monde rentrait à la maison en début de soirée et branchait sa voiture électrique ? » (Question accompagnée d’une peluche qui pleure)

Réponse: Les voitures étant stationnées environ 95% du temps et le trajet moyen d’un automobiliste standard étant d’environ 35 kilomètres par jour, la charge lente à faible puissance n’est pas du tout un problème. A fortiori si l’on dispose d’une batterie permettant d’avoir plus de 300 kilomètres d’autonomie. C’est ce que savent déjà tous les utilisateurs de voitures électriques. La charge lente peut d’ailleurs être réalisée sur le parking du lieu de travail.

Grâce aux outils numériques modernes il est possible de piloter la charge de manière éco-intelligente en fonction de la disponibilité des ressources solaire et éolienne. Les batteries des véhicules électriques constituent une formidable opportunité pour faciliter l’intégration de hauts niveaux d’énergies renouvelables variables. C’est l’approche V2G-G2V. Cet outil de flexibilité est d’ailleurs intégré à l’étude France 100% Renouvelable de l’ADEME. Ce qu’Air Liquide présente aux internautes des réseaux sociaux comme un problème  constitue en réalité une opportunité.

Air Liquide (cH2ange): « Le future de notre mobilité est zéro émission. Cela signifie-t-il que chacun de nous doit conduire une voiture électrique à batterie ? »

Réponse: L’électro-mobilité avec stockage batterie a une efficacité environ trois fois supérieure à celle de la thermo-mobilité. En revanche le remplacement de la batterie par de l’hydrogène compressé à 700 bars, produit par électrolyse et consommé par une pile à combustible dégrade fortement l’efficience. Il faut consommer environ trois fois plus d’électricité pour parcourir un kilomètre en voiture à hydrogène qu’avec une voiture électrique à batterie. Cela conduit à un gaspillage des surfaces et des métaux (Cuivre, Argent etc.) pour construire trois fois plus de centrales solaires, éoliennes et hydrauliques. Il faut donc davantage de mines dont l’impact environnemental n’est pas neutre.

Si l’intégralité du parc automobile français passait au 100% électrique à batterie alors la demande nationale d’électricité augmenterait d’environ 15% (70 TWh) d’après une estimation réalisée par le président d’honneur de l’association Sauvons Le Climat et corroborée par d’autres études. Si ce parc automobile passait intégralement à l’hydrogène obtenu par électrolyse alors la hausse de la demande électrique serait d’environ 45% (210 TWh).

Air Liquide (cH2ange): « Savez-vous combien de temps il faut pour charger une voiture électrique à batterie ? »

Réponse: Les superchargeurs Tesla d’ancienne génération (120 kW) permettent de charger une batterie de 90 kWh à 80% en 40 minutes et à 100% en 75 minutes.  Les superchargeurs nouvelle génération d’Ultra-e (350 kW) permettront de capturer 300 kilomètres en 20 minutes, le temps de prendre un café. C’est parfaitement en phase avec les consignes de sécurité routière. En Suisse le groupe ABB a installé un système de charge ultra rapide (600 kW). Elon Musk a annoncé l’arrivée de superchargeurs Tesla de plus de 350 kW.

Air Liquide (cH2ange): « Challenge:  quelle puissance sera selon vous nécessaire pour charger un million de voitures électriques à batterie (0,4% de la totalité des voitures en Europe), pendant 20 minutes seulement, en une journée ?  Le fast-charging, est-ce une solution? » (question suivie d’une vidéo qui a été vue plus de 300.000 fois)

Réponse: 1 million de Toyota Mirai à Hydrogène, cela correspond à 114 GW de piles à combustible embarquées.  Les 1,6 GW de superchargeurs mentionnés par Air Liquide (13.888 superchargeurs de 120 kW) peuvent être alimentés par 1,6 GW de PAC stationnaires. A noter que les trajets supérieurs à 300 kilomètres sont rares pour un automobiliste standard et que la charge rapide n’est nécessaire que pour ces longs trajets. Il est rare en France qu’un million de véhicules (3,1% du parc automobile national qui compte 32 millions d’unités) aient besoin de parcourir plus de 300 kilomètres d’une seule traite le même jour.

Air Liquide (cH2ange):  « Nous devons nous diriger vers une société post-pétrole. Les voitures électriques à batterie sont une option. Les voitures électriques à hydrogène, une autre. »

Réponse: La batterie de la Tesla Model 3 aura une capacité de 55 KWh ce qui offrira une autonomie de plus de 300 kilomètres. Cette batterie ne coûtera que 6875 dollars ($125 le kWh de stockage), soit un cinquième du prix de la voiture complète. Pour qu’une voiture électrique équipée d’une batterie de 20 kWh ($2500) et d’un prolongateur Hydrogène devienne compétitive, il faudra alors que le coût de la PAC + électronique soit inférieur à $4375. La Toyota Miraï à Hydrogène (PAC de 114 kW)  est vendue à partir de 66.000 euros hors taxes. Une bonne partie de ce coût correspond à la pile à combustible et à l’électronique qui l’accompagne.

Parcourir 100 kilomètres en voiture à hydrogène coûte environ 10 euros hors taxes. C’est 5 fois plus cher qu’avec une voiture électrique à batterie.  « Le coût de compression à 700 bars à partir d’hydrogène à pression ambiante est prohibitif » explique un  ingénieur spécialiste de l’hydrogène.

L’infrastructure Hydrogène est-elle meilleure marché que les superchargeurs nouvelle génération  ? La Californie vient d’accorder à titre expérimental 92 millions de dollars pour créer en 2017 un réseau de 50 stations de recharge en hydrogène. Soit 1,7 million s’euros par point de charge. La charge s’effectue en 5 minutes.  Les 25 stations-superchargeurs du programme Ultra-e (350 kW, charge en 20 minutes) coûtent 13 millions d’euros, c’est à dire environ 0,5 million d’euro par superchargeur. Si la charge est 4 fois plus longue le coût du chargeur est trois fois moins élevé.  Les rapports coût / durée sont proches.

Le coût de 13.888 superchargeurs de 350 kW l’unité (4,8 GW) est d’environ 7 millliards d’euros, c’est à dire 218 euros par automobile à l’échelle des 32 millions de véhicules du parc français.  Les 4,8 GW de superchargeurs peuvent d’ailleurs être couplés à 4,8 GW de PAC stationnaires, permettant ainsi  de réaliser des économies au niveau du réseau électrique. 4,8 GW de PAC stationnaires versus 114 GW de PAC embarquées…Facteur 24.  « Historiquement, un nouveau vecteur énergétique a toujours commencé par s’imposer dans les usages stationnaires avant ceux de mobilité pour des questions de poids, d’autonomie, de fiabilité, de sûreté, etc. » expliquait Etienne Beeker, expert de France Stratégie, le 22 septembre 2015 dans le cadre d’une interview pour un média de la Commission de Régulation de l’Energie.

Quel est le coût d’un million de piles à combustibles (114 GW) pour équiper un million de Toyota Miraï ? De 3648 GW de PAC pour en équiper 32 millions ? Et combien coûtent 32 millions de réservoirs à hydrogène associés devant résister à une pression de 700 bars ?

Air Liquide (cH2ange): « Dans quelques années les voitures à hydrogène et les voitures électriques à batterie seront comme les voitures diesel et les voitures à essence aujourd’hui », a déclaré Dr. Katsuhiko Hirose, ingénieur pile à combustible et Hydrogène chez Toyota. Etes-vous d’accord avec lui ? »

Réponse: Le comparatif est-il pertinent ? Essence et diesel doivent tous les deux êtres éliminés dans une perpective zéro émission qu’Air Liquide appelle de ses vœux.  Au nom de l’ouverture à l’innovation doit-on accepter les voitures thermiques à éthanol de maïs alors que leur efficience Sun-to-Wheel est 180 fois inférieure à celle des voitures électriques à batterie alimentées par des panneaux photovoltaïques ? Certes les voitures à hydrogène sont « seulement » 3 fois moins efficientes et non pas 180. La question devient: où placer le curseur de la tolérance en matière d’efficience ? Les personnes luttant contre le gaspillage peuvent-elles être traitées de « khmers verts » ?

« Il y a une compétition entre les batteries et les piles à combustible à hydrogène, on verra qui gagnera » a déclaré  Bertrand Piccard, fondateur de l’ « alliance mondiale pour les solutions efficientes » (qui s’appelait auparavant « alliance mondiale des technologies propres »), au micro de Patrick Cohen sur France-Inter à l’occasion de la parution du livre « Objectif Soleil » retraçant l’aventure Solar Impulse.

De son côté Elon Musk, grâce à l’hydrogène, vient de réussir le lancement d’une fusée Falcon 9 (SpaceX) depuis le centre spatial Kennedy de Cap Canaveral, avec récupération réussie de l’étage inférieur. Ce qui ne l’empêche pas de déclarer que les voitures à hydrogène, compte-tenu de leur efficience médiocre, sont « absurdes » (« Silly ») et qu’elles relèvent manifestement uniquement « d’une chose marketing », une façon de renforcer la «  valeur corporate » des groupes concernés. L’Hydrogène jouit en effet d’une bonne image auprès du grand public malheureusement pas assez informé à propos des problématiques d’efficience.

Le multi-milliardaire américain avait même déclaré à propos des voitures à hydrogène: « so bullshit ! ». Toyota avait alors répondu avec une vidéo montrant que les véhicules à hydrogène peuvent être alimentés par des bouses de taureau ou de bison: « Fueled by bullshit ». Le méthane issu de la fermentation peut en effet servir à produire du dihydrogène par reformage. Aujourd’hui 95% de l’hydrogène consommé dans le monde provient du reformage du méthane d’origine fossile, et non pas de biométhane. L’hydrogène de reformage vapeur sert notamment dans la production d’ammoniaque qui à elle seule est responsable de plus de 1% des émissions mondiales de dioxyde de carbone, un gaz à effet de serre.

La bataille entre les deux PDG, celui de Toyota et de Tesla continue. Big Oil face à la Silicon Valley. Selon la légende l’adolescent David à gagné contre le géant philistin Goliath. Ceci grâce à une technologie très efficiente, une fronde, et à sa capacité à l’utiliser de façon habile.

La chaîne de propulsion électrique de la voiture Tesla couplée aux superchargeurs constitue une fronde des temps modernes. Un véhicule qui prend d’ailleurs l’apparence d’une fusée: la Tesla Model S P100D passe de 0 à 100 kilomètres/heure en 2,3 secondes. Contre 9 secondes pour la Toyota Miraï. Le groupe nippon vient de rappeler l’intégralité des 2800 unités vendues dans le monde en trois ans, ceci suite à un problème de contrôle électronique de la pile à combustible.

« Certaines personnes n’aiment pas le changement, mais nous devons embrasser le changement si l’alternative est le désastre » a déclaré Elon Musk.  Plus de 700.000 véhicules électriques à batterie ont été vendus dans le monde durant l’année 2016, dont la moitié en Chine.  Selon The Economist cette vague va grandir très rapidement.

Olivier Daniélo

Olivier Daniélo est auteur pour la Revue Politique et Parlementaire des dossiers « La révolution de la voiture électrique 2.0 » (2009, dans le Hors-série « Développement durable: éthique et stratégie du XXIème siècle ») et « La seconde vague de la voiture électrique » (2014). Ainsi que du dossier « Véhicules électriques: un volant de stockage pour demain » (2011), Revue Systèmes solaires n°202.

Remodeler un objet imprimé en 3D pour rattraper des erreurs

La fabrication additive (plus connue sous le terme d’impression 3D) présente plusieurs avantages : matériaux de plus en plus performants, réduction du poids et des coûts, conception de pièces expérimentales… Mais elle est encore pénalisée par une productivité assez faible par rapport à des process conventionnels et des outils informatiques mal adaptés. Et il y a les fameuses erreurs que l’on constate à la fin, lorsque l’objet vient d’être imprimé. Jusqu’à présent, il n’était pas possible de rattraper les erreurs ; il fallait tout recommencer.

Dorénavant, cette contrainte n’existe plus. Le MIT (Massachusetts Institute of Technology ) a trouvé une méthode qui permet de modifier la forme, la taille ou la couleur après coup. Dans leur article scientifique publié par ACS Central Science, les chercheurs expliquent qu’ils sont parvenus à jouer sur les propriétés mécaniques d’un objet en altérant sa dureté. Ils ont également réussi à modifier ses propriétés hydrophobiques, à le faire enfler ou rétrécir en utilisant un monomère sensible à la température. Leur secret ? La polymérisation vivante. Les polymères qui composent la matière restent en quelque sorte actifs, prêts à répondre à une stimulation, en l’occurrence la lumière bleue d’une LED.

Au lieu de recourir à la traditionnelle impression qui consiste à diffuser de la lumière sur des monomères à l’état liquide – la base du plastique et d’autres matières – jusqu’à obtenir des couches compactes de polymère, Johnson et son équipe ont décidé, en 2013, d’utiliser la « polymérisation vivante ». Son principe reste le même, à une différence près ; elle crée des matières dont la croissance peut ensuite être réactivée grâce à un rayonnement ultraviolet.

Pour l’instant, les applications ne sont réalisées qu’en laboratoire, car il est impératif que les catalyseurs organiques soient placés dans un environnement sans oxygène, d’où l’objectif principal des chercheurs, de tester d’autres sortes de catalyseurs.

Philippe Richard

Entrepreneuriat : les Français se mettent au pitch !

Jon Stallé, ingénieur de Centrale et diplômé d’HEC, explique pourquoi le projet Station Energy n’a pas complètement réussi à convaincre lors d’un concours de pitch américain : “En fait, il s’agissait de raconter une histoire qui porte les jurés, ce qui demande de laisser de côté cette rationalité et linéarité typique des ingénieurs français”.

Tout est dit, par sa culture et son éducation, l’ingénieur français n’est pas né pour pitcher. Qu’à cela ne tienne, il sait apprendre, non ?

Entraînement et expérience

Si la présentation orale et les compétences en communication sont mises en avant dans l’éducation américaine, cela n’a jamais été le cas en France. Cependant, les grandes écoles ont depuis longtemps intégré à leur cursus des composantes de communication. A commencer par celles de marketing ou de commerce où, désormais, le pitch fait la loi. Ainsi, dans un article du Figaro Etudiant de 2012, Nathan Grass de ESCP Europe explique comment les étudiants sont mis en condition de pitch à tout moment quand Julien Morel, directeur du pôle entreprenariat de l’ESSEC précise qu’”il y a autant de pitchs que de situations”. Car non seulement, il faut savoir pitcher votre projet en une minute, cinq minutes ou 1h, mais il faut aussi savoir l’adapter à son public… Autant dire qu’il faut bien maîtriser son sujet, être entraîné et aussi… connaître son auditoire.

Start-up de la tech : acculturation obligatoire

Monter sa start-up de la tech implique de trouver des fonds. Et aujourd’hui trouver des fonds implique… de pitcher ! Conscients du manque d’habitude de pitcher des entrepreneurs français, institutions, associations de soutien aux start-up ou organismes de formation proposent désormais pléthore de solutions pour apprendre à pitcher.  Et certains programmes spécifiques vont plus loin que le pitch et proposent une véritable acculturation à la planète “start-up de la tech” comme l’accompagnement Impact USA proposé par BpiFrance et Business France. Il s’agit alors en 10 semaines intensives dans la Silicon Valley de fournir les codes d’entrée de ce microcosme particulier et de lancer leur projet pour une quinzaine de start-up qui visent une installation Outre-Atlantique (voir ce reportage de Slate.fr : « Pour réussir dans la Silicon Valley, les Français apprennent à s’américaniser« )

Les universitaires s’y mettent aussi

Toujours très en retard sur le développement des compétences en communication de ses étudiants, l’université française et les instituts de recherche entrent doucement dans la danse. Cela se traduit notamment par le développement des concours “ma thèse en 180 secondes” où le doctorant doit présenter son sujet de recherche en termes simples à un auditoire profane et diversifié. Le concept, inspiré du Three minute thesis de l’université du Queensland en Australie a été repris en 2012 par l’association francophone pour le savoir (Acfas) au Québec avec l’ambition de l’étendre à l’ensemble des pays francophones.

Par Sophie Hoguin

Des cancers repérés par son smartphone ?

Démocratisation de la détection de cancers ou gadget pour hypocondriaques ? Dans un article paru ce mardi 17 janvier dans Nature Communications, ces scientifiques ont développé un microscope qui s’appuierait sur le capteur photo d’un smartphone pour réaliser des séquençages d’ADN.

Ce dispositif serait en effet capable de détecter les produits fluorescents des réactions de séquençage de l’ADN dans les cellules et les tissus. Il ne serait plus nécessaire de se rendre dans un laboratoire. Un médecin pourrait brancher ce microscope à son téléphone pour effectuer par exemple une analyse moléculaire sur une tumeur.

Un progrès majeur pour repérer à temps, et à moindre coût, un cancer ou une maladie infectieuse. Présente dans chaque cellule vivante, l’acide désoxyribonucléique (ADN) rassemble toute l’information permettant à l’organisme qui la contient de se développer et de se gérer. Le séquençage permet en effet de comprendre et de poser un diagnostic, mais également d’identifier des mutations génétiques. Il permet d’identifier une mutation ou un gène impliqué dans une maladie, mais également d’évaluer les prédispositions génétiques d’une personne pour certaines maladies ou d’en savoir plus sur sa « généalogie génétique ».

Pour relever ce défi, les chercheurs américains et suédois se sont appuyés sur l’impression 3D pour concevoir leur dispositif.  Il est équipé de deux diodes laser pour l’imagerie par fluorescence et d’une diode électroluminescente blanche pour l’imagerie de transmission. Des essais concluants ont été réalisés sur des lignées cellulaires de cancer du côlon et sur des échantillons de tumeurs humaines. Le traitement des images a été géré par un algorithme d’apprentissage automatique.

Les Français ne sont pas en reste. Patrick Merel, un biologiste moléculaire qui a fait toutes ses études à Bordeaux, propose une application qui permettrait à chacun de transporter son génome sur son smartphone, de suivre l’évolution des connaissances relatives à son état patrimoine génétique. Une mention « cancer du sein » accompagnée d’une icône rouge soulignera par exemple une prédisposition à cette maladie, tandis qu’une icône verte indiquera l’absence de risque.

Avec deux autres biologistes et une chercheuse en bio-informatique du CNRS au Labri, il a conçu un projet qui en surprend plus d’un : faire entrer ce fichier de 3 Go – notre génome humain – dans un téléphone portable. En ayant toujours avec soi son code génétique, nous pourrions le faire analyser à tout moment par un spécialiste. Une activité en pleine croissance. Moyennant quelques centaines de dollars, des firmes, essentiellement américaines, proposent déjà aux particuliers de séquencer les données contenues dans leur ADN. Un labo décrypte l’ADN, et en quelques clics, le curieux a accès à certaines informations de son ADN via un site sécurisé et peut savoir, par exemple, s’il est porteur de gènes favorisant tel ou tel cancer.

N’ayant pas obtenu de financement en France (le séquençage du génome demeure strictement encadré), Patrick Merel s’est rendu aux États-Unis pour créer la société Portable Genomics. Début janvier, Apple le contactait… Un premier pas vers la génomique portable ? « Ne va-t-on pas inquiéter inutilement des personnes qui ne vont pas forcément déclarer ces maladies ? », s’inquiète au contraire Patrick Gaudray, membre du Conseil consultatif national d’éthique (CCNE) et directeur de recherche au CNRS.

Philippe Richard

Bilan électrique 2016 : le nucléaire recule

En 2016, la part du nucléaire dans la production d’électricité a atteint 72,3%, contre 76,3% en 2015. La production nucléaire perd ainsi 7,9%, à 384 térawatheures (TWh). Mais ce recul n’est pas le fruit de la loi de transition énergétique pour la croissance verte qui vise une part de nucléaire dans la production d’électricité à 50% en 2025. Il est notamment lié à l’arrêt de plusieurs réacteurs entre novembre et décembre. L’Autorité de Sûreté Nucléaire vérifiait alors l’état des générateurs de vapeur dans les centrales qui pourraient avoir fait l’objet de défauts de fabrication.

Résultat : si la France exporte toujours plus d’électricité qu’elle n’en importe, le solde des échanges avec ses voisins baisse de 36,6% et atteint 39,1 TWh. C’est son niveau le plus bas depuis bas depuis 2010. La consommation s’élève quant à elle à 483 TWh et, corrigée de l’effet météorologique, demeure stable, à 473 TWh.

Moins de charbon et de fioul, plus de gaz et de renouvelables

Sur l’année, le parc de production d’électricité installé progresse de 1.700 mégawatts (MW), pour atteindre 130,8 gigawatts (GW).  Il gagne 1.345 MW d’éolien, 576 MW de solaire,  215 MW  de bioénergies et 51 MW  d’hydraulique. En revanche, le parc thermique à combustible fossile perd au total 488 MW.

Concernant les énergies renouvelables, la puissance totale du parc s’élève désormais à 45,84 GW pour une production de 94,7 TWh, en hausse de 6,5 % par rapport à 2015. Elles assurent 17,8% de la production et couvrent 19,6% de la consommation française, soit 0,9% de plus qu’en 2015, mais autant qu’en 2014. Dans le détail, la production hydraulique renouvelable (59,2 TWh) couvre 12,2% de la consommation. La production éolienne (20,7 TWh) et solaire (8,3 TWh) couvrent respectivement 4,3% et 1,7% de la consommation. Enfin, la production renouvelable de la filière bioénergies (6,5 TWh) assure 1,4% de la consommation.

Du côté des énergies fossiles, le charbon recule de 15,4% (à 7,3 TWh) et le fioul perd 13,1% (3,3 TWh). En revanche, le gaz gagne 60,8% et atteint une production de 35,3 TWh. Cela en fait la troisième énergie française, après le nucléaire et l’hydraulique. Cette forte hausse est notamment due à la nouvelle centrale Cycle Combiné Gaz de 563 MW, installée à Bouchain. Les énergies fossiles couvrent ensemble 8,6% de la production française.

Début 2017, RTE indique être confronté à une situation tendue. Plusieurs réacteurs nucléaires sont toujours à l’arrêt. En janvier, les capacités de production étaient limitées à 90 GW, alors que la demande avoisinait 93 GW.

Par Matthieu Combe, journaliste scientifique

Atlantique Nord : le risque d’un refroidissement rapide au XXIe siècle revu à la hausse

Détecté dans toutes les projections des modèles climatiques actuels, le ralentissement de la circulation océanique de retournement2 (dont fait partie le fameux Gulf Stream qui apporte la chaleur de la Floride jusqu’aux côtes européennes) pourrait entraîner un bouleversement climatique sans précédent. En 2013, le GIEC, se basant sur les résultats d’une quarantaine de projections climatiques, a estimé que ce ralentissement s’installerait progressivement et sur une échelle de temps longue. Un refroidissement rapide de l’Atlantique Nord au cours du XXIe siècle semblait donc peu probable.

Dans le cadre du projet européen EMBRACE, une équipe d’océanographes a réexaminé ces 40 projections climatiques en se focalisant sur un point névralgique au nord-ouest de l’Atlantique Nord : la mer du Labrador. Cette mer est le siège d’un phénomène de convection, qui nourrit à plus grande échelle la circulation océanique de retournement. Ses eaux de surface se refroidissent fortement en hiver, deviennent plus denses que les eaux de profondeur et plongent vers le fond. La chaleur des eaux profondes est transférée vers la surface et empêche la formation de banquise. Choisissant d’étudier ce phénomène de convection en détail, les chercheurs ont développé un algorithme capable de repérer les variations rapides des températures à la surface de l’océan. Cette « moulinette statistique » a révélé que 7 des 40 modèles climatiques étudiés projetaient un arrêt complet de la convection engendrant des refroidissements abrupts – 2 ou 3 degrés en moins de dix ans – de la mer du Labrador, induisant de fortes baisses des températures dans les régions côtières de l’Atlantique Nord.

Mais un tel refroidissement rapide, simulé seulement par quelques modèles, est-il vraisemblable ? Pour répondre à cette question, les chercheurs se sont penchés sur la variable clé du déclenchement de la convection hivernale : la stratification océanique. Ces variations verticales de la densité des masses d’eau sont bien reproduites dans 11 des 40 modèles. Parmi ces 11 modèles, qui peuvent être considérés comme les plus fiables, 5 simulent une baisse rapide des températures de l’Atlantique Nord, soit 45 % !

Ces résultats issus de modèles climatiques pourront être confrontés aux futures données du projet international OSNAP qui prévoit l’installation de bouées fixes dans le gyre subpolaire. De quoi anticiper de possibles refroidissements rapides dans les années à venir. Ce risque devra par ailleurs être pris en compte dans les politiques d’adaptation au changement climatique des régions bordant l’Atlantique Nord.

Cap-cnrs1

Cap-cnrs2

Notes :

  1. Le GIEC, Groupe d’experts intergouvernemental sur l’évolution du climat, a rendu les 3 volumes de son 5e rapport d’évaluation en 2013 et 2014
  2. La circulation océanique de retournement est parfois appelée circulation thermohaline.

Références :

Abrupt cooling over the North Atlantic in modern climate models, Giovanni Sgubin, Didier Swingedouw, Sybren Drijfhout, Yannick Mary & Amine Bennabi. Nature Communications, 15 février 2017. DOI: 10.1038/ncomms14375

Source : cnrs

L’Inde libérée du charbon dès 2050 ?

«  Le coût de l’électricité renouvelable et de son stockage est en déclin continu et pourrait se stabiliser vers 5 roupies (7 centimes d’euros NDLR) le kWh » écrivent les co-auteurs de ce rapport stratégique. Cela permettra à l’Inde de se diriger de façon décisive vers les énergies renouvelables pour les projets électriques futurs. Ces spécialistes ajoutent qu’ « il est peu vraisemblable qu’il y ait de nouveaux investissements dans le charbon, le gaz fossile ou l’énergie nucléaire ».

La banque américaine Morgan Stanley vient de publier une étude ( « Energy storage: the underestimated disruptor ») où est souligné le fait que nombreux sont ceux qui n’ont pas encore compris l’importance du tsunami du stockage batterie qui est en train de se former. Le cabinet Deloitte abonde dans le même sens et annonce une croissance exponentielle.

Selon Tony Seba de Stanford University les  gas peakers (centrales à gaz spécialisées en gestion de pointe) ne seront plus compétitives dès 2020.  Cet auteur du best-seller  « Clean Disruption » estime que la « disruption est inévitable pour des raisons économiques.  Les gouvernements peuvent aider à créer des emplois et de la richesse ou au contraire freiner et nous rendre plus pauvres mais ne peuvent pas la stopper ». Dans son ouvrage qui vient de paraître,  « La révolution Tesla », le chercheur hollandais Rembrandt Koppelaar, professeur à l’Imperial College London, explique lui aussi « pourquoi Big Oil a perdu la guerre de l’énergie ».

Alors que la Gigafactory  du Nevada a commencé à produire des batteries, Elon Musk envisage d’en construire une seconde en Inde. Le Premier Ministre indien a visité l’usine Tesla de Fremont en Californie il y a un an et demi. Une troisième sera  construite en Europe. Peut être en Finlande, sur l’île de Chypre ou encore en Lituanie.

Avant le déluge (Before the flood)

Pour que le monde entier passe au 100% Renouvelable Elon Musk et les cerveaux de la Silicon Valley estiment que 100 Gigafactories suffiront.  Un tel déferlement est-il vraiment envisageable ? « On a d’abord le mépris de l’adversaire » explique Philippe Silberzahn, spécialiste de l’innovation de rupture, dans un article intitulé « Tout va très bien Madame la Marquise ». Avec des analyses naïves  du genre « Nous on est gros, alors que Tesla est un petit moustique ». Silberzahn ajoute:  « on a ensuite le syndrome de la dinde: celle qui juge que demain sera toujours comme aujourd’hui ». Et on a au final la noyade.  « D’abord ils vous ignorent, ensuite ils se moquent de vous, après ils vous combattent et enfin, vous gagnez ».

Dans un autre article intitulé  «  Le Dilemne de l’innovateur » Silberzahn explique avec pédagogie que  «  l’erreur du bourrage («  cramming «  en anglais) consiste à raisonner à partir de son marché, et de son réseau de valeur, en se demandant comment l’innovation de rupture pourrait servir ce marché et ce réseau, et plus généralement son modèle d’affaire, au lieu de raisonner à partir de l’innovation elle-même en se demandant quel nouveau marché et quel nouveau réseau de valeur, et donc quel nouveau modèle d’affaire, elle pourrait permettre de construire. »

Selon  Silberzahn, auteur du livre « Effectuation: les principes de l’entrepreneuriat pour tous »  qui a reçu le prix académique du meilleur ouvrage de management, il serait «  vraiment déraisonnable de ne pas prendre au sérieux » Tesla. Se contenter de dire « le parallèle de Kodak ou Nokia avec nous ne tient pas » est selon ce professeur « simplement trop risqué. A bon entendeur…»
De son côté Elon Musk, qui envisage par ailleurs de conquérir la planète Mars, anticipe la vague: la robotisation croissante va selon lui rendre indispensable la création du revenu universel de base. Un avis partagé par Benoît Hamon, candidat socialiste à la présidentielle 2017.
Olivier Daniélo

L’événement de l’innovation spatiale

La PARIS SPACE WEEK est composée de 5 expositions / salons ciblés sur des thématiques spatiales (Smart Manufacturing, Composites & matériaux innovants, Essais, Optique & Photonique, Technologies embarquées), trois conventions d’affaires (Industry, Applications & R&D), des Start-up Challenges et de nombreuses conférences animées par des leaders de l’industrie spatiale mondiale (NASA, ESA, JAXA, CNES, CASC, AIRBUS, LOOKHEED MARTIN, THALES…).

PSW est organisée par ASTech et est le plus grand rassemblement européen de décideurs et de start-up de la filière spatiale.

Liste des participants : Télécharger la liste des participants  Plus d’information : Site Internet ou au 01 46 90 22 37

Comment manager et mesurer la performance industrielle ?

Qu’est-ce qu’un système de management visuel de la performance ?

Une définition pourrait être : Un système de management visuel de la performance permet de structurer la prise de décisions et le déclenchement d’actions, à tous les niveaux de l’entreprise, en s’appuyant sur des outils visuels simples et efficaces.

Attention : dans de nombreuses entreprises, on associe trop souvent management visuel et affichage d’indicateurs. Ces deux notions sont très différentes : afficher des indicateurs (souvent complexes et pas  jour) n’a que très peu d’intérêt si ça ne génère pas d’actions pour s’améliorer. Le point clé du management visuel est bien la notion de management qui s’appuie sur des outils visuels pour progresser.

Ces outils permettent :

  • de visualiser simplement les résultats et les problèmes par la récolte au fur et à mesure des données (résultats, aléas). Ces données sont incontestables car issues des problèmes réellement rencontrés sur le terrain ;
  • de responsabiliser les opérateurs qui les enregistrent et de les impliquer dans la résolution des problèmes ;
  • d’impliquer l’ensemble de la ligne hiérarchique et les fonctions supports dans l’apport d’une solution efficace aux problèmes réels des opérateurs ;
  • de prendre des décisions basées sur des faits et non sur des suppositions. On peut observer sur place des faits concrets et connus de tous et ainsi déclencher des actions ciblées et efficaces.

Cette démarche permet ainsi d’éviter les phrases du type : « rien ne va ce matin  », ou « ça fait des mois que ça traîne  », ou « on a eu beaucoup de pannes hier matin  ». Ces discussions, qu’il est fréquent d’entendre dans les ateliers, ne permettent absolument pas de décider d’une action corrective. Elles sont beaucoup trop générales et superficielles pour engager une action ciblée qui permette d’améliorer la performance.

Il va de soi que la mise en place du système de management visuel de la performance n’a d’intérêt que si une solution est réellement apportée aux problèmes du terrain. Mesurer sans agir ne sert à rien ; agir sans mesure factuelle est souvent inefficace.

Il est fréquent de trouver dans les entreprises des démarches dites de progrès continu où on décide chaque semaine ou chaque mois d’actions correctives basées sur l’analyse d’indicateurs de « chefs  », souvent complexes à comprendre et trop globaux. Ces indicateurs sont rarement à jour car relativement compliqués à réaliser, mais surtout ils ne sont que très rarement accompagnés d’analyses, ou bien ces analyses ne permettent pas de décider des actions adaptées pour résoudre les problèmes des opérateurs. Les opérateurs ne se sentent en général pas concernés par ce type de dynamique. Mais est-ce là du management ?

Dans quels cas faut-il implanter un système de management visuel de la performance ?

Un système de management visuel de la performance peut être utilisé dans tout type de contexte où l’on a besoin de prendre des décisions objectives, en s’appuyant sur des données factuelles, en impliquant toute la ligne hiérarchique dans la prise de décisions et d’actions. Cette démarche peut s’appliquer dans tout type d’environnement, que ce soit commercial ou marketing, industriel ou financier. Les applications à des activités logistiques sont également très intéressantes.
Dans le reste de cet ouvrage, nous aborderons très largement son application en milieu industriel, et plus particulièrement au cœur des usines, au contact des opérateurs, en impliquant l’ensemble de la ligne hiérarchique à la résolution des vrais problèmes du terrain.

Que peut-on en espérer ?

Les résultats obtenus en déployant ce type de démarche peuvent parfois être très surprenants, et pour certains, très difficiles à chiffrer (cf. document 01 – Grille d’analyse des gains possibles) :

  • Le premier résultat est souvent la responsabilisation des opérateurs car ils doivent afficher aux yeux de tous, et en grand, ce qui se passe sur leur poste et les résultats qu’ils obtiennent. De plus, ils deviennent bien plus exigeants envers leur environnement pour trouver de l’aide et du soutien pour résoudre leurs problèmes.
  • Ensuite, on peut mettre en avant la prise de conscience de l’encadrement et des fonctions supports que leur rôle est avant tout de résoudre les problèmes du terrain. Ceci peut paraître tout à fait dérisoire, mais c’est en général un changement de mentalité important de faire en sorte que la priorité de tous soit définie par les problèmes réellement rencontrés sur le terrain.
  • Au niveau chiffré, il est fréquent de constater des gains de productivité de 10 à 50 % dans les 6 premiers mois, tout dépend évidemment de la situation initiale et de l’implication des encadrants, et des groupes supports, durant cette période.
  • Par ailleurs, et alors que ce n’est pas la demande initiale de performance, d’autres gains très importants peuvent être notés sur la sécurité (diminution forte des accidents et incidents sécurité), sur la qualité (diminution forte des non-conformités). Ceci est lié à un aspect clé du management visuel qui est le respect des standards. C’est un point déterminant de cette démarche qui s’appuie sur des modes de fonctionnement clairement établis (ces fameux standards) et qui vise à les faire appliquer en permanence. Ces standards peuvent évoluer ou s’enrichir avec le temps et les problèmes rencontrés. Si on se réfère à la loi des 80/20, on peut tout à fait avancer que 80  % des aléas rencontrés dans une usine (sécurité, qualité, technique…) sont liés à un non-respect des standards.

Comment fonctionne un système de management visuel de la performance ?

Un système de management visuel de la performance fonctionne d’une manière très simple :

  • à l’aide d’un outil ou d’un support visuel, je compare ma performance ou mon activité à un standard qui devient mon objectif ;
  • en temps réel (maille de temps idéale : l’heure), si j’atteins mon objectif, ma performance est inscrite en vert (la situation est globalement sous contrôle), si je n’atteins pas mon objectif, ma performance est inscrite en rouge et je dois réagir au plus vite pour revenir à mon standard. C’est la phase de maintien des standards ;
  • à l’aide d’outils visuels, je consolide ma performance au jour le jour et sur une maille de temps plus longue (semaine ou mois). Il y a alors une tendance de fond qui se dessine : en fonction de cette tendance, je dois lancer des actions de fond pour améliorer mes standards.

Comment s’articule un système de management visuel de la performance par rapport au cadre stratégique d’une entreprise ?

Cette question est fondamentale si on veut s’assurer que tout le monde dans l’entreprise poursuit les mêmes objectifs et partage les mêmes priorités. Il est absolument nécessaire que les objectifs qui nourrissent les outils de management visuel de la performance soient cohérents par rapport aux objectifs déclinés dans le plan stratégique de l’entreprise.

Il est donc indispensable de commencer la démarche de déploiement du système de management visuel de la performance par une étape de déclinaison des objectifs. De plus, le système de management visuel de la performance doit s’articuler efficacement avec l’organisation hiérarchique habituelle (cf. Étape 10).

Quels sont les préalables pour lancer la mise en place d’un système de management visuel de la performance ?

Il y a 3 préalables principaux :

  • Le premier est d’avoir une vision des axes de progrès et des grands objectifs à atteindre pour le site, si possible avec un cadencement dans le temps. Ces objectifs peuvent provenir des objectifs du groupe, d’un plan stratégique ou de tout autre moyen. Exemple : pour rester compétitive, une entreprise doit baisser ses prix de vente de 20 % et améliorer son taux de service pour ne pas perdre de marché ou pour rester concurrentiel.
  • Le second est d’avoir réalisé un îlotage effectif de l’usine : on entend par îlotage, le découpage en îlots (machine ou groupe de machines produisant un produit ou une famille de produits homogènes). Un îlot peut être constitué de plusieurs équipes en fonction des tranches horaires de travail. Plusieurs îlots peuvent être regroupés dans un atelier, que certains peuvent appeler Unité de Production.

cap-tableau1

  • Le troisième pré-requis est la maîtrise du procédé de fabrication. En effet, sur un process mal connu, les aléas sont très nombreux et le recul souvent insuffisant.

Que faut-il faire ?

  • Définir la démarche à déployer, le type d’outils à déployer, en bref le référentiel à déployer (Partie 1).
  • Définir le cadre et le planning prévisionnel de déploiement. Identifier le futur chef de projet et les moyens liés au déploiement (Partie 2).
  • Positionner l’équipe de direction du site sur la démarche, les enjeux et leur rôle futur. Définir les grands objectifs, probablement issus du plan stratégique s’il existe, et les décliner à chaque secteur de l’entreprise (Partie 3).

Vérifions ensemble

  1. L’équipe est-elle bien claire sur ce qu’elle attend du futur système de management visuel ?
  2. La performance visée est-elle précisée ? les gains possibles sont-ils précisés ?
  3. Les préalables à la mise en place du système de management visuel sont-ils réunis ?

Point de vigilance

La réussite de ce projet repose sur la volonté réelle du management du site de réussir une réelle amélioration de la performance, en admettant des remises en cause des modes de fonctionnement actuels. Les fonctions support et l’encadrement de l’atelier (maîtrise en particulier, chefs d’équipe également) sont très impactés par ce type de mise en œuvre : assurons-nous qu’ils seront pleinement associés et soutenus tout au long de la démarche.

01 – Grille d’analyse des gains possibles

Cap-tableau2

 visuel-couvManager la performance industrielle
2e édition
Outils visuels simples et efficaces pour structurer l’animation et la prise de décision

Auteurs : Yves BEUNON , Bruno SÉCHET
Éditeur : GERESO ÉDITION
Date de parution : 12 décembre 2016

Minerais de conflit utilisés dans l’industrie électronique en infographie

De nombreux secteurs, dont l’industrie électronique, utilisent des métaux stratégiques tels que le tantale, l’étain, le tungstène ou l’or. Les sources d’approvisionnement se trouvent en République démocratique du Congo et dans les pays voisins où l’extraction illégale participe au financement des groupes armés qui sévissent depuis près de deux décennies dans cette région, provoquant violations des droits humains et dégâts écologiques considérables. Les chaînes d’approvisionnement de l’industrie électronique sont soumises à des exigences de contrôles accrues en raison de ces risques. Cette infographie, synthèse graphique de l’article AG105 des bases documentaires, reprend en images et graphiques les points essentiels du sujet.

MINERAIS DU CONFLIT-OK

Entreprises : seulement 2% atteignent leurs objectifs RSE !

Presque toutes les entreprises lancent des programmes de transformation pour renforcer leur compétitivité et assurer leur pérennité à moyen-terme. Ces programmes sont souvent portés par des PDG convaincus de leur intérêt. Et pour cause : les marques ayant un engagement démontré en matière de durabilité avaient une croissance quatre fois plus rapide que les autres en 2015, selon le rapport Global Corporate Sustainability 2015 de Nielsen. Mais selon une étude récente de Bain & Company, les objectifs définis par les entreprises ne sont que trop rarement atteints.

Ainsi, seulement 12% des entreprises interrogées déclarent atteindre leurs objectifs, tous changements confondus. Concernant les programmes liés à la responsabilité sociétale des entreprises (RSE), les résultats sont encore plus alarmants : seulement 2% des entreprises déclarent atteindre leurs objectifs de durabilité. Et 16% estiment avoir produit moins de la moitié des résultats escomptés. Il y aurait une raison principale à cela : les entreprises ne parviennent pas à engager leurs salariés dans les processus de transformation. Le haut de la hiérarchie négligerait trop souvent les difficultés rencontrées par les employés lorsqu’il définit de nouvelles approches. « Si les employés se sentent obligés de choisir entre des objectifs de durabilité et des objectifs commerciaux, par exemple, la plupart choisissent les objectifs commerciaux », affirme Bain & Company dans son rapport.

Et si l’on engageait les salariés ?

Pour 62% des sondés, l’intérêt principal de la RSE est simplement d’améliorer la réputation de l’entreprise. Ce qui explique qu’elle ne constitue pas une priorité pour les salariés. 25% des entreprises considèrent que la principale barrière à la réussite d’une stratégie de RSE est le manque d’investissement ou de ressources. 15% pensent qu’il y a des priorités plus importantes. 11% déclarent que la culture du changement est insuffisante et 10% qu’il y a trop d’obstacles organisationnels liés à la structure hiérarchique ou la prise de décision.

Pour réussir à engager les salariés, le haut de la hiérarchie doit être mobilisé. 27% des sondés considèrent ainsi que le soutien de la part des cadres supérieurs est le facteur capital pour atteindre les objectifs. 11% placent l’intérêt et l’engagement des salariés en facteur prédominant. Mais c’est aussi toute l’organisation qu’il faut faire évoluer. En effet, peu de sociétés assurent la durabilité dans leurs processus, leurs systèmes de responsabilisation et leurs incitations, regrette Bain & Company. « Notre sondage a révélé que seulement 24% des employés sont tenus responsables des résultats obtenus en matière de durabilité de façon significative », note le cabinet.

Bain & Company a également interviewé les responsables en charge des questions de durabilité chez les entreprises reconnues pour leurs résultats, comme Nestlé ou Coca-Cola. Il en ressort que les entreprises qui atteignent leurs objectifs sont celles qui imposent aux managers des objectifs de durabilité à atteindre. Pour cela, elles peuvent, par exemple, lier le bonus annuel à des objectifs de durabilité ou ajouter des critères de durabilité pour les investissements.

Par Matthieu Combe, journaliste scientifique