Le crédit d’impôt recherche en quête de maturité

Le crédit d’impôt recherche (CIR) permet de soutenir l’innovation sous plusieurs aspects. Il encourage la recherche et développement (R&D) dans les entreprises, développe les secteurs d’avenir et l’emploi hautement qualifié, soutient la réindustrialisation de la France, attire les entreprises étrangères grâce à un dispositif attrayant, multiplie les partenariats de recherche public-privé… Ce dispositif, égal à 30 % des dépenses de recherche inférieures ou égales à 100 millions d’euros, et à 5 % au-delà, s’applique à toute entreprise engageant de la R&D, quel que soit son secteur d’activité, sa taille et son organisation.

Avec un budget estimé à 5,53 milliards d’euros pour 2013, le CIR est la seconde dépense fiscale de l’Etat, derrière le Crédit d’impôt pour la compétitivité et l’emploi. Le recours au contrôle est donc incontournable pour prévenir des abus et s’assurer que cette dépense fiscale remplit bien ses objectifs. Après quelques années de rectifications intensives suite à sa réforme de 2008, l’appropriation du dispositif par les entreprises semble être sur la bonne voie. C’est l’un des enseignements du 4e Observatoire du CIR élaboré par le cabinet de conseil ACIES Consulting Group et publié en décembre 2015.

Selon cet observatoire, le montant des rectifications du CIR, suite à un contrôle fiscal, a été multiplié par plus de 7 entre 2008 et 2013, pour atteindre un maximum de 271 M€. Ce montant est redescendu à 211 M€ en 2014.« Cette réduction traduit une meilleure maîtrise du dispositif par les entreprises et confirme la logique d’arrivée à maturité du dispositif après la réforme de 2008 », estime le cabinet de conseil spécialisé en Recherche et Innovation. Pour faciliter encore davantage la résolution des contentieux, un Comité consultatif est saisissable par un contribuable ou l’administration depuis le 1er juillet 2016. Son objectif : statuer sur la réalité de l’affectation à la recherche des dépenses prises en compte pour la détermination du CIR.

Le CIR est-il réellement efficace ?

La question de l’efficacité du CIR a été posée par de nombreux rapports parlementaires et la Cour des Comptes. Par exemple, le rapport de Suzanne Berger de janvier 2016 relève que « la France dépense 0,37 % de son PIB en allègements d’impôts pour financer la R&D du secteur privé — ce qui la place en deuxième place, juste derrière la Corée du Sud ». Les conclusions notent plusieurs points positifs fournis par le CIR : il diminue le coût du travail du personnel en R&D et fournit de la trésorerie, sans attendre les bénéfices des travaux. Sans le CIR, la France risquerait de connaître « un exode massif d’entreprises et de départements R&D des industriels », notamment des grands groupes. Ce qui impacterait « profondément » les PME françaises, leurs principaux fournisseurs. Malgré sa complexité, le dispositif est toujours considéré comme essentiel au financement des projets de R&D par les entreprises.

Selon ce même rapport, « la France se classe au sixième ou septième rang mondial en matière de recherche (mesuré en fonction du nombre de publications scientifiques et de citations), mais se positionne entre la seizième et la vingtième place en matière d’innovation ». Le taux de R&D privé réalisé sur le territoire par des entreprises étrangères a continué de chuter de 21 % entre 2007 et 2015. Pendant ce temps, il a augmenté de 34 % aux Etats-Unis et de 15% en Allemagne. Le CIR ne suffit donc pas à attirer les entreprises étrangères en France.

Le dispositif est-il donc inefficace? En 2013, la Cour des comptes estimait que les dépenses en R&D des entreprises ne progressaient pas et que l’emploi dans la recherche privée avait même diminué de 11% entre 2008 et 2013. Au même moment, le montant du CIR était passé de 1,8 à 5,8 milliards d’euros par an. Un échec cuisant. Heureusement, la situation semble avoir été renversée. Le 4e Observatoire du CIR note qu’en 2013, les entreprises ont investi 5,96 milliards d’euros (Md€) de plus qu’en 2007 pour leur R&D. Sur cette même période, le CIR a augmenté de 3,66 Md€. « Le CIR s’accompagne ainsi d’une augmentation des dépenses de R&D des entreprises supérieure à sa propre croissance, selon un ratio de 1,20 en 2011, de 1,50 en 2012 et de 1,63 en 2013 », note le cabinet. Le dispositif serait ainsi de plus en plus efficace. « De 2011 à 2013, le CIR a augmenté de seulement 250 M€ alors que les dépenses des entreprises se sont accrues de 1,86 Md€ », précise le rapport. « Cette dynamique est un signe positif de l’efficacité du dispositif », se félicite le cabinet.

«En 2013, le CIR a soutenu plus de 21 000 entreprises, dont 90 % de PME. Plus de 160 000 chercheurs en entreprises sont concernés par le CIR, qui a accompagné l’embauche de plus de 33 000 chercheurs supplémentaires depuis 2008. Il s’agit d’une augmentation de 26 % des effectifs, soit la plus forte progression des pays européens ! », prévient l’Observatoire. Malgré ses imperfections et ses améliorations à étudier, l’efficacité du CIR n’est donc plus à démontrer !

Par Matthieu Combe, journaliste scientifique

Un inconscient sous influence consciente

La psychologie expérimentale regorge de situations qui permettent de sonder la profondeur et la diversité des opérations mentales qui sont réalisées à notre insu, c’est-à-dire inconsciemment.
Par exemple, en utilisant les techniques de présentation visuelle subliminale, il est possible d’« injecter » un mot dans le cerveau d’un sujet volontaire, puis de sonder son destin psychologique et cérébral à l’aide de mesures comportementales et d’imagerie cérébrale fonctionnelle.

Depuis la fin des années 90, plusieurs études retentissantes ont ainsi fait la démonstration que le sens d’une image, d’un nombre ou d’un mot subliminal pouvait être représenté inconsciemment dans notre esprit/cerveau.

Dans l’étude dirigée par Lionel Naccache, les chercheurs apportent la preuve que le traitement sémantique inconscient d’un mot existe bel et bien, mais qu’il est soumis à des influences conscientes très fortes. Pour ce faire, ils ont utilisé des mots français tels que : « bande, grue, glace, avocat, cruche, seconde, lettre, accord, temps, bar, coupe … ».

Ces mots partagent une propriété sémantique commune, l’avez-vous remarquée ? En réalité chacun de ces mots est « polysémique », et est donc associé à deux significations différentes (ou plus).

A chaque fois qu’un tel mot vous est présenté, vous pouvez donc le comprendre de deux manières différentes.

Consciemment nous ne percevons qu’une seule signification à la fois, ainsi que l’énonçait Descartes dès 1649 dans Les passions de l’âme : « nous n’avons qu’une seule pensée d’une même chose en même temps ».

Le sens du mot auquel nous accédons consciemment à un instant donné est susceptible d’être influencé. Ainsi, si vous lisez : SORBET puis GLACE, vous accéderez très probablement au sens culinaire du mot glace : « produit sucré et aromatisé obtenu par glaçage d’un mélange pasteurisé, à base de lait, crème ou beurre et d’œufs (glace aux œufs), de sirop et de fruit (glace au sirop, sorbet) » (Dictionnaire Larousse), tandis que le couple MIROIR – GLACE orientera puissamment votre analyse sémantique vers la « feuille de verre homogène et convenablement recuit dont les deux faces sont parfaitement planes et parallèles et dont on fait les miroirs, les vitrages ».

Les auteurs ont présenté aux volontaires de cette expérience des triplets de mots, tout en enregistrant leur activité cérébrale à l’aide d’un casque d’électrodes posé sur leur tête.

Chaque essai débutait par la présentation d’un premier mot qui était toujours visible et qui permettait de définir un contexte sémantique particulier (ex : SORBET). Puis le second mot était flashé à l’écran et était soit subliminal soit consciemment visible. Le troisième mot apparaissait alors et était toujours consciemment visible. Il servait de stimulus cible auquel les sujets devaient répondre en appuyant sur un bouton afin d’indiquer s’il s’agissait d’un vrai mot (ex : VITRE) ou d’une chaîne de lettres prononçable mais ne correspondant pas à un mot du lexique (on parle de pseudo-mot, tel que DRAIE).

Lorsque le mot du milieu était relié sémantiquement au mot cible, les sujets répondaient plus rapidement. On parle d’un effet d’amorçage.

Cet effet amorçage se révéla aussi dans l’analyse des activités cérébrales. Lorsque le mot polysémique (mot du milieu du triplet) était consciemment visible, un effet d’amorçage n’était présent que pour la signification cohérente avec le mot contextuel présenté au début de chaque essai (mot 1). Par exemple, lorsque l’on présentait le triplet : TRACTEUR – GRUE – CHANTIER, on retrouvait un amorçage du mot CHANTIER par le mot GRUE, alors que cet effet était absent dans les triplets tels que : OISEAU – GRUE – CHANTIER.

L’analyse de l’activité électrique cérébrale confirma et précisa ce résultat. L’absence d’amorçage pour la signification non contextualisée du mot polysémique indique que cette dernière n’était tout simplement pas analysée par les sujets.

Le traitement sémantique conscient est donc bien influencé par le contexte conscient. Le résultat central de ce travail réside dans la découverte qu’il en va de même pour la perception inconsciente des mots polysémiques. Lorsque le mot polysémique (mot 2) était présenté de manière subliminale, les auteurs retrouvèrent des effets d’amorçage sémantique comparables à ceux observés dans la condition de lecture consciente : seules les significations du mot polysémique subliminal cohérentes avec le mot contextuel étaient inconsciemment analysées.

Cette série d’expériences démontre ainsi que la cognition inconsciente est non seulement très complexe, puisqu’elle peut atteindre le niveau de la sémantique (le sens des mots), mais également qu’elle se montre extrêmement sensible aux influences conscientes.

A chaque instant, notre posture consciente influence la nature des opérations mentales qui se déroulent en nous inconsciemment. « Ce travail qui croise les neurosciences avec la psycholinguistique de la langue française illustre également le potentiel des approches scientifiques multidisciplinaires », concluent Lionel Naccache et ses collaborateurs.

Source : cnrs

La NASA planche sur les habitats spatiaux

« Au-delà du lanceur spatial Space Lauch Systems (SLS) et du vaisseau spatial Orion, les prochaines capacités nécessaires pour l’exploration de l’espace lointain sont des habitations de longues durées et des systèmes de propulsion dans l’espace. Nous mettons à présent l’accent et voulons détailler les habitats pour l’espace lointain où les humains vont vivre et travailler de façon indépendante pendant des mois ou des années, sans livraison de matériel depuis la Terre », annonce Jason Crusan, directeur des systèmes avancés d’exploration à la NASA.

Dans ce cadre, la NASA vient de retenir six entreprises américaines – Bigelow Aerospace, Boeing, Lockheed Martin, Orbital ATK, NanoRacks et Sierra Nevada Corporation – pour développer des prototypes d’habitats grandeur nature. Ces logements permettront l’exploitation commerciale de l’espace en orbite terrestre basse (moins de 2000 kilomètres d’altitude). Mais ils devront également convenir pour l’exploration de l’espace lointain ! Une fois les prototypes validés, ces technologies seront testées dans le cadre de missions spatiales près de la Lune, avant d’être déployées pour des voyages vers Mars.

Pour la NASA, un habitat efficace devra comprendre, entre autres, un volume pressurisé, des protections contre les rayonnements électromagnétiques, des installations médicales d’urgence, des dispositifs anti-incendie et un système de contrôle d’environnement et de support de vie (ECLSS). « Les prototypes terrestres permettront à la NASA et à ses partenaires d’évaluer les configurations de l’habitat, vérifier comment les différents systèmes interagissent entre eux et avec d’autres fonctionnalités telles que les modules de propulsion et les sas. Ils fourniront des plates-formes pour tester et s’assurer que les normes et interfaces communes envisagées sont bien pensées », assure l’organisme spatial.

Concrètement, quels sont les six concepts ?

Les six entreprises vont adapter des technologies qu’elles ont déjà utilisées. Bigelow Aerospace tirera parti des enseignements du Bigelow Extensible Module (BEAM), un vaisseau spatial extensible de 16 m3, qui a récemment été déployé sur la station spatiale internationale (ISS). Il testera un prototype de XBASE, ou B-330, un habitat extensible de 330 m3.

Bigelow Aerospace'
Bigelow Aerospace’

Lockheed Martin transformera pour sa part un module actuellement utilisé pour l’approvisionnement de l’ISS.

Lockheed Martin
Lockheed Martin

Boeing développera un système d’habitation modulaire qui exploite l’expérience dans la conception, le développement, l’assemblage en orbite, et l’exploitation de l’ISS depuis plus de 15 ans.

Boeing
Boeing

Orbital ATK affinera l’architecture de son habitat cislunaire, sur la base du vaisseau Cygnus qui dessert actuellement l’ISS, et proposera une feuille de route pour l’exploration de Mars.

Orbital Atk
Orbital ATK

De son côté, Sierra Nevada Corporation va s’appuyer sur le module cargo Dream Chaser et l’assemblera avec des modules gonflables.

nextstep-2_snc_win1lockheed-martin1500
Dream Chaser

Enfin, NanoRacks mènera une étude de faisabilité complète pour convertir l’étage supérieur d’un lanceur, ou un segment de propulseur, en habitation.

NanoRacks
NanoRacks

Les six partenaires ont 2 ans pour développer leurs prototypes. L’ensemble des aides s’élèveront à environ 65 millions de dollars pour les travaux en 2016 et 2017. De nouveaux financements viendront s’ajouter en 2018.

Par Matthieu Combe, journaliste scientifique

Expérience#8 : Perfectionnisme : une coûteuse erreur de management

En réponse à une injonction très stricte – et parfaitement légitime – du Président, ses managers territoriaux prescrivent des normes de qualité exorbitantes, donc impossible à satisfaire, tuant dans l’œuf toute initiative et entretenant une frustration générale permanente.

Notable figure locale et nationale, une éminente personnalité politique fait clairement savoir qu’elle ne tolère aucune erreur dans la mise en œuvre des services territoriaux dont elle a la charge. Croyant pouvoir satisfaire cette exigence, sans autre mesure de précaution systémique, les directeurs, hauts fonctionnaires territoriaux, la répercutent à tous les agents de la collectivité. Par voie de conséquence, au fil du temps, les membres de cette communauté privilégient des comportements qui les conduisent à :

  • Fixer des objectifs trop élevés, irréalistes.
  • Etre précis outre mesure.
  • Garder le contrôle sur tout, y compris sur les moindres détails.
  • Faire chaque chose à la perfection, sans discernement.
  • Donner l’impression de travailler de longues heures, d’être compétents et autonomes.

Profusion de règlements, initiative très risquée, lourdes procédures administratives précédant chaque décision…cette folle exigence de perfection conduit à un conformisme et à une complexité bureaucratique effrénés. Chaque fonctionnaire rivalise de zèle pour faire valoir son orthodoxie réglementaire et sa stricte observance de méthodes de travail souvent poussiéreuses. Certains comportements sont peut-être contreproductifs, mais ils sont conformes et c’est ce qui compte le plus.

Nul n’ignore pourtant que le propre de l’homme est de commettre des erreurs. C’est en les reconnaissant humblement qu’elles lui offrent, par ailleurs, de multiples opportunités de perfectionnement. Prétendre ne pas commettre d’erreur est une bévue ; ne pas apprendre de ses erreurs constitue une faute.

Ainsi, en interdisant aveuglément l’erreur, ces dirigeants ne font que condamner les fonctionnaires et toute la collectivité à l’immobilisme. Ils leur interdisent en réalité toute possibilité de perfectionnement. Ils les dé-responsabilisent tout en nourrissant un sentiment de culpabilité qui les paralysent et produit des montagnes de frustrations. De plus, ces absurdes options managériales soutiennent l’utopie du perfectionnisme selon laquelle chacun serait capable d’un illusoire zéro-défaut. Enfin, elles accentuent la pression excessive d’une société de plus en plus exigeante sur le plan de la performance individuelle.

Cette candeur managériale a fini par pétrifier le fonctionnement des services. Terrorisée par les risques d’erreurs qui ne manqueraient pas de se multiplier si un changement de management devait être envisagé, la direction des services territoriaux n’a plus d’autre alternative que de se résigner au statu-quo et à toujours repousser à plus tard toute idée de vraie réforme.

En reportant naïvement sur chaque agent la responsabilité de satisfaire l’injonction légitime du Président, les dirigeants « plombent » l’efficience des ressources humaines et handicapent l’efficacité de la collectivité.

Perfectionnisme : le cancer des organisations

Comment de telles aberrations sont-elles possibles ? Comment une telle erreur de management peut-elle prendre cette ampleur « cancérigène » sur les organisations ? Sur quel terreau cette injonction perfectionniste contre-nature peut-elle prospérer ?  Pour répondre à ces questions, revenons sur le sens des mots et considérons la confusion sur laquelle certaines extravagances peuvent fleurir.

Tout d’abord, notons que le perfectionnisme est souvent considéré comme une qualité positive. On lui associe des vertus liées à l’amour du travail bien fait, avec un « noble » mépris pour les valeurs bassement matérielles que sont, par exemple, la prise en compte du coût de réalisation de ses œuvres.

C’est une réalité : le perfectionniste est essentiellement motivé par l’esthétique du projet. Rien n’est jamais assez beau. Le perfectionnisme est un comportement qui résulte de la lutte incessante contre l’angoisse douloureuse de ses propres limitations, de son incompétence, de ses carences, de ses lacunes, de ses défauts, de ses erreurs, de l’écart par rapport à une image idéale de soi. Pour tout projet, pour toute action, le perfectionniste cherche en priorité à ne pas faire d’erreur. Cette prédisposition pénalise son sens de la perspicacité et le conduit souvent à dilapider les ressources pour satisfaire sa boulimie de la superbe. Le critère de performance du perfectionniste c’est la méticuleuse précision nécessaire à l’esthétique du projet. Le temps fait partie des ressources que le perfectionniste considère comme infiniment mobilisables. Pour calmer ses angoisses d’imperfection, il travaille de très longues heures. La procrastination fait donc partie de sa méthode d’arbitrage. Cette stratégie, combinée à son obsession du détail, occasionne une productivité plutôt médiocre.

Le perfectionniste présente donc une forme pathologique de comportement.  Adoptant un mode d’évaluation souvent binaire, il considère qu’un résultat est soit beau, soit inutile. Ses objectifs sont inatteignables, irréalistes et conduisent à la dépréciation de soi.

Accomplisseur

En réalité ce n’est pas le perfectionnisme qui pousse les gens à de grandes réalisations. La qualité, qui motive les individus à persévérer face aux obstacles et à se concentrer sur les détails déterminants jusqu’à ce que leur œuvre atteigne les objectifs ambitieux qu’ils se sont fixés, est celle de l’accomplissement. L’accomplisseur est motivé par la beauté ET la congruence du projet avec les objectifs fixés. Il faut bien faire son travail certes, mais par-dessus tout il s’agit de bien faire le bon travail. L’accomplisseur sait faire preuve de pertinence dans la qualité et la quantité de ressources à mobiliser. Il sait même arbitrer astucieusement entre l’esthétique et la fonction du produit ou service à livrer.

Le perfectionniste s’affaire fiévreusement sur la forme, ignorant son contexte. L’accomplisseur œuvre, avec plaisir, à la réalisation efficace des objectifs. C’est un artisan de la forme et du fond, une sorte de perfectionniste positif.

Cette confusion entre ces qualités connexes que sont perfectionnisme et accomplissement bénéficie à ceux qui se revendiquent de la perfection. Elle conduit à des incongruités analogues à celle que nous avons relatée ci-dessus. Nous ne pouvons que vous mettre en garde et vous inviter à méditer sur cette réflexion inspirée par Winston Churchill : « Avoir foi en la perfection de l’homme, c’est très bien chez un homme d’Église, pas chez un manager ».

Comment traduire des exigences de qualité perfectionnistes des dirigeants ?

  • En installant un système de management de la qualité du type ISO 9000 ; y compris dans les organismes publics.
  • En négociant des objectifs réalistes et concrets avec les dirigeants et/ou les élus.
  • En instaurant un management « militaire » basé sur la discipline stricte et la sanction.

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article . Racontez-nous également vos propres expériences analogues.

Par Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas« 
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Les clés d’un processus majeur de réparation de l’ADN

L’ADN de nos cellules est attaqué en permanence par de nombreux agents extérieurs, comme les molécules cancérigènes contenues dans la fumée de tabac ou les rayons UV émis par le soleil. Non réparées, ces agressions provoquent des mutations qui peuvent favoriser l’apparition de cancers, d’où l’importance d’une réparation rapide et efficace de l’ADN. Pour ce faire, la cellule mobilise toute une série d’enzymes qui doivent agir de façon parfaitement coordonnée pour identifier et réparer les parties abimées de son patrimoine génétique. La complexité de ce processus a pendant longtemps empêché les chercheurs de comprendre quels étaient les mécanismes à l’œuvre.

Grâce au développement des nanotechnologies, une équipe regroupant des biologistes et des physiciens a pu filmer en temps réel des enzymes en train de réparer un ADN abimé. Leur série de travaux a été initiée en 20121, quand l’équipe s’est concentrée sur le début du mécanisme de réparation. Ils présentent aujourd’hui, pour la première fois, le processus de réparation dans son intégralité.

Grâce à un microscope spécialisé, qui permet à la fois de manipuler et d’observer des molécules d’ADN et de protéines, les chercheurs ont observé une molécule d’ADN endommagée par des ultraviolets. Ils y ont ajouté l’ARN polymérase, une enzyme qui normalement « lit » le code de l’ADN afin de débuter l’expression de son information sous forme de protéines, mais qui se « bloque » en cours de lecture lorsqu’elle arrive sur une partie endommagée de l’ADN. C’est grâce à ce blocage de l’ARN polymérase que les réparations sont effectuées. Concrètement, les chercheurs ont pu observer comment une série de protéines (Mfd, UvrA, UvrB puis UvrC) se sont succédé, chacune avec son activité spécifique, et se sont coordonnées entre elles pour interagir avec l’ARN polymérase et réparer l’ADN endommagé par les rayons UV.

En déterminant l’ordre dans lequel ces composantes agissent et en caractérisant la façon dont elles se relaient, ces travaux ont permis d’établir quelles sont les étapes critiques du processus.

Cette découverte pourrait favoriser de nouvelles applications, à la fois dans la lutte contre le cancer et dans celle contre les bactéries. En effet, lorsque les cancers sont résistants aux radiothérapies et chimiothérapies – dont l’effet est d’endommager l’ADN des cellules cancéreuses – c’est que leurs cellules ont justement activé ce mécanisme de réparation de l’ADN. On peut donc envisager de nouvelles pistes pour inhiber aux moments clés les mécanismes nécessaires à cette réparation. De plus, des bactéries comme celle responsable de la tuberculose emploient des protéines très semblables à Mfd pour proliférer. Ainsi, le fait d’avoir identifié comment ces différentes protéines interagissent les unes avec les autres pourrait également être utile dans la lutte contre des bactéries pathogènes.

Source : cnrs

Une nouvelle approche du retournement temporel

Dans une cuve remplie d’eau, si l’on vient perturber la surface (par exemple en appliquant un motif en forme de Tour Eiffel, comme ci-dessus) un paquet d’ondes va se propager autour de la perturbation. Or lorsqu’on applique un brusque changement dans le milieu de propagation, les ondes vont se figer avant de se scinder en deux parties : l’une poursuivant son chemin et l’autre retournant en sens inverse, vers son point d’origine.

diapositive1-1e38a
figure 1 : Dans le cas d’une perturbation ponctuelle, des ondes circulaires se propagent à la surface de la cuve. Après 60 ms, la cuve subit une accélération brutale de faible amplitude. Le paquet d’ondes initial se sépare en deux, avec une partie qui se reconcentre jusqu’à revenir à la perturbation ponctuelle (avant de se dissiper à nouveau). ©ESPCI Paris/CNRS

Pour refocaliser un paquet d’ondes qui se propagent, les chercheurs utilisaient jusqu’à présent un miroir à retournement temporel, qui nécessite l’utilisation d’un système d’enregistrement pour « capter » l’onde et la réémettre en sens inverse. Les chercheurs ont conçu un nouveau dispositif dans lequel le milieu joue ce rôle de système de mémoire. En effet, la brusque modification imposée à la cuve (en fait une forte accélération dans le sens vertical, de l’ordre de 20 fois l’accélération de la pesanteur g pendant quelques millisecondes) est extrêmement rapide par rapport à la période des ondes. En résulte l’apparition d’un paquet d’ondes rétro-propagé, qui se refocalise exactement sur sa source. L’amplitude de cette onde qui revit exactement sa vie passée dépend alors de l’amplitude de la perturbation du milieu. Les scientifiques ont appelé ce procédé « miroir temporel instantané » (ou ITM en anglais) car tout se passe comme si le signal d’origine était « réfléchi sur un miroir », à partir du moment où le milieu est brusquement perturbé.

diapositive1-2-974e2
figure 2 : Dans le cas de systèmes complexes, la forme initiale de la perturbation est totalement perdue au moment de la brusque accélération de la cuve. Le retournement temporel instantané permet toutefois de bien revenir à la forme initiale du signal.©ESPCI Paris/CNRS

Un système efficace même avec des motifs complexes

Dans le cas de motifs complexes, la dispersion des ondes à la surface, ainsi que les interférences entre les ondes générées par les différents éléments du motif pourraient constituer un frein à la refocalisation du système. Au bout de quelques instants, l’image initiale est indiscernable, remplacée par un motif d’interférences complexe. Mais comme le montre la figure 2, la refocalisation a bien lieu. En fait, en décomposant les ondes initiales et en les comparant aux ondes inverses, les scientifiques ont bien constaté une grande similarité entre ces deux types d’ondes, même si les hautes fréquences sont atténuées par la viscosité de l’eau.

Ce concept élégant de physique fondamentale peut en théorie s’appliquer à tout type d’ondes : acoustiques, électromagnétiques, mécaniques ou même quantiques ! Reste la difficulté de perturber suffisamment le milieu de propagation, et suffisamment vite par rapport à la période des ondes utilisées, pour agir comme miroir temporel instantané. En l’état, l’expérience proposée par les chercheurs constitue un formidable dispositif pédagogique pour initier le public à la magie de la réversibilité des ondes avec des résultats observables à l’œil nu.

En vidéo

Motif simple : perturbation « ponctuelle »

Motif complexe : Tour eiffel

Motif complexe, smiley

Source : cnrs

Les crimes ont leur empreinte carbone

Les chercheurs ont évalué l’empreinte carbone des crimes en Angleterre et au Pays de Galles. Ils ont considéré l’ensemble des émissions associées au système judiciaire : enquêtes policières, gestion des prisons et des tribunaux… Mais aussi celles liés au remplacement de biens volés ou endommagés, aux hospitalisations des blessés, aux assurances, etc. En appliquant des modèles d’écologie industrielle, ils estiment ainsi que l’ensemble des crimes (enregistrés ou non) perpétrés en 2011 ont entraîné l’émission de 4 millions de tonnes de carbone. Cela équivaut aux émissions énergétiques d’environ 900.000 foyers britanniques. « Etant donné que le volume réel de la criminalité qui se produit ne peut jamais être pleinement estimé[…], notre empreinte est encore susceptible d’être sous-estimée », préviennent les auteurs.

Quel crime est le pire pour le réchauffement climatique ?

Dans le détail, l’empreinte carbone la plus élevée est de loin, celle liée aux homicides, à environ 71 tonnes de CO2 équitalent (teqCO2) par incident. Suivent les agressions graves avec une empreinte d’environ 5 teqCO2 émis par infraction et les vols de voitures neuves (4,2 teqCO2). Les agressions sexuelles, les vols et cambriolages émettent environ 1 teqCO2 par incident, et plusieurs infractions, comme les voies de fait et le vol à l’étalage , ont une empreinte beaucoup plus petite, moins de 0,1 teqCO2 par incident.

Mais si l’on en prend en compte le nombre total d’infractions, le classement est bouleversé. Vu le nombre relativement faible d’homicides qui se produisent chaque année, ils ne contribuent qu’à hauteur de 1% de l’empreinte carbone totale de la criminalité. Les cambriolages accaparent 30% de l’empreinte totale, notamment en raison du carbone émis lors du remplacement des biens volés ou endommagés. Les blessures et les vols représentent chacun environ 11% de l’empreinte totale.

Contrairement à ce que l’on pourrait imaginer, la réduction des crimes n’engendre pas systématiquement une baisse nette des émissions de carbone. Car un prisonnier consomme moins qu’un habitant lambda! Par ailleurs, l’argent public et privé actuellement consacré à la lutte anti-criminalité pourrait être réinvesti dans des actions plus polluantes. En considérant la consommation britannique moyenne, les chercheurs estiment, par exemple, qu’une réduction de 5% des cambriolages domestiques pourrait entraîner une augmentation de 2% des émissions de carbone. D’autres travaux sont en cours pour mieux illustrer cet effet rebond.

Par Matthieu Combe, journaliste scientifique

 

Premiers tests humains pour ralentir le vieillissement !

L’université japonaise de Keio et l’université Washington de St-Louis viennent de lancer les premiers essais cliniques pour étudier le ralentissement du processus de vieillissement chez les humains avec du nicotinamide mononucléotide (NMN). Les deux universités étudient l’efficacité du composé comme un supplément nutritionnel pour prévenir les maladies et augmenter la durée de vie en bonne santé de l’homme. Ce premier test se déroule sur 10 hommes en bonne santé, âgés de 40 à 60 ans.

Une fois absorbé, le NMN se convertit en nicotinamide adénine dinucléotide (NAD), un composé jugé vital pour le métabolisme énergétique du corps. Des expériences sur des souris ont montré que le composé active une famille de gènes responsables de protéines appelés sirtuines. Si le NAD se forme naturellement dans le corps humain, sa concentration diminue dans de nombreux organes internes avec l’âge. Un apport externe pourrait donc permettre d’en prolonger le bon état.

Il est peu probable que le NMN soit un remède anti-vieillissement chez l’homme, mais il pourrait avoir des effets positifs sur la santé humaine. « Une fois que la sécurité est confirmée, nous voulons vérifier scientifiquement si le NMN est efficace pour stimuler le fonctionnement des organes qui diminue progressivement avec l’âge », prévient Hiroshi Ito, professeur de médecine interne à l’Université Keio.

Par Matthieu Combe

Experience#7 : Le soi du Gestalt consultant comme outil d’observation des processus

Une organisation c’est un système de ressources (humaines et matérielles) interactives coordonnées en structures pilotées et ayant pour finalité de satisfaire une mission de la meilleure façon possible. Une organisation n’est pas un système mécanique : c’est un système vivant.

L’efficacité des interventions visant à améliorer la façon de faire d’une organisation est donc intimement tributaire de la pertinence du modèle, de la philosophie et de la démarche qui sous-tendent ces interventions.

Ainsi, une démarche d’accompagnement du changement qui ne se focaliserait, par exemple, que sur la seule remise en question de  la personnalité des managers serait peu efficace. Ce serait comme prétendre soigner un bras cassé en cherchant à le remplacer par un bras neuf. En effet, l’analyse de personnalité (ensemble des comportements qui constituent l’individualité d’une personne) se limite à observer les caractéristiques intrinsèques des individus. Cette analyse postule que les conditions d’environnement ont peu d’influence sur la personnalité et qu’elle demeure relativement stable. Désigner la personnalité d’une population de managers, à la suite d’un test M.B.T.I. par exemple, comme les causalités du problème à résoudre ne ferait que compliquer le processus du changement. En négligeant le système environnant de ressources interactives, cette approche ne considère pas l’organisation comme un système vivant mais plutôt comme une combinaison de composants inertes. Difficile de soulager une indigestion avec une clé à molette !

L’approche Gestalt O.D. procède d’une observation globale des problèmes rencontrés par les organisations. Cette démarche considère que tout symptôme est le résultat d’un dysfonctionnement de l’ensemble du système en interaction avec son environnement. Dans les organisations, tout comportement, enchevêtré dans un réseau relationnel, est adopté en interaction avec les comportements des autres. Il a pour finalité de maintenir un certain équilibre au sein de ce réseau relationnel.

Ainsi, une démarche Gestalt O.D. focalise ses interventions sur la relation et sur l’impact qu’un système produit sur son environnement.

Prenons un exemple

Un chef d’entreprise désire renforcer l’efficacité de son organisation. Il a conscience qu’il devra transformer certains aspects de la culture d’entreprise (façon de travailler ensemble). Les comportements qui posent problème sont ceux qui concernent la prise en compte de la ressource temps.  Astreinte jusqu’alors à une obligation de moyens, cette entreprise a toujours soigneusement et minutieusement mené les projets qui lui étaient confiés avec un formalisme intraitable. Cette façon de procéder s’est bien ancrée à tous les niveaux de l’entreprise car elle lui a valu les éloges et la reconnaissance de ses clients. Aujourd’hui, ces derniers sont devenus plus exigeants. Ils réclament toujours plus de services de qualité mais surtout davantage de performance, notamment en matière de coûts. D’une logique de moyens, notre dirigeant doit aujourd’hui conduire son organisation vers une logique de résultats.

A la demande de ce haut responsable, une proposition détaillant la stratégie et la tactique de cette démarche lui a été soumise à l’issue de 4 réunions préliminaires en comité restreint. La stratégie envisagée pour transformer les comportements et la façon d’appréhender le temps s’appuie sur une éducation des membres de l’organisation qui serait dispensée par un leadership charismatique. L’accent est mis sur le développement des compétences suivantes : définir des objectifs réalistes et bornés dans le temps, choisir les ressources à mobiliser avec pertinence, améliorer l’efficience de ressources, formaliser les relations professionnelles sous la forme de contrats, apprendre à respecter ses engagements, etc.

Le soi du consultant comme instrument de mesure

Par la suite, une réalité embarrassante se précise de jours en jours à l’équipe de consultants engagés sur ce projet. En effet, la prise de décision d’engager la démarche de transformation de la culture d’entreprise est à chaque fois assortie de nouvelles précautions. Confirmée par une évaluation statistique d’impact, l’extrême prudence du directeur laisse apparaitre son net besoin de soutien de la part de ses équipes. Cette recherche d’approbation, caractérisant l’impact managérial qu’il transmet à ses adjoints,  lui apparaît comme une condition nécessaire au succès de son initiative. De leur côté, les consultants l’interprètent comme la recherche d’une garantie contre les risques d’échecs d’apprentissage des nouvelles compétences.

Les consultants trouvent le temps long. Les délais s’accumulent : temps de réflexion, ajournements pour vérification de la bonne adéquation des consultants, temporisations pour attendre l’approbation de ses collaborateurs directs, hésitations concernant les outils de tests d’impact, tergiversations autour de l’adhésion des collaborateurs du comité de direction, tâtonnements pour obtenir leur engagement « sincère », application minutieuse du processus d’établissement du contrat… Cette réalité autour de l’efficience de la ressource temps est embarrassante car elle ne semble pas apparaître au chef d’entreprise.

Dans une démarche Gestalt O.D., un consultant se concentre sur l’observation des processus en cours. Il est à la fois instrument de mesure et l’un des moteurs du changement. Parce qu’elle constitue un enjeu essentiel de la réussite de la stratégie de changement, cette information-sensation, concernant la relation au temps, mérite un échange entre les consultants et le client. La question qui se pose est donc :

« Comment attirer- sans jugement – l’attention de ce chef d’entreprise sur la nécessité de reconsidérer sa relation au temps ? »

Comment vous y prendriez-vous ?

  • Le consultant est au service de ses clients et non l’inverse. Son problème d’impatience ne doit pas devenir le problème de ses clients. Par conséquent : le consultant doit savoir attendre le temps nécessaire à la prise de conscience de son client.
  • Le consultant pourrait, à l‘occasion d’une entrevue avec son client, rappeler l’enchainement des étapes parcourues et poser une question de closing comme « Cela vous paraît-il raisonnable de lancer la première étape du projet à ce stade ? » pour aider le client à prendre sa décision.
  • Si le client tarde à prendre une décision, c’est peut-être parce que le consultant ne l’a pas encore suffisamment convaincu. C’est au consultant de s’intéresser à sa relation au temps et à sa façon d’interpréter l’escalade de conditions supplémentaires du client.

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article . Racontez-nous également vos propres expériences analogues.

Par Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas« 
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Hinkley Point : les salariés d’EDF n’en veulent pas!

Jeudi 28 juillet, le conseil d’administration d’EDF a autorisé son PDG Jean-Bernard Lévy à signer les contrats définitifs pour la construction des deux réacteurs d’Hinkley Point. 10 votes pour, 7 votes contre ; une décision loin de rallier l’ensemble du conseil. Mais, la décision à peine prise le gouvernement britannique a annoncé qu’il entendait « analyser soigneusement tous les aspects de ce projet » et ne prendre sa décision qu’« au début de l’automne », alors que la signature du contrat était attendue le 29 juillet.

Les  syndicats d’EDF manifestent leur inquiétude sur la stratégie d’EDF. Suite à ce vote, l’intersyndicale d’EDF a saisi le Tribunal de grande instance de Paris pour tenter de suspendre la délibération du Conseil d’administration quant à la poursuite du chantier. Vendredi 5 août, cette demande a été rejetée. Le tribunal estime en effet qu’il n’y a pas lieu à référé dans la mesure où « aucun dommage imminent succeptible d’intervenir d’ici le 30 septembre (…) n’est précisément évoqué, ni justifié ». Une audience décisive est en effet attendue pour fin septembre.

EDF contre son intersyndicale

EDF et son intersyndicale s’attaquent à coup de communiqués de presse. Dans un communiqué paru le 8 août, l’intersyndicale CGT, CFE-CGC et FO d’EDF SA, dénonce « un véritable scandale de gouvernance » et accuse la direction d’EDF de « passage en force » concernant la validation du projet nucléaire Hinkley Point. Elle considère cette validation comme « nulle et non avenue » dans la mesure où le PDG d’EDF n’aurait pas informé l’ensemble des membres du conseil d’administration du report de la décision britannique alors qu’ils en étaient avertis.

De son côté, EDF assure qu’ « au moment où le conseil d’administration de l’entreprise s’est tenu, EDF et son président n’avaient pas connaissance de la volonté du gouvernement britannique de procéder à un nouvel examen du projet Hinkley Point ». L’entreprise précise que « Jean-Bernard Lévy va engager une action en justice contre le syndicat Sud Energie » et « contre toute personne colportant de telles contre-vérités »

Le Parti socialiste entre dans le débat

Si la direction d’EDF peut compter sur le soutien indéfectible du ministre de l’Economie Emmanuel Macron, fervent défenseur du projet, le Parti socialiste vient de prendre position. Dans un communiqué en date du 8 août, il estime « qu’un projet dont l’importance est telle qu’elle engage la solidité et la pérennité de l’énergéticien national impose que soient levées toutes les interrogations et les réserves avant d’aller plus loin dans sa réalisation ». Par ailleurs, le PS rappelle que le projet pourrait être soumis aux « incidences, nombreuses et incertaines, du Brexit».

De nombreux protagonistes de ce dossier « ont alerté sur le risque financier », rappellent les socialistes, faisant allusion à la démission de son directeur financier, Thomas Piquemal, le 1er mars 2016. Ce dernier jugeait le projet « non faisable » et trop risqué pour les finances de l’entreprise dans les conditions actuelles, caractérisées par un effondrement des prix de marché de l’électricité.

Un projet trop cher pour EDF?

Avec une facture totale estimée à 23 milliards d’euros (contre 16 milliards prévus initialement), EDF devra apporter 66,5 % des investissements, le tiers restant étant supporté par deux électriciens chinois, CGN et CNNC. Le géant français devra donc trouver 15 milliards d’euros, soit peu ou prou, l’équivalent d’une année d’investissements pour EDF. Ce projet se ferait donc au détriment d’une transition énergétique vers des énergies renouvelables, déjà plus compétitives.

En décembre dernier les marchés financiers ont d’ailleurs sanctionné les choix stratégiques d’EDF en le retirant du CAC40. Son action est passée d’une valeur de 31€ lors de son introduction en bourse en 2005 à tout juste 11€ en juillet 2016.

Cet investissement est-il réellement risqué ? « Qui parierait 60 %, 70 % de son patrimoine sur une technologie dont on ne sait toujours pas si elle fonctionne alors que cela fait dix ans qu’on essaie de la construire ? » alertait Thomas Piquemal le 2 mai devant les députés. Par ailleurs, l’électricien français affiche déjà une dette colossale. Et cela devrait empirer. Son résultat net est en chute libre, notamment à cause de ses dépréciations d’actifs, de la baisse des prix de marché de l’électricité et de l’augmentation des provisions à faire pour le projet Cigéo. Son résultat est passé de 3,7 milliards d’euros à 1,2 milliards entre 2014 et 2015. Or, de nombreux investissements arrivent : absorption d’Areva, travaux de grand carénage, les futurs démantèlements, dont les coûts provisionnés ont sans doute été sous-évalués et les surcoûts de l’EPR de Flamanville. « Quand on a 66 milliards d’euros de dettes, 100 milliards à financer dans les centrales françaises, 20 milliards à rajouter pour la Grande-Bretagne, on peut considérer qu’on est dans une très mauvaise situation », analysait Thierry Gadault, auteur du livre EDF : la bombe à retardement?,  à Europe1, en mars dernier.

Mais les doutes concernant l’investissement à faire ne s’arrêtent pas là. Les experts et les médias britanniques dénoncent un prix d’achat garanti trop élevé du mégawattheure (92,5 livres sur 35 ans, soit 126 euros). Même si ce tarif peut sembler alléchant pour EDF, rien ne garantit la rentabilité du projet sur le long-terme, car le contrat ne prévoit pas d’engagements sur les volumes achetés.

Malgré tout, fin avril, le géant de l’électricité a annoncé un projet d’augmentation de capital de 4 milliards d’euros pour 2017, dont 3 milliards apportés par l’Etat, son actionnaire principal (à hauteur de près de 85 %). Ce renflouement des caisses servira à renforcer ses fonds propres et garantir ses investissements. Mais rien n’est facile en matière de nucléaire ! Greenpeace et l’entreprise britannique d’énergie verte Ecotricity estiment que cette décision s’apparente à une aide d’Etat pour financer l’EPR et les deux entités ont demandé à Bruxelles d’ouvrir une enquête. EDF avance donc plus que jamais dans le flou dans un projet qui, avant même son lancement, pourrait mener à un échec cuisant, comparable à celui annoncé à Flamanville.

Par Matthieu Combe

Expérience#6 : Justice pour les collaborateurs, solitude pour les managers

Les controverses liées au sujet des rémunérations sont souvent les symptômes révélateurs d’une défiance des salariés vis-à-vis de leurs employeurs et de leurs dispositions à garantir un traitement équitable des efforts accomplis. En effet, en cas de désaccord, l’argumentation des contestataires s’applique presque toujours à démontrer le caractère injuste de la situation. A partir de comparaisons avec des cas de figures analogues, qui bénéficieraient de réponses plus favorables, ou bien sur la base d’appréciations arbitraires de leur valeur personnelle, les protestataires font habilement appel à cette valeur fondamentale de justice pour faire valoir leur bon droit et influencer leurs managers.

Les professionnels du marketing le savent bien, quel que soit votre niveau ou votre fonction dans l’entreprise, vos ambitions salariales, tout comme vos désirs, sont infinis. Toute cette science repose sur l’exacerbation de cette « voracité ».

Si, au bas de l’échelle des besoins, votre principale motivation s’applique à garantir votre subsistance, plus vous en gravissez les échelons et plus vous aspirez à la réalisation de vos projets personnels. Ce besoin de réalisation de soi nécessite des ressources financières qui sont, le plus souvent, proportionnelles à la taille de votre ego.

Ainsi un manager doit savoir qu’il ne pourra jamais satisfaire le désir profond de ses collaborateurs en matière de rémunération car aucun salaire, aussi élevé soit-il, ne saurait traduire la valeur d’une personne. Nous appelons donc tous les responsables à la plus grande vigilance, surtout au cours de ces périlleux exercices que sont les entretiens annuels d’appréciation.  Par contre, il est de la responsabilité de tout manager de garantir un traitement équitable à tout collaborateur, de lui démontrer que tout est mis en œuvre dans l’entreprise pour que la « machine à évaluer » soit la même pour tous.

Dans ce difficile dialogue « maître-esclave » qui ne dit pas son nom, les managers doivent garder à l’esprit que tous les pièges, tous les coups sont permis pour obtenir quelque chose de plus…qui de toute façon ne sera jamais suffisant. C’est ainsi ! C’est la nature humaine.

Le plus souvent de manière inconsciente, fragilisés par une perfide angoisse de solitude, de nombreux managers éprouvent le besoin de se faire aimer à tout prix par tout le monde. Ceux-là tombent malheureusement assez facilement dans ces pièges de défiance salariale annuelle. En engageant le moindre petit bout de petit doigt dans ce genre de pourparlers, ils se fourvoient dans la tentative de résolution d’un problème insolvable… et se retrouvent finalement encore plus seuls qu’avant.

En réalité, il faut convenir que les tactiques argumentaires opposées par les salariés évalués ne diffèrent pas de  celles de leurs managers lorsqu’ils sont évalués à leur tour par leurs hiérarchies. Difficile de contrer un argument partagé….même s’il n’est pas avoué !

Histoire vraie

Sur l’impulsion de la DRH du siège, toutes les filiales de cette société ont mis en place un processus élaboré d’entretiens annuels. Chaque établissement a formé ses managers pour leur apprendre à respecter un cadre administratif standard, formalisé par un document de suivi des entretiens annuels. Le document, très synthétique, permet de faire un point régulier sur les compétences, les comportements, la performance et les ambitions des salariés.  Ce document guide l’analyse que les protagonistes sont tenus de réaliser en préalable à chaque entretien d’évaluation. Il possède notamment un volet d’appréciation de la mise en œuvre des valeurs de l’entreprise et vise à rendre l’expérience la plus équitable possible.

Par nature, l’exercice d’un bilan conduit les analystes à examiner périodiquement les équilibres entre les actifs et les passifs et à considérer la capacité du système à assurer sa croissance. Le bilan-entretien annuel n’échappe pas à cette règle c’est pourquoi le sujet du résultat et de sa répartition finit toujours par faire surface. Pour essayer d’évacuer, du périmètre des entretiens, les discussions axées sur la rémunération et tous ses affres, cette entreprise a choisi de matérialiser le résultat du bilan-entretien annuel sous la forme d’une notation à 3 crans : Contribution Exceptionnelle (C.E.)- Contribution Conforme (C.C.) – Contribution Insuffisante (C.I.). Comme cette notation détermine le calcul des primes et augmentations de salaires, personne ne veut se retrouver dans la catégorie –par ailleurs humiliante-  « C.I. ». Pour limiter les dérives émotionnelles des managers besoindsefairaimer, l’entreprise réclame à chacun de ses établissements un taux annuel de « C.I. » supérieur ou égal à 5% et exige de sérieuses preuves instruisant tout dossier « C.E. ».

Au cours d’une journée de formation dans l’un de ces établissements, les managers de la logistique ont fait part de leurs malaises face à ce nouveau processus d’entretiens annuels. En effet, la majorité des agents y sont rémunérées au salaire minimum légal et la plupart sont régulièrement évalués « C.C. ».

Comment expliquer à ces salariés qu’ils n’auront rien d’autre que l’éventuelle augmentation générale prévue par la politique de la société lorsque celle-ci ne permet même pas le maintien du pouvoir d’achat ? Comment ces managers peuvent-ils se prévaloir du mérite d’avoir été équitables lorsque l’entreprise – au niveau global- exhibe de confortables résultats ?

  • Les salariés ont signé un contrat. Si les règles de la société ne leur conviennent pas, ils n’ont qu’à aller voir ailleurs.
  • Les managers ne sont pas tout-puissants. Ils doivent se limiter à expliquer qu’ils jouent leur rôle consciencieusement et que celui-ci reste conforme avec leurs valeurs personnelles.
  • Pour nourrir la motivation des salariés, le rôle du manager est de les inciter à développer leurs compétences et les aider ainsi à accéder à des rémunérations moins insatisfaisantes.

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article . Racontez-nous également vos propres expériences analogues.

Par Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas« 
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Pokémon Go: vers l’adoption de la réalité augmentée?

Après l’échec commercial des Google Glass, la réalité augmentée avait été quelque peu délaissée, au profit de la réalité virtuelle, avec l’arrivée des casques Oculus Rift, HTC Vive et HoloLens. Mais le succès de Pokémon Go pourrait marquer une nouvelle ère dans la réalité augmentée. Quelques jours après son lancement, Pokemon Go était l’application la plus téléchargée dans le monde.

Niantic Labs, qui a développé l’application avec The Pokémon Company, vaudrait désormais 3,32 milliards d’euros, selon les analystes de Citibank, cités par le site spécialisé Quartz. Une réussite qui fait rêver plus d’une entreprise.

La réalité augmentée : un potentiel considérable

Pokémon GO est un « freemium », un jeu gratuit qui propose des achats intégrés pour progresser plus vite. En un mois, le jeu aurait déjà généré plus de 160 millions de dollars de chiffre d’affaires selon Sensor Tower. Et ce n’est qu’un début! Le jeu n’est pas encore disponible dans tous les pays et pourrait rapidement proposer une nouvelle source de revenus. John Hanke, le PDG de Niantic Labs a évoqué au Financial Times le développement de « lieux sponsorisés » dans des commerces, magasins et autres lieux de vente. Ces lieux pourront proposer des Pokémon rares, héberger des Pokéstop ou des arènes, ces lieux incontournables où se rendent les joueurs de l’application. Les annonceurs payeront un « coût par visite » similaire au « coût par clic » utilisé par Google pour la publicité.

Si les projets dans les jeux-vidéos s’axent le plus souvent sur la réalité virtuelle, le succès de Pokémon Go pourrait peut-être modifier un peu la donne. D’autres géants des jeux-vidéo déclarent s’intéresser de près à cette technologie pour leurs projets futurs. Andrew Wilson, PDG d’Electronic Arts a notamment confié à Gamespot que l’entreprise travaille sur plusieurs projets de réalitée augmentée. Ubisoft aurait aussi quelques projets dans ses cartons.

A plus large échelle, dans une étude publiée en février 2016, la banque d’investissement Goldman Sachs estime que le marché de la réalité virtuelle et augmentée pourrait représenter le futur de l’informatique, succédant ainsi à l’ordinateur personnel et au smartphone. Le marché atteindrait 80 milliards de dollars en 2025, soit la taille actuelle du marché des ordinateurs de bureau. Le scénario le plus optimiste prévoit un marché de 182 milliards à la même date, tandis que le plus pessimiste ne le placerait qu’à 23 milliards.

Bien au-delà des simples jeux vidéo, la réalité augmentée s’invitera vite dans l’industrie, la médecine, l’aménagement intérieur, la culture, la distribution, les transports, le tourisme, le marketing… Soit dans l’ensemble de notre quotidien. Vous souhaitez avoir un aperçu de ce futur éventuel? Pour cela, visionnez le court-métrage « Hyper-reality » réalisé par le britannique Keiichi Matsuda qui imagine un monde où la réalité augmentée fait parti de notre quotidien. Filmée à Medellín en Colombie, la vidéo de 6 minutes date de mai 2016, mais resurgit grâce au phénomène Pokémon Go. Ce monde augmenté vous fait-il rêver ?

Par Matthieu Combe, journaliste scientifique

L’impression 3D va faire évoluer les modes de production

Le marché mondial de l’impression 3D représente 4,7 milliards d’euros pour 2015, un chiffre qui a triplé en quatre ans. Et dans cinq ans, il devrait atteindre 15 milliards d’euros, précise une étude* menée par Xerfi Research.

Du prototype à la pièce finale

Longtemps cantonnée à la réalisation de prototypes et de maquettes où elle est désormais devenue incontournable, l’impression 3D tend à s’imposer aujourd’hui dans la réalisation de pièces finales. L’étude publiée par Xerfi préconise même un envol à l’horizon 2017-2018 avec l’arrivée sur le marché de nouveaux opérateurs comme HP, Toshiba ou Fives-Michelin, spécialisés dans l’impression 3D métal.

Les imprimantes, toujours plus performantes, produisent désormais des pièces plus rapidement et moins chères que les procédés industriels classiques. Ainsi, aux États-Unis, l’industrie éolienne fait appel à ce type de technologie émergente pour faire baisser ses coûts de production.

La médecine et l’aérospatial précurseurs

Le secteur médical est l’un des premiers à en faire l’usage, notamment pour tout ce qui concerne les moulages et autres modélisations. Mais désormais, l’impression 3D est également utilisée pour fabriquer des organes, des tissus ou des plâtres médicaux. Deux entreprises, une espagnole et l’autre mexicaine, ont élaboré un prototype de plâtre. Imprimés en plastique, ces plâtres sont conçus en trois heures et demie (le temps devrait être réduit de moitié dans un futur proche) et présentent de nombreuses ouvertures qui permettront au personnel soignant de vérifier la guérison, d’appliquer des traitements et de soulager les démangeaisons. Des essais cliniques vont débuter en septembre.

En aérospatial, Safran l’utilise depuis les années 2000. Aujourd’hui, l’entreprise dispose d’une quinzaine de machines qui produisent des injecteurs de carburant ou des pièces finies pour satellites. L’enjeu est maintenant de pouvoir passer à une production de masse.

Fives-Michelin veut prendre 20 % du marché

Les deux Français se sont associés il y a un an pour développer et commercialiser à l’échelle mondiale des machines et des ateliers de production industriels via l’impression 3D métal. Vingt-cinq millions d’euros vont être investis ces trois prochaines années et des premières machines seront livrées fin 2016. Ils espèrent peser sur le marché mondial ces dix prochaines années. « Si la fabrication additive est déjà largement utilisée par les industriels pour le plastique, l’impression 3D métal est encore un marché de niche, mais en pleine mutation. D’abord destinée à la production de pièces uniques à forte valeur ajoutée, la technologie impression 3D métal est en train de gagner un marché plus large et commence à être utilisée par les équipementiers, accessoiristes ou encore les avionneurs », lit-on dans un communiqué du groupe Michelin.

Une technologie disruptive

Selon les auteurs de l’étude Xerfi « Les technologies de fabrication additive sont profondément disruptives et vont rapidement impacter une grande partie de l’économie. […] L’impression 3D a déjà, et aura encore plus demain, un impact sur le fonctionnement des entreprises en matière de R&D, de marketing, de production (longueur des séries), de logistique/stockage ou encore de maintenance et de réparation.»

La fabrication à la demande de pièces de série par exemple peut permettre d’envisager des changements dans la localisation des productions et des disponibilités de pièces de rechange beaucoup plus souples.

Par Sophie Hoguin

Licence obtenue pour Virgin Galactic !

Virgin Galactic a présenté sa seconde navette SpaceShipTwo en février 2016. Baptisée Unity, elle remplace la  navette SpaceShipTwo Enterprise. Près de 6 mois plus tard, l’obtention de la licence permettant l’exploitation commerciale du véhicule est l’aboutissement de plusieurs années de vérifications, tractations et contrôles. Ces analyses devaient convaincre la FFA-AST que la conception du vaisseau spatial SpaceShipTwo et les trajectoires de vols permettent d’assurer la sécurité des passagers et des membres d’équipage. Grâce à ce Saint-Graal, l’entreprise du milliardaire Richard Branson pourrait proposer ses premiers vols touristiques commerciaux dès 2017.

Les tests en vols s’étaient brutalement arrêtés suite au crash d’une navette SpaceShipTwo Enterprise dans le désert de Mojave en Californie en octobre 2014. L’accident, dû vraisemblablement à une erreur de pilotage, avait tué l’un des pilotes et blessé gravement le second. En dépit d’une réputation écorchée par ce décès, Richard Branson n’a pas abandonné son rêve. Les tests vont donc pouvoir reprendre. Dans un communiqué de l’entreprise, le vice-président des opérations, Mike Moses rappelle qu’il reste toutefois « beaucoup de travail devant nous pour tester pleinement notre vaisseau en vol », avant les premiers vols annoncés pour l’année prochaine.

L’avion spatial devrait emmener 6 passagers et 2 pilotes. Pour prendre place à bord, il faudra tout de même dépenser environ 220.000 euros et suivre une formation de trois jours. Le principe est simple : l’avion spatial sera lâché à environ 13 km d’altitude par un avion porteur (WhiteKnightTwo). Il entamera alors une ascension verticale propulsé par son moteur-fusée à plus de 80 km d’altitude. Les moteurs du vaisseau coupés, il commencera à retomber. Lors de sa chute, en quasi absence d’atmosphère, les passagers se trouveront en situation d’apesanteur pendant quelques minutes, avant achever leur vol à la manière d’un planeur.

Par Matthieu Combe, journaliste scientifique

En 2016, le réchauffement climatique s’accélère!

Le réchauffement climatique continue à battre de nouveaux records. Juin 2016 est le 14e mois consécutif à battre un record de chaleur au niveau mondial. Il est aussi le 378e mois consécutif, à connaître une température supérieure à la moyenne du 20e siècle. Selon les mesures satellitaires et les observations au sol de la NASA, les six premiers mois de l’année ont tous établi un nouveau record de température dans les relevés depuis 1880. La première moitié de cette année est ainsi la plus chaude enregistrée, avec une température moyenne de 1,3°C au-dessus de la moyenne du 19e siècle. La NOAA précise que les températures moyennes dépassent de 1,05°C la moyenne enregistrée au 20e siècle, battant le record précédent de 0,20°C. Celui-ci avait été obtenu en 2015, battant celui de 2014, lui-même celui de 2010.

Cinq des six premiers mois de 2016 connaissent un autre triste record : l’étendue de la banquise arctique est la plus faible depuis le début des mesures satellites, commencées en 1979. Mars, seule exception, enregistre tout de même la deuxième étendue la plus faible pour ce mois.

Les concentrations atmosphériques de dioxyde de carbone atteignent aussi de nouveaux sommets. Elles ont franchi le cap symbolique de 400 parties par million (ppm) cette année. Les niveaux varient selon la saison, mais la tendance sous-jacente est à la hausse : Juin 2016 enregistre une concentration proche de 407 ppm, 4 ppm de plus que Juin 2015.

L’événement El Niño dans le Pacifique tropical  a augmenté les températures mondiales à partir d’octobre 2015. Il a été l’un des plus puissants enregistrés et a contribué à l’augmentation des températures jusqu’à sa dissipation en mai 2016. Mais c’est bien la tendance de long-terme au réchauffement, due à la hausse des émissions de gaz à effet de serre, qui produit ces nouveaux records.  « Les précédents phénomènes El Niño ont entraîné les températures à ce qui était alors des niveaux records, comme en 1998. Mais en 2016, alors même que les effets du récent El Niño s’estompent, les températures mondiales ont augmenté bien au-delà de ceux d’il y a 18 ans, en raison du réchauffement qui a eu lieu entre-temps », assurent les experts de la NASA.

Par Matthieu Combe, journaliste scientifique

La voiture autonome bientôt sur les routes françaises

Les premiers freins au développement du véhicule autonome seront bientôt levés. Conformément à l’article 37 de la loi de transition énergétique, Ségolène Royal et Emmanuel Macron ont présenté le 3 août, en Conseil des ministres, un projet d’ordonnance « afin de permettre la circulation sur la voie publique de véhicules à délégation partielle ou totale de conduite, qu’il s’agisse de voitures particulières, de véhicules de transport de marchandises ou de véhicules de transport de personnes, à des fins expérimentales, dans des conditions assurant la sécurité de tous les usagers et en prévoyant, le cas échéant, un régime de responsabilité approprié ». Autrement dit, cette ordonnance vise à adopter un cadre juridique pour faciliter les essais à grande échelle et définir la responsabilité en cas d’accident.

Cette ordonnance permettra de lever les « difficultés juridiques et pratiques » rencontrées lors des premières expérimentations françaises, selon le compte-rendu du Conseil des ministres. Celles-ci ont été « liées à la nécessité de clarifier la situation du conducteur par rapport aux règles internationales en vigueur, à l’inadaptation des dispositions applicables à l’immatriculation des véhicules, aux difficultés à obtenir des porteurs de projets l’ensemble des renseignements permettant notamment de s’assurer que l’expérimentation se déroule en toute sécurité et en coordination avec les différentes autorités publiques concernées, ou aux incertitudes sur la procédure d’instruction et de délivrance de l’autorisation », précise le texte.

Si le contenu de l’ordonnance n’est pas encore dévoilé, Ségolène Royal et Emmanuel Macron précisent dans un communiqué commun qu’elle donnera un cadre juridique adéquat pour autoriser ces expérimentations sur les voies publiques, « après consultation des autorités locales gestionnaires et responsables de la police de ces voies ». L’ordonnance introduira ainsi « la notion d’autorisation de circulation sur la voie publique spécifique à l’expérimentation de véhicule à délégation partielle ou totale de conduite » qui servira de fondation à la construction d’un « cadre réglementaire solide » défini par décret en Conseil d’État, précise le compte-rendu.

Cette ordonnance s’inscrit également dans la feuille de route du plan industriel « véhicule autonome » de la Nouvelle France industrielle « visant à faire de l’industrie française de l’automobile et du transport routier, une des pionnières dans la conception du véhicule autonome pour tous ». L’objectif est d’être reconnu comme « une terre d’expérimentation du véhicule autonome, un centre d’excellence de l’intelligence embarquée et un leader en sécurité des systèmes complexes », soulignent les ministres, qui estiment que le véhicule autonome ouvre des perspectives importantes « en matière de régulation et de sécurisation des trafics, d’optimisation des temps de parcours et de consommation de carburant ».

Par Matthieu Combe, journaliste scientifique

 

Tesla: la giga-usine du Nevada est opérationnelle

Cette usine, la plus grande du monde, sera capable de stocker 93 Boeing 747. Et aussi 500 milliards de hamsters a indiqué avec humour Elon Musk. Un septième de la surface future de l’usine est déjà construite et  dès à présent capable de produire des batteries lithium. Cette mise en service a fait l’objet d’une inauguration par Elon Musk et Jeffrey Brian Straubel, dirigeants du groupe :

Tesla vient par ailleurs d’officialiser son rachat de SolarCity pour 2,6 milliards de dollars. L’ingénieur multimilliardaire Elon Musk détient à présent 21,1% de Tesla et 22,5% de SolarCity. Les panneaux solaires seront vendus dans les shops de Tesla. Les voitures de la gamme, 100% électriques, seront ainsi disponibles avec le matériel permettant leur recharge solaire.

La gamme Tesla (S et X) va bientôt s’enrichir de la modèle 3 (un véhicule grand public, à prix relativement abordable, dont plus d’un demi million d’unités ont déjà été réservées), formant ainsi le très marketing mot S3X, le 3 étant l’image du E dans un miroir.

Le groupe a aussi annoncé de nouveaux projets, dont un camion pour le fret et un bus.

Olivier Daniélo

De nouveaux horizons pour les dirigeables

Transporter des charges lourdes ; permettre un accès à internet partout dans le monde ; collecter des données depuis des endroits reculés… Les possibilités d’usage du dirigeable sont nombreuses et intéressent la communauté scientifique tout autant que les industriels des télécommunications, de la sécurité ou de la protection de l’environnement.

Lancée en 2014 avec le programme de réindustrialisation de la France baptisé Nouvelle France Industrielle, la filière « dirigeables et drones civils », doit, selon Arnaud Montebourg, ancien ministre de l’économie, participer à la « révolution de la mobilité décarbonée ».

Le Stratobus :  un relais pour les satellites

Bien qu’imposant avec ses 50 000 m3, ce dirigeable se veut être une solution durable et efficace en matière de sécurité. Preuve que l’Etat en est convaincu : dans le cadre du Programme d’investissements d’avenir, il vient d’octroyer une aide de 16,6 millions d’euros à Thales Alenia Space pour développer ce dirigeable stratosphérique autonome.

Capable de stationner à 20 km au-dessus de la Terre pendant une année complète grâce à sa motorisation électrique et à l’énergie solaire, il offrira une solution d’appui aux satellites, pour  la surveillance des frontières et des sites sensibles par exemple. Il pourra aussi jouer un rôle dans l’observation des phénomènes naturels. Enfin, ses développeurs comptent également lui trouver des débouchés dans le déploiement d’internet, et notamment de la 5G. Avec une phase d’industrialisation prévue en 2018 et une mise en service espérée pour 2020.

Une filière qui s’organise

La filière industrielle française des dirigeables a intégré le pôle de compétitivité, Safe Cluster, qui regroupe chercheurs et industriels travaillant autour de la sûreté et de la sécurité.  Ce cluster réunit aujourd’hui une communauté de près de 600 membres composée d’entreprises et d’organismes de recherche et de formation, issus majoritairement des secteurs de la sécurité, de la protection environnementale et de l’industrie aéronautique et spatiale. L’avenir des dirigeables est prometteur : le marché accessible aux entreprises françaises est estimé à plus d’un milliard d’euros par an.

3000 emplois d’ici 2030

Depuis quelques mois, la filière s’est installée sous forme d’un « AirShip Village » dans les Bouches-du-Rhône. C’est là que les premiers dirigeables français, version modernisée, devraient être construits. Le site vise 3000 emplois d’ici 2030. En plus du Stratobus, deux autres projets, soutenus par Safe Cluster, devraient rejoindre ce village dédié aux ballons.  Le projet Aerolifter porte sur un dirigeable filoguidé spécialisé dans le travail aérien en zone montagneuse ou pentue en particulier pour le débusquage (retrait, transport et stockage des grumes en exploitation forestière). Sa particularité est qu’il est piloté pour rejoindre sa zone d’opération, puis passe en mode captif filoguidé pour l’opération de débusquage. Les deux versions de l’Aerolifter seront capables de transporter des charges de 2t ou de 4t sur des petites distances de l’ordre de 2 km. Le second projet, DCL60T (dirigeables charges lourdes) est porté par l’entreprise Flying Whales en collaboration notamment avec l’ONERA. Dotés de la flexibilité opérationnelle d’un hélicoptère, ces dirigeables auront un coût d’exploitation à la tonne transportée dix à vingt fois plus faible que ce dernier.

Des projets partout dans le monde

Sur le marché mondial, certains ont déjà pris un peu d’avance. A l’instar de Google qui, depuis trois ans maintenant, teste des ballons Wi-Fi, alimentés à l’énergie solaire et dont le but est d’assurer une couverture internet optimale. Ou encore le projet américain Airlander, finalement récupéré par Hybrid Air Vehicles, une société britannique dont le prototype a été officiellement présenté en mars dernier.

Plusieurs autres projets sont en cours dans le monde. Lokheed Martin au Canada avec ses Hybrid Airships pour le transport de fret ou de personnel des industries minières et dont les premiers vols sont prévus en 2018 pour des livraisons dès 2021. L’entreprise américaine, LTA Aerostructures a, quant à elle, prévu d’investir 350 millions de dollars sur le site de Mirabel (ancien aéroport de  Montréal, désormais réservé au fret) pour construire des dirigeables d’approvisionnement du grand Nord. Premiers vols prototypes prévus pour 2019.

Sophie Hoguin

La profession agricole en proie aux pesticides

La réduction de l’usage des pesticides est le plus souvent pensée pour réduire l’impact environnemental et la contamination des produits finaux par des résidus. La question de la santé des travailleurs occupe une place de dernier plan dans les débats. Les 1.000 pages des 7 volets du nouveau rapport de l’Anses y sont enfin consacrés. Et le moins que l’on puisse dire, c’est que ses conclusions sont alarmistes.

Selon ce nouvel avis de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses), le personnel agricole est trop exposé aux pesticides.

Par pesticides, le rapport englobe un large spectre de produits : les produits phytosanitaires (insecticides, fongicides, herbicides…), les biocides utilisés pour désinfecter les équipements et bâtiments, et certains médicaments vétérinaires utilisés pour lutter contre les parasites externes.

L’agence relève des données « lacunaires », des formations inadéquates, une trop large place données aux port d’équipements de protection individuelle (EPI) pour assurer la protection des travailleurs et un suivi insuffisant de l’ensemble du personnel.

Un manque flagrant de données

Alors que sur une même exploitation, une large gamme de pesticides est utilisée pour traiter les cultures, les animaux, les bâtiments, le matériel… « peu de connaissances existent sur les caractéristiques et les effets potentiels de ces combinaisons », s’alarme l’Anses. L’agence recommande donc de soutenir des études indépendantes sur le terrain pour explorer les effets potentiels d’expositions à une combinaison de pesticides « à l’échelle de l’individu, au cours d’une saison, et au cours d’une carrière professionnelle ». Elle souhaite aussi caractériser les expositions possibles aux différents postes en fonction des filières, des tâches et du profil du travailleur, avec un effort particulier sur les populations sensibles ou vulnérables, telles que les femmes enceintes.

Les données existantes sont « dispersées, sans aucune centralisation de l’ensemble, aussi bien pour les données de pré-homologation que de post-homologation ». Seuls les produits phytosanitaires sont concernés par des projets de suivi réglementaire « post-homologation », et l’Anses juge le suivi actuel « très insuffisant ». L’Anses préconise donc de créer un dispositif de veille public « centralisant et capitalisant les informations scientifiques, techniques et réglementaires sur les expositions pour tous les pesticides ». Par ailleurs, elle propose de développer une veille collaborative internationale pour mieux documenter les différentes expositions, suivant les pratiques agricoles.

La stratégie Ecophyto remise en cause

Certaines stratégies visant à réduire l’usage des pesticides peuvent s’avérer contre-productives. C’est notamment le cas de quelques pratiques présentées comme agro-écologiques, qui peuvent entraîner en réalité une augmentation des expositions professionnelles : techniques sans labour, élevage de grande dimension, fractionnement des doses, substitution des produits…. L’Anses demande de « revoir la stratégie du plan Ecophyto en mettant en oeuvre dès maintenant sans attendre 2020 une réelle politique d’accompagnement des acteurs à la réduction d’utilisation des pesticides : fondée sur la recherche d’une moindre dépendance des systèmes de culture et de production aux pesticides permise par des stratégies de reconception de ces systèmes ».

Dans le cadre du plan Ecophyto II, le conseil est dans les mains des producteurs de pesticides ou des entreprises dont les bénéfices commerciaux sont directement dépendants de l’usage de pesticides, ce qui « soulève la question des conflits d’intérêt dans lesquels s’inscrivent ces prestations », relève l’Anses. Elle recommande d’évaluer les conséquences de ces situations sur la qualité du conseil délivré et de développer des actions de prévention par des organismes indépendants.

Les formations et la prévention des risques nettement insuffisantes

Selon l’Anses, plus d’un million de personnes travaillent régulièrement en agriculture. Si l’agence note déjà une formation insuffisante concernant l’exposition aux pesticides des salariés, celle-ci est quasi-inexistante pour les « plusieurs centaines de milliers de travailleurs non permanents ainsi que plusieurs dizaines de milliers de stagiaires ». L’agence exhorte les pouvoirs publics à agir pour que l’ensemble des travailleurs potentiellement exposés soient effectivement formés, quel que soit leur statut sur une exploitation.

Sur le terrain, la prévention des risques se limite principalement aux comportements individuels : mesures d’hygiène, port des EPI (combinaison, masque et gants) et type de matériel utilisé. Une ineptie, selon l’Anses, pour qui les EPI devraient être le dernier rempart à favoriser, et non le pilier de la formation et du conseil.

Si « des évolutions technologiques du matériel, des équipements de protection, des conditionnements, des formulations sont régulièrement proposées par les fabricants comme des solutions permettant de diminuer les expositions des utilisateurs […], il n’y a pas d’évaluation systématique de la réelle diminution d’exposition individuelle qu’entraînent ces changements », regrette l’agence sanitaire. Elle prône donc la mise en place d’études de terrain indépendantes pour vérifier ces performances et demande de renforcer le contrôle du matériel de pulvérisation.

Les formations doivent inclure « la notion prioritaire de réduction d’usage avant le port des EPI », rappelle l’agence. Elles doivent aussi aborder la question des contaminations indirectes, notamment lors de la réentrée dans les cultures traitées, suite à une pulvérisation de pesticides, ou la manipulation des animaux traités. Il convient par ailleurs de « privilégier les mesures de prévention et de protection générales et ou collectives plutôt que les mesures individuelles ». Le contrôle des pulvérisateurs peut être l’occasion d’une meilleure information sur la question des expositions aux pesticides grâce à la mise en place d’une formation adéquate des utilisateurs.

Enfin, l’Anses souhaite harmoniser les méthodes d’évaluation des expositions dans la procédure d’autorisation de mise sur le marché des trois types de pesticides. L’agence estime que les données d’exposition utilisées dans les modèles d’exposition sont pour la plupart fournies par les industriels. Elle invite à modifier les procédures pour s’assurer que ces modèles incorporent des données  produites par la recherche académique, les données de la statistique publique agricole et les données d’études de terrain.

Par Matthieu Combe, journaliste scientifique

 

Expérience#5 : Passe-droits, privilèges et courage

Comment l’intégrité, l’estime, la réalisation de soi, la confiance envers les autres – valeurs essentielles à la vie commune et idéalisées dans les entreprises – peuvent-elles s’exprimer sans un minimum de courage? Le courage, vertu admirée par toutes les civilisations,  c’est cette qualité qui permet de surmonter la peur à travers l’action. Son contraire s’appelle la lâcheté, attitude qui consiste à ne rien faire face à une injustice. La réponse qu’il ou elle déclenche – ou ne déclenche pas-  met tout témoin d’une injustice à rude épreuve. Il/elle est instantanément confronté à une constante existentielle universelle : la responsabilité et son corollaire, la liberté.

Qui n’a jamais été irrité par certains passes droits ou autres avantages arbitrairement accordés par leurs entreprises à quelques privilégiés ?

Imaginez que vous soyez le directeur administratif et financier national d’un grand groupe international. Vous connaissez bien votre métier et vos compétences sont unanimement reconnues. Parmi vos responsabilités, vous avez notamment la charge calculer les bonus annuels et de de contrôler les dépenses professionnelles des cadres commerciaux.

Au début de l’année, à la suite d’un désaccord concernant la manière, pourtant rigoureuse et implacable, avec laquelle vous avez réalisé le calcul de son bonus, un brillant, très-très bien payé et très performant directeur régional est ouvertement entré en conflit avec vous du haut de son ego démesuré.

En manifestant délibérément et bruyamment sa fureur auprès de la direction européenne du groupe, à deux niveaux hiérarchiques au-dessus du vôtre, ce directeur régional rusé a obtenu la révision – en sa faveur – du mode de calcul de sa récente performance commerciale. Son interprétation, plus que fallacieuse, des règles habituelles de calcul en vigueur dans la compagnie, conduisent au doublement de son bonus. Pour dire les choses plus clairement, sa hiérarchie, voulant éviter tout conflit, lui a accordé  un traitement de faveur qui vous révolte et que vous trouvez parfaitement injuste.

Blessé par une sorte de crime de lèse-majesté, et désireux de vous donner une bonne leçon, ce cadre commercial s’est arrangé pour attirer sur vous les foudres de vos hiérarchies locale et européenne. Ce que l’on vous reconnaissait jusqu’alors comme une rigueur et une haute qualité morale et professionnelle vous était maintenant reproché comme étant « une certaine forme d’inflexibilité tatillonne ». Vos responsables prétendument avisés, mais surtout en manque de courage managérial, vont même jusqu’à vous « inviter » à vous engager dans une démarche d’accompagnement personnel pour apprendre à « assouplir vos comportements ».

Consentant à vous remettre en question et, de toute façon, toujours intéressé par le développement de vos compétences relationnelles, vous accueillez favorablement cette invitation à un coaching personnel. En acceptant de vous engager dans cette démarche vous entendez démontrez à votre hiérarchie que vous n’êtes pas cette personne inflexible qu’elle vous reproche. Vous prenez également soin de préciser que votre décision d’engager un travail de développement personnel ne doit en aucun cas être interprétée comme un aveu de culpabilité mais comme une ouverture vers toute nouvelle opportunité de carrière.

Nous sommes aujourd’hui au milieu de cette même année et vous recevez, de ce même directeur régional, une note de frais exorbitante que les standards de l’entreprise ne vous autorisent pas à valider. Compte tenu de son expérience de l’entreprise, il n’y a aucune raison de douter que ce directeur régional ne soit pas parfaitement conscient de l’exubérance de sa note de frais.

Vous êtes particulièrement choqué par le manque d’éthique ainsi que par le mauvais exemple donné par ce directeur. Aucun autre salarié de l’entreprise – quel que soit son niveau hiérarchique – ne vous avait alors jamais mis dans une pareille situation. Vos valeurs personnelles sont rudement mises à l’épreuve : vous trouveriez cela très injuste de lui valider cette note et de devoir faire deux poids deux mesures. Vous ne savez pas « être politique » (traduction : cela n’a pas de sens pour vous d’adopter des comportements « hypocrites » visant à préserver votre pouvoir dans l’entreprise).

Qu’allez-vous faire ?

  • Votre devise est « Fais ce que dois, advienne que pourra ». Par éthique et rigueur professionnelle, vous rejetez sa note de frais.
  • Vous transmettez sa note de frais à votre hiérarchie car vous ne vous sentez pas assuré de son soutien si vous deviez, en l’espèce, exercer vos responsabilités de contrôle des dépenses.
  • Vous validez sa note de frais pour éviter le risque de perdre un nouveau conflit. A quoi bon respecter des règles que vos hiérarchies détournent au gré des circonstances ?

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article . Racontez-nous également vos propres expériences analogues.

Par Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas« 
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

9ème édition des Rendez-vous Carnot : l’évènement incontournable de la R&D pour les entreprises

Depuis 8 ans, les Rendez-vous Carnot sont l’occasion de rencontres entre porteurs de projets d’innovations issus d’ETI, PME et très grandes entreprises et acteurs de la recherche. Au travers de rendez-vous d’affaires, cet évènement permet aux entreprises de trouver une réponse à leur besoin d’innovation, en rencontrant des partenaires R&D capables de soutenir leur projet.

Lieu de rencontre majeur pour l’innovation, les Rendez-vous Carnot ont réuni plus de 2 500 participants et permis 9 200 rendez-vous d’affaires en 2015. 94% des participants ont identifié de nouveaux partenaires R&D lors de cette édition et 96% des visiteurs se sont déclarés satisfaits de la qualité de leurs rendez-vous.

Cet évènement prolonge l’action menée toute l’année par le réseau des instituts Carnot (structures de recherche publique développant la recherche partenariale) en direction du monde industriel et des entreprises.

Les acteurs majeurs de la R&D présents aux Rendez-vous Carnot

Les 34 instituts Carnot seront présents, tout comme l’étaient en 2015 des SRC (Sociétés de Recherche Contractuelle), des CTI (Centres Techniques Industriels), des Pôles de compétitivité et clusters, des sociétés agréées CIR, des laboratoires de recherche et structures de transfert nationaux (Universités de Lyon, des SATT – Sociétés d’Accélération du Transfert de Technologies, CNRS FIST…) et internationaux (Centre spatial de Liège, ESA …).

Des structures de soutien et d’accompagnement à la recherche partenariale et à l’innovation seront également présentes : L’ANRT pour le dispositif CIFRE, l’INPI pour la propriété intellectuelle, Bpifrance, l’ADEME, l’ARDI, le MENESR et des membres du Point de Contact National PME pour faire connaître les différentes opportunités de financement proposées aux PME dans le cadre d’Horizon 2020.

7 conférences techniques en partenariat avec Techniques de l’Ingénieur

Partenaire des Rendez-vous Carnot, Techniques de l’Ingénieur sera présent lors de l’évènement. L’occasion pour vous de rencontrer l’équipe !

En partenariat avec Techniques de l’Ingénieur, les Rendez-vous Carnot proposeront 7 conférences techniques traitant de sujets au cœur des préoccupations des industriels.

Animée par des spécialistes de grands secteurs, chaque conférence permettra de cerner les enjeux aussi bien technologiques que socio-économiques. Elles offriront des retours d’expérience et réalisations concrètes issues de partenariats public/privé de recherche et d’innovation.

Les conférences au programme de cette édition :

  • La gazéification des déchets : les enjeux industriels et technologiques – Application au cas des Combustibles Solides de récupération (CSR) ;
  • Les énergies marines renouvelables, small is beautiful : quels équipements pour convertir cette énergie au plus près du client final ?
  • Technologies douces pour la transformation des fruits et légumes : développements (bio)technologiques améliorant l’arôme des produits à base de fruits
  • Cybersécurité : cryptographie, méthodes formelles et sécurité des applications peuvent-elles être réunies ?
  • Big Data au service d’une entreprise d’assurance santé : comment l’approche Big Data permet d’améliorer les process
  • La Fabrication Additive dans les PME : de la conception au contrôle, une alliance Carnot pour la production industrielle
  • Imagerie et robotique appliquées à l’urologie  – Cancer de la prostate : Aide au diagnostic et au traitement ciblé 

Quand ?

Mercredi 5 et jeudi 6 octobre 2016

Expérience#4 : Managers attention : le succès rend aveugle !

La frustration provoquée par la confrontation plus ou moins patente avec sa propre défaillance peut devenir insoutenable pour ceux qui ne sont pas capables d’assumer la réalité de la condition humaine. Pour tempérer les effets de cette confrontation, nous mettons souvent en œuvre les parades suivantes :

  • Le déni de ses propres limites et de ses imperfections (mégalomanie, mépris des autres, préjugés, fatuité…)
  • La recherche de certitudes totales, de compréhension absolue, d’infaillibilité.
  • Le développement de relations arrogantes avec autrui.
  • Le développement d’un mode de pensée « vertical »

François, talentueux chef d’entreprise, vient d’acquérir une entreprise concurrente en difficulté. Pour assurer la production d’un des ateliers, il promeut Philippe – dont il apprécie les compétences techniques- au poste de manager d’une équipe de 20 salariés spécialisés.

Pour se faire accepter dans ses nouvelles fonctions- Philippe fait le dos rond et évite toute confrontation avec ses collaborateurs. François lui reproche fréquemment de se comporter comme un responsable syndical. Philippe ne manque alors jamais de rappeler que ce n’est pas lui qui a brigué ces responsabilités et que si François  n’est pas satisfait, il peut toujours le réinstaller dans ses anciennes fonctions non managériales.

En l’absence de solutions alternatives, François avait « énergiquement » insisté pour que Philippe  accepte cette fonction de manager ne tenant aucun compte de ses fortes réticences. Ce dernier redoutait, en effet, une crise désagréable dans sa relation avec ses anciens collègues et notamment avec ceux qui s’estimaient plus légitimes pour ce poste.

« On naît manager ou on ne l’est pas » c’est l’un des credo de François qui considère que Philippe n’a pas l’étoffe d’un manager. Pour développer néanmoins ses compétences managériales, ce chef d’entreprise me demande de l’aider à affermir l’autorité de son chef d’atelier.

Malheureusement, pendant ce travail, Philippe doit faire face à une épreuve supplémentaire : sa compagne, avec qui il a partagé sa vie pendant  12 années, semble vouloir s’éloigner sans vraiment oser le dire. Philippe la soupçonne (l’avenir lui montrera qu’il avait raison) de vouloir le quitter pour aller vivre avec son meilleur ami.

Le travail de coaching incorpore cette épreuve supplémentaire pour aider Philippe à se reconstruire personnellement, tout en prenant sa place de manager au sein de l’équipe de 20 ouvriers spécialisés que François  lui a confiée.

Comme il le redoutait, ces collaborateurs sont très vindicatifs notamment au sujet des rabotages de salaires qui ont été décidés suite au rachat de l’entreprise. Pour réussir sa mission, Philippe, sait qu’il doit apaiser le climat social au sein de son unité. Responsable pragmatique, Philippe envisage de stimuler la motivation de ses gars en leur proposant d’installer un système de rémunération variable assise sur la productivité de l’unité. Avec ce projet, Philippe souhaite également témoigner sa reconnaissance à François  pour lui avoir offert le soutien d’un coach.

Rappelons que Philippe ne reçoit ni d’objectifs de production ni de productivité de la part de sa direction. Tout ce qui lui est demandé c’est d’optimiser l’usage des ressources qui lui sont confiées pour sortir le maximum de commandes dans un minimum de temps et avec un optimum de qualité.

Contre toute attente, François  rejette la proposition de Philippe, prétextant qu’elle cède aux revendications des salariés, que la démarche de Philippe ressemble à celle d’un représentant syndical, et que « Philippe répète ce qu’il a appris avec son coach mais que ça ne vient pas de lui ».

Prisonnier de ses certitudes, François privilégie une réponse émotionnelle à une réponse stratégique. Au lieu de stimuler l’initiative de son cadre reconnaissant et bénéficier –sans coûts supplémentaires- d’une potentielle amélioration de la productivité, François choisit de s’opposer de manière épidermique à l’initiative de Philippe. En réponse, il exige maintenant que son chef d’atelier améliore la productivité en préalable à toute négociation concernant un système de primes de productivité assise sur la performance.

N’obtenant pas l’appui de François, Philippe décide de ne pas entreprendre le projet et de ne pas en parler à ses collègues…auprès desquels il vient pourtant – par sa nouvelle approche managériale – de gagner en estime et en respect.

En tant que chef d’entreprise comment auriez- vous accueilli l’initiative de Philippe ?

  1. Vous avez acquis la certitude que Philippe n’avait pas l’étoffe d’un manager ; vous faites donc comme François et vous le renvoyez gentiment dans ses pénates en lui faisant comprendre qu’il n’a rien compris.
  2. Vous sautez sur l’opportunité offerte par l’initiative de Philippe pour contribuer de manière constructive à la mise en place d’un projet qui convienne aux deux parties.
  3. Vous embauchez un nouveau collaborateur, plus qualifié, vous lui confiez le management de cet atelier et vous réintégrez Philippe dans ses anciennes fonctions non managériales car son initiative vous conforte dans votre conviction initiale : « Philippe n’a pas l’étoffe d’un manager ».
  4. Vous vous remettez en question et vous vous demandez ce que vous pouvez changer dans votre propre façon de manager Philippe qui puisse favoriser le développement de ses compétences managériales.

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article . Racontez-nous également vos propres expériences analogues.

Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas« 
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Puces photoniques et bandes magnétiques : vers un stockage éternel

L’ADN et le quartz ne sont pas les seuls matériaux à même de nous permettre de stocker nos données sur le long terme. Les puces photoniques et les bonnes vieilles bandes magnétiques aussi.

Des puces photoniques

(University of Oxford)
(University of Oxford)

Grâce à la lumière, plus précisément aux photons, des chercheurs d’Oxford ont réussi à augmenter la capacité et la durée de stockage d’une puce. Leur puce photonique, toujours en cours de conception, est faite d’un matériau présent dans les DVD réinscriptibles –  le GST (germanium-antimony-tellurium), ‎une fine couche d’alliage de germanium, d’antimoine et de tellure.

Concrètement, elle utilise des photons pour stocker des données de manière permanente : les photons permettent de déplacer les données à une vitesse très rapide, car en voyageant à la vitesse de la lumière, ces derniers ne “s’entrechoquent” pas comme les électrons… permettant un transfert quasi-instantané, et rendant la puce quasiment immortelle.

Les bandes magnétiques

Tapesticker

Mais un support de stockage bien plus ancien reste plus que jamais d’actualité pour stocker nos données pendant très longtemps : les bandes magnétiques, qui étaient déjà utilisées par les premiers ordinateurs, dans les années 1950. Conservées correctement, elles peuvent durer jusqu’à 60 ans – contre 5 à 10 ans, en moyenne, pour nos DVD et disques durs externes.

Au CERN, les chercheurs archivent ainsi, sur le long terme, leurs données dans des cartouches contenant des bandes magnétiques, que des unités robotisées récupèrent lorsque les scientifiques ont besoin d’une information précise. Plus de 50.000 bandes magnétiques, gérées par des robots, servent ainsi de support d’archivage aux données (480 millions de fichiers) du LHC, le “Grand collisionneur de hadrons” du CERN.

computingcentre_image
(centre de stockage du CERN)

Selon Fréderic Hemmer, chef du département des technologies de l’information du CERN, pas question de changer de support de stockage : “la fiabilité des bandes magnétiques est 1000 fois meilleure que les disques, et les données peuvent toujours être récupérées, même quand les bandes sont endommagées”.

La densité de stockage des bandes magnétiques reste particulièrement intéressante : ainsi, les bandes dernière génération peuvent contenir en moyenne jusqu’à 50 teraoctets. Le record revient à Sony, qui a conçu une “super cassette” d’une capacité de stockage de 185 teraoctets, grâce au dépôt de particules magnétiques par pulvérisation sur des films polymères.

A l’échelle nanométrique, la technologie de Sony permet ainsi de poser des couches de cristaux magnétiques sur la bande, des nanograins, pour assembler un nombre colossal de particules dans un espace très restreint.

Fabien Soyez

Le darkweb, entre phantasme et réalité

Il y a quelques jours, le magazine Valeurs Actuelles démontrait qu’il était simple d’acheter de la drogue sur le darkweb. Immédiatement, le député Bernard Debré avait demandé une mission d’information parlementaire pour lutter contre ce nouveau fléau.

Toujours à la Une des médias, des articles révélaient que les données de millions d’assurés médicaux américains, mais aussi des identifiants de comptes LinkedIn et MySpace, étaient en vente sur le darkweb.

Mais le darkweb, c’est quoi ? Appelé aussi darknet, il s’agit d’un réseau de sites décentralisés qui ne sont pas référencés par les moteurs de recherche. L’internaute peut passer d’un site à un autre, mais à condition de connaître précisément les adresses des sites qu’il souhaite consulter en passant par un réseau spécifique, TOR. Acronyme de The Onion Router (le routage en oignon : c’est-à-dire en couche comme les oignons), il désigne un réseau informatique décentralisé permettant l’anonymat des clients, reposant sur des serveurs spécifiques appelés « nœuds ».

Le principal intérêt de TOR est qu’il brouille l’adresse IP de l’utilisateur. Sa connexion passe un peu partout sur Internet avant d’atteindre sa cible, comme dans un jeu de flipper à grande vitesse.

Une fois sur le darkweb, on peut consulter quelques sites militants : hacktivistes, anarchistes, féministes, antiracistes, altermondialistes, etc. Mais la moitié des sites présents sur ce web obscure contiennent des contenus illicites, selon une étude portant sur 13 000 sites et réalisée par Darksum, une entreprise spécialisée dans la surveillance du darknet.

Il y a aussi des sites très connus, tels que Wikipedia, Facebook ou encore le moteur de recherche anonyme DuckDuckGo. Ils disposent d’une adresse URL un peu spéciale (pour DuckDuckGo, il s’agit de : http://3g2upl4pq6kufc4m.onion/) dans le darknet afin de ne pas être repérés par des États pratiquant la censure en surveillant en permanence les adresses IP et les noms de domaine.

Car le darkweb n’est pas uniquement une Cour des Miracles. C’est aussi un réseau permettant à des dissidents, des ONG et des journalistes d’échanger des informations sans être identifiés.

Mais, quel que soit l’intérêt du darknet, il faut relativiser son impact. Publiée en avril dernier, une étude de Thomas Rid et Danny Moore, respectivement professeur et thésard en cybersécurité au département de la guerre du King’s College London, indique que la majorité des sites (plus de 2000) avec une adresse en .onion sont inactifs ou inaccessibles…

Philippe Richard

Les impacts de l’automatisation croissante

La révolution numérique, facteur de croissance et d’emplois ? Tour à tour, deux études européennes ont tenté de mesurer son impact. Avec une question majeure : les robots et autres machines menacent-ils les emplois comme l’affirmait, en 2013, une étude de Carl Benedikt Frey et Michael Osborne ? Ces deux chercheurs américains concluaient que 47 % des emplois aux États-Unis étaient automatisables ou le seraient d’ici à dix ou vingt ans.

Cette perspective s’appliquera-t-elle également au Vieux continent ? Pas dans les mêmes proportions selon deux organismes européens. « Nous avons mesuré que 9 % des emplois des pays de l’OCDE présentent au moins 70 % de tâches automatisables et sont à ce titre menacés. S’ajoutent 20 % de postes présentant 50 à 70 % de tâches automatisables », prévient Stefano Scarpetta, directeur de la Direction emploi, travail et affaires sociales de l’OCDE.

De son côté, France Stratégie évalue à 15 % les emplois hexagonaux (3,4 millions de postes) qui seraient « automatisables ». Ce think tank rattaché au Premier ministre français tient à préciser que « la révolution numérique détruit certains emplois, mais surtout elle transforme les métiers ».

Les conclusions des deux études européennes divergent donc de celle des Américains, car elles ne s’appuient pas sur la même définition de l’automatisation. Dès lors que le travailleur a une marge de manœuvre dans la façon de mettre en œuvre les consignes pour obtenir un résultat optimal, France Stratégie estime que le salarié sera difficilement remplacé par un automate. Et le risque de substitution est encore plus faible s’il y a de l’émotion. Le robot peine selon le think tank. Avec cette approche, seulement « 15 % des salariés occupent des emplois potentiellement automatisables », tandis que, calcule l’auteur, le nombre d’emplois difficilement automatisables a progressé de 33 % entre 1998 et 2011. De leur côté, les deux scientifiques américains raisonnaient par profession automatisable, chacune vue comme un tout uniforme.

Néanmoins, une étude de l’OCDE constate que l’automatisation croissante a entraîné une chute de la demande de travailleurs aux compétences intermédiaires depuis quinze ans. Les emplois se concentrent de plus en plus sur les postes les plus qualifiés. Depuis 1980, le nombre d’ingénieurs et cadre de l’informatique et des télécoms croît régulièrement alors que la chute du nombre de postes de secrétaires date des années 90. Les cinq secteurs qui recrutent le plus des métiers du numérique selon l’Observatoire sont le conseil en systèmes et logiciels (19,5 %), les activités des agences de travail temporaire, hors branche « numérique » (13,7 %), le conseil pour les affaires et autres conseils de gestion (9,9 %), la programmation informatique (4,4 %) et l’ingénierie (3,4 %).

« Le véritable enjeu, ce n’est pas tant la disparition du travail que sa transformation et sa polarisation », précise Stefano Scarpetta. Cette évolution passe notamment par la formation. Un domaine très en retard. « Un adulte sur cinq âgé de 26 à 35 ans a un niveau d’éducation moins élevé que ses parents », rappelle Gabriela Ramos, conseillère spéciale du secrétaire général de l’OCDE, Angel Gurria. Ce même organisme indique que « 55 % des salariés de 22 pays de l’Organisation ne disposent pas des compétences élémentaires de résolution des problèmes dans des environnements à forte composante technologique ». Cruel constat, le numérique embauche en France, mais le pays manque de compétences dans ce secteur et les formations ne sont pas adaptées aux besoins des organisations. C’est l’une des conclusions d’un rapport rendu en février dernier et commandité par les ministères de l’Éducation nationale, du travail, de l’enseignement supérieur et de la recherche.

Philippe Richard

Les jeux vidéo s’invitent dans la compétition

Au seul mois de Juillet, plusieurs compétitions de jeux vidéo se sont déroulées en France. Il y a notamment eu la première édition en ligne de la compétition gaming européenne étudiante, l’University eSports Masters, sur Counter Strike : League of Legends. Mais aussi les finales Counter Strike : Global offensive et League of Legends du Championnat National ESL à Poitiers, la Breaking-LAN du Futuroscope sur Counter Stike et Overwatch… et le Hearthstone Festival sur le jeu éponyme à Lille.

Si la France s’est déjà lancé de plain-pied dans l’organisation de tels événements, leur cadre légal n’est pas encore défini. Bien que tolérés, ils sont encore assimilés à des loteries ou des jeux de hasards et donc, en théorie, illégaux. Le projet de loi pour une République numérique, examiné en première lecture à l’Assemblée nationale en janvier 2016 puis au Sénat début mai 2016 vise notamment à remédier à cette situation en créant un nouveau statut pour les compétitions de jeux vidéo. En sortie de commission mixte paritaire fin juin 2016, l’article 42  prévoit qu’« une compétition de jeux vidéo confronte, à partir d’un jeu vidéo, au moins deux joueurs ou équipes de joueurs pour un score ou une victoire », mais « n’inclut pas l’organisation d’une prise de paris ».

L’article 42 bis A du projet de loi prévoit la création d’un contrat de travail spécifique au joueur professionnel de jeux vidéo. Ce statut sera un CDD d’un an minimum et de cinq ans maximum, inspiré de celui utilisé dans le sport de haut niveau. Selon la secrétaire d’Etat au Numérique, Axelle Lemaire, la France compte 200 joueurs professionnels gagnant leur vie grâce aux compétitions, et plus de 500.000 personnes participent régulièrement à de tels tournois. Le cabinet d’audit Deloitte évalue à 500 millions de dollars (environ 453 millions d’euros) le marché mondial de l’e-sport en 2016, contre 400 millions en 2015.

Digne d’un vrai sport ?

L’e-sport est un sport à part entière : joueurs, équipes, entraîneurs, agents et même sponsors se retrouvent dans les grandes compétitions. Celles-ci sont organisées selon des calendriers précis, à l’instar des grands championnats, et sont commentées par des experts vedettes du milieu. Les joueurs peuvent gagner des centaines de milliers d’euros chaque année en participant aux compétitions mondiales.

Comme les athlètes de haut-niveau, ces joueurs ont leurs blessures. Une étude parue fin 2014 dans le British Medical Journal recense pas moins de 39 blessures diverses liées à la seule Wii ! Par ailleurs, pour son tournoi prévu à Cologne en août 2015, l’Electronic Sports League (ESL) a annoncé des contrôles antidopage pour détecter les possibles médicaments pris par les joueurs pour améliorer leurs performances et concentration. Signe qu’il s’agit désormais d’un vrai sport !

Des compétitions de plus en plus médiatisées

Tous les grands jeux ont leurs compétitions annuelles : Fifa, World of Tanks, Starcraft II, Counter Strike, Hearthstone, Super Mario Kart, Call of duty… The International 2016 est le plus grand tournoi e-sport de l’année, sur le jeu Dota 2. Prenant place à Seattle, les 16 équipes qualifiées recevront plus de 18 millions de dollars !

Les joueurs s’affrontent en ligne, dans des théâtres ou des stades. La finale du championnat du monde 2015 de League of Legends a attiré 17  000 spectateurs à la Mercedes-Benz Arena à Berlin et 36 millions de spectateurs devant sa retransmission en live sur internet. Devant un tel intérêt, la plateforme de streaming Twitch qui retransmet ces compétitions, a été rachetée par Amazon en 2014 pour 970 millions de dollars.

L’« e-sport » fait désormais ses premiers pas à la télévision française. A la rentrée 2015, la chaîne TNT gratuite, L’Équipe 21, a diffusé la finale de la Coupe du Monde ESWC FIFA 16 (l’« Electronic Sports World Cup »). Elle a ensuite diffusé son propre championnat de France du jeu FIFA 16 « E-Football League », du 19 janvier au 3 juin 2016. Alors, ça vous tente ?

Par Matthieu Combe, journaliste scientifique

SUB 2 : courir un marathon en moins de 2h

Les sportifs vous le diront, les records sont faits pour être battus. L’histoire ne les fait pas mentir. En 1896, le record du marathon était de 2h58’5s. Au début du 20e siècle, l’entraînement des athlètes se professionnalise et les records tombent peu à peu : la meilleure performance mondiale passe sous la barre des 2h30, grâce à l’Américain Albert Michelsen en 1925. Pour passer sous la barre des 2h20, il faudra attendre 28 ans (1953) et la performance de Jim Peters qui court en 2h18’41s . La barre des 2h10′ est passée 14 ans plus tard, en 1967, grâce à Derek Clayton, à 2h9’37s.

Les records tombent encore, année après année, mais gagner encore 10 minutes ne semble pas être si aisé. Passer de 2h09 sous la barre des 2h08 aura pris 18 ans. 3 ans pour passer sous la barre des 2h07, 11 ans sous 2h06, 4 ans sous 2h05, 5 ans sous 2h04 et 6 ans sous 2h03. En extrapolant ces données, les observateurs prédisent que le premier marathon couru en moins de 2h ne devrait pas survenir avant 2028.

Le dernier record en date remonte à  septembre 2014. Détenu par le Kenyan Dennis Kimetto à Berlin, le chrono est à 2h02 et 57 secondes. Soit 26 secondes de moins que le précédent record de 2013, lui même ayant battu le record de 2012 de 15 secondes.

La science pour gagner encore 2’58s

Yannis Pitsladis, membre de la commission Médicale et Scientifique du comité international olympique, est à la recherche de l’athlète qui pourra réaliser la prouesse d’un chrono sous les 2 heures. Soit 2’58s de moins que le record actuel ! Sans dopage, mais grâce à la science, la médecine et la technologie.

Pour venir à bout des 42,195 kilomètres, son marathonien devra courir en moyenne à près de 21,1 km/h. Autrement dit, parcourir chaque kilomètre en deux minutes et cinquante secondes.

Pour parvenir à cette prouesse, Yannis Pitsladis souhaite s’entourer d’experts spécialistes de domaines multiples : nutrition, bioénergie, biomécanique, génétique, entraînement physique, efficacité et stratégie de course, médecine du sport, physiothérapie, développement de nouveaux textiles, utilisation de données et des satellites…

Nutrition, endurance, génétique et autres recherches

Pour obtenir son marathonien « parfait », Yannis Pitsladis s’intéresse au régime alimentaire quotidien, post-entraînement et pré-course (notamment concernant les substrats énergétiques – protéines, glucides), ainsi que le timing optimal pour le suivre. Le professeur veut également étudier les stratégies d’apport en liquides et glucides durant la course. Et les adapter en fonction des conditions thermiques ambiantes, suivies en temps réel par satellites et par capteurs au sol.

Concernant l’endurance, il étudiera le taux maximum d’oxygène (VO2 max) qu’un athlète peut envoyer à ses muscles durant l’effort et le taux de VO2 max qu’il peut maintenir sans trop puiser dans ses réserves. Il explorera l’influence de la taille et des particularités physiques des coureurs, modélisera la mécanique de course et les forces avec lesquelles ils battent le pavé… Pour apprendre à réguler sa température lors de l’effort et améliorer l’économie de course, c’est-à-dire optimiser l’énergie nécessaire pour courir.

Par ailleurs, il s’intéressera aux technologies « omiques » – génomique, transcriptomique, métabolomique, protéomique et épigénomique – notamment pour déterminer les influences génétiques sur la performance sportive et les prédispositions aux blessures. Les résultats permettront de concevoir un programme d’entraînement personnalisé basé sur la réponse des bio-marqueurs du coureur.

Pour passer la barre des 2h, le parcours et les conditions météorologiques devront être optimales. Ce record sera certainement obtenu à Berlin, au regard des six derniers records du monde enregistrés depuis 2003, tous dans la capitale allemande. Sur ce parcours très plat, il ne devra pas y avoir de vent et des températures proches des 15° C.

A la veille des JO de Rio, Yannis Pitsiladis est toujours à la recherche de 30 millions de dollars pour lancer concrètement SUB 2.

Pour information, voici l’évolution des records du monde de la distance depuis 1896.

Par Matthieu Combe, journaliste scientifique

Natation : des capteurs pour décrocher l’or

En natation, la forme du geste et la technicité de celui-ci sont tout aussi importants que la force nécessaire pour l’effectuer. Pour comprendre avec précision comment ces derniers sont effectués par les athlètes de haut niveau, des ingénieurs de BMW se sont associés à Nathan Adrian, trois fois médaillé d’or en sprint nage libre.

« Jusqu’à présent, on comptait sur l’œil averti du coach pour corriger nos mouvements et ajuster l’entraînement, explique Nathan Adrian dans l’article consacré à cette expérience et publié dans Popular Science. Désormais, l’analyse de vidéos est devenue un outil indispensable et je m’entraîne avec des capteurs sur le corps. »

De l’automobile au bassin

Les ingénieurs ont contribué à optimiser l’appareillage (capteurs, vidéos, logiciel) en travaillant sur sa portabilité. L’outil tient dans une valise et est exclusivement développé pour l’équipe de natation des États-Unis. Habituellement, ces spécialistes de la prévention des accidents automobiles veillent à améliorer les systèmes de sécurité embarqués dans les véhicules du groupe BMW. C’est donc une collaboration d’un nouveau genre à laquelle ils participent : programmer un logiciel qui va traquer, avec une grande précision, le moindre mouvement des champions.

Un algorithme pour l’occasion

Concrètement, des électrodes positionnées sur le corps de Nathan Adrian enregistraient les données lorsqu’il nageait, associées à une capture vidéo haute vitesse. Ces dernières étaient interprétées par un algorithme spécialement conçu pour l’occasion. « Enregistrer et traduire ces données étaient un exploit pour l’équipe composée d’ingénieurs, de designers et de programmeurs, raconte Peter Falt, directeur consultant chez BMW en Californie. Cela leur a permis de travailler dans des conditions difficiles et inhabituelles : capter des mouvements très rapides exécutés sous l’eau. »

Un entraînement high-tech et sur-mesure

Les données ont ainsi été interprétées en 2D et ont permis de disséquer les mouvements jusqu’à révéler une éventuelle courbure imparfaite des orteils d’un nageur. Pour les participants, ils obtiennent un décryptage à un niveau insoupçonné. Le pied du nageur n’a ainsi plus aucun secret. Et l’équipe de natation américaine peut ainsi améliorer ses entraînements tant au niveau de l’intensité que de l’efficacité.

Focus sur le « dolphin kick »

Les analyses ont surtout permis de perfectionner le « dolphin kick », l’ondulation sous l’eau exécutée au départ de la course ou lors de la bascule en bout de couloir. Maintenant, les entraîneurs peuvent modéliser le « dolphin kick » notamment lorsqu’il est parfaitement exécuté par Nathan Adrian pour ensuite enseigner la technique en détails avec images à l’appui aux autres membres de l’équipe. « Cette technologie me permet de voir concrètement les différences d’angle de ma colonne vertébrale, précise le champion. Je peux ainsi comparer mes mouvements à ceux de mes adversaires. »

Pour les entraîneurs, l’outil est un atout majeur : il offre un système d’évaluation précis de la performance de chaque athlète. Les séances peuvent être ciblées selon les besoins de chacun et une stratégie peut être mise en place pour tenter de battre des records. L’équipe souhaiterait, dans un avenir plus ou moins proche, une technologie en temps réel qui filmerait, enregistrerait et analyserait les données et les enverrait sur une tablette en simultané du nageur qui nage dans le bassin, permettant à l’entraîneur de corriger les mouvements en direct.

Sophie Hoguin

Porter des baskets peut entraver la course à pied

Les adeptes du « barefoot running », littéralement la course à pieds nus, vont se réjouir de la nouvelle : une récente étude montre que le pied contenu dans une chaussure perd de son effet ressort lors d’un footing. Cependant, les scientifiques sont plus nuancés quant aux bénéfices d’une pratique au détriment de l’autre et leur étude révèle également que les muscles travaillent davantage lorsque les pieds sont chaussés.

Seize cobayes sur tapis

Pour arriver à une telle conclusion, les chercheurs de l’université du Queensland, en Australie, ont comparé la foulée sur un tapis de course de 16 personnes, tantôt chaussées, tantôt pieds nus. En plaçant des électrodes sur les pieds et les jambes des sujets, ils ont pu mesurer différents indicateurs comme la contraction musculaire, l’amplitude de la voûte plantaire, l’angle de la cheville, etc.

Une sur-sollicitation des muscles

Même s’il paraît évident que les chaussures influencent la fonction mécanique du pied, les résultats observés ont néanmoins permis d’infirmer l’hypothèse selon laquelle les muscles du pied seraient moins sollicités, donc plus « fainéants » dans une chaussure. Au contraire. « Nous avons observé une augmentation de la contraction des muscles intrinsèques du pied lors de l’exécution d’une foulée avec des chaussures, renseignent les scientifiques. Parallèlement, nous avons aussi constaté une réduction de la compression du pied. » Autrement dit, une plus faible restitution de l’énergie emmagasinée par le pied, donc un effet ressort amoindri, contrairement aux mêmes gestes effectués pieds nus.

Chaussures minimalistes : une mode ?

Dernièrement, on a même vu une alternative se développer : les chaussures minimalistes. A cheval entre les pieds nus et les chaussures de course, elles disposent d’une très fine semelle souple, sans rehaussement au niveau du talon, ressemblant davantage à une paire de chaussettes et qui permettraient selon les pratiquants de retrouver la sensation de la course à pieds nus en diminuant l’amorti. Ainsi, on serait plus « connecté » au sol et on se rapprocherait de la course de nos ancêtres. Mais attention, quel que soit le choix, pieds nus ou chaussures minimalistes, les sensations sont différentes et la pose du pied requiert une certaine technicité.

Un débat encore discuté

Certains scientifiques spécialisés en biomécanique et en évolution préconisent ce type de course, arguant un nombre de blessures plus élevés à long terme chez les coureurs chaussés. C’est le cas du Dr Daniel Lieberman, professeur en évolution humaine à l’université de Harvard, aux Etats-Unis, qui tient même un blog sur le sujet. Mais des podologues s’insurgent dénonçant un effet de mode et pointant de nombreux risques possibles de blessures pour les coureurs nus pieds. Cette étude apporte des données supplémentaires mais ne tranche pas le débat.

Les industriels continuent de chercher

En attendant, ingénieurs et industriels réfléchissent à la « basket » du futur, celle qui améliorerait les performances voire même qui transformerait un débutant en professionnel. Pour l’heure, les records s’obtiennent en grande majorité par des athlètes chaussés. On se souvient néanmoins de Zola Budd, coureuse de fond sud-africaine qui pulvérisa les records du monde dans les années 1980 en courant pieds nus. Ou encore du marathonien éthiopien, Abebe Bikila, dans les années 1960, qui fit plusieurs fois sensation, toujours sans chaussures.

Sophie Hoguin

Les capteurs de Mac Lloyd scrutent les performances des sportifs

Qu’ils soient rugbymen, footballeurs ou basketteurs, les sportifs professionnels consentent maintenant à s’alourdir de quelques dizaines de grammes, dans l’espoir d’améliorer leurs performances individuelles et de préserver leur santé. Ils portent ainsi des capteurs qui mesurent leurs paramètres physiques – position, accélération… – et physiologiques – rythme cardiaque, fréquence respiratoire… – et qui les transmettent à des logiciels d’analyse. La microélectronique et l’informatique sont devenues des «assistants coachs» presque indispensables pour augmenter les chances d’aller chercher la victoire.

Mac Lloyd, start-up française comme son nom ne le suggère pas, est fournisseur de telles solutions depuis 2013, date de sa création. Par passion, et aussi par opportunisme. «Nous avons rencontré de manière fortuite un membre de l’encadrement de l’équipe de France de football, se rappelle Emmanuel de La Tour, directeur général et cofondateur de Mac Lloyd. Selon cette personne, beaucoup de choses restaient à accomplir. Grâce à son carnet d’adresses, nous avons pu discuter des besoins avec des professionnels. Notre approche, c’était l’analyse des données. Mais nous nous sommes aperçus qu’il y avait peu de données exploitables. D’où l’idée de concevoir un capteur qui produit ces données.»

GPS et accéléromètre

Ce concept avait émergé quelques années auparavant. «En Australie, les équipes de foot et de rugby ont commencé à s’équiper vers la fin des années 2000, précise Emmanuel de La Tour. Ce pays a été le berceau de ces technologies et, du reste, le leader mondial, Catapult, est australien.» Mac Lloyd, dont le procédé vise essentiellement les sports collectifs, s’est tournée d’abord vers le marché intérieur mais ses ambitions vont au-delà. «Nous équipons par exemple plus de la moitié des clubs du Top 14 (l’élite du championnat français de rugby, NDLR), enchaîne-t-il. Mais avec l’aide de notre dernière levée de fond d’un million d’euros, nous comptons nous développer à l’étranger.»

Le système de Mac Lloyd peut être loué 30 000 €/an ou acheté, entre 50 000 et 100 000 €. Il fonctionne sur la base d’un petit boîtier, d’un textile, d’une antenne mobile et d’un logiciel. «Le capteur ne pèse qu’une quarantaine de grammes et c’est le plus petit du marché, décrit Emmanuel de La Tour. Le confort, quand ce capteur est porté en match, est en effet un enjeu important. Ce boîtier, qui bénéficie d’une autonomie de 8 heures, renferme un récepteur GPS/Glonass et un accéléromètre à 9 axes. Les données du GPS et celles de l’accéléromètre sont croisées afin d’améliorer la précision de la localisation, de l’ordre de quelques dizaines de centimètres. De nombreuses autres informations sont déduites, comme la durée des appuis au sol, les déséquilibres… L’objectif est autant d’améliorer les performances que de prévenir les risques de blessure.»

Mille données par seconde et par joueur

Ce capteur, logé entre les épaules de l’athlète, se glisse dans un textile lui aussi high tech. «Celui-ci mesure les battements de cœur, l’état de stress, de fatigue… Plus tard, il pourra détecter la transpiration grâce à l’ajout de composants adaptés, de moins en moins chers, poursuit Emmanuel de La Tour. L’antenne réceptionne les données sur les bandes de fréquence libre 868 MHz, 2,4 et 5 GHz. Nous avons fourni un gros travail pour perfectionner la qualité de la transmission radio, quelque 1000 données par joueur étant récupérées toutes les secondes. Ces données, qui ont subi un premier traitement dans le capteur, sont ensuite analysées par notre logiciel Sport Tracking, assorti de plus de 150 algorithmes temps réel.» Ces algorithmes ont été concoctés par le cofondateur Pierre-Arnaud Coquelin, docteur en mathématiques appliquées.

Les entraîneurs ont ainsi la possibilité de surveiller la condition physique des joueurs et de superviser leurs performances. Et même davantage… «C’est aussi un moyen de manager et de motiver les sportifs» confie Emmanuel de La Tour. L’outil a convaincu les équipes françaises de triathlon et d’aviron, qui l’emploieront lors de leur préparation (l’utilisation est interdite en compétition) aux prochains Jeux Olympiques. Les aidera-t-il à récolter des médailles ?

Frédéric Monflier