L’ombre des pirates sur les élections ?

Pour truquer une élection, le « bourrage des urnes » est connu. Mais ce grand classique de la fraude semble aujourd’hui désuet à l’heure d’internet et de l’hyper connexion. Le résultat d’une élection se joue-t-il à distance, via l’Internet ? C’est ce qu’affirme l’administration d’Obama. Selon les services de sécurité américains, les Russes ont « misé » sur Trump en lançant l’opération Grizzly Steppe.

L’objectif de cette attaque informatique aurait consisté à pirater le parti démocrate afin de faire « fuiter » (à destination de WikiLeaks) des documents échangés par emails par John Podesta. Les courriers électroniques du chef de campagne d’Hillary Clinton font mention notamment de trois discours de l’ex-secrétaire d’État rémunérés par la banque Goldman Sachs et mettant ainsi en lumière ses liens avec Wall Street.

Cette opération aurait été menée par un groupe de pirates russes appelé APT29. Il aurait envoyé des emails contenant des liens malveillants à plus de 1 000 destinataires. Évidemment, des personnes ont cliqué sur ces adresses, ce qui a entraîné une infection et une prise de contrôle à distance de leur ordinateur.

Mais est-ce la réalité ? « Les preuves présentées par les Américains sont un rapport de 13 pages, dont 5 qui concernent des méthodes d’attaques utilisées par de nombreux groupes de cybercriminels et 8 qui ne servent à rien. Finalement, on n‘a pas la preuve formelle de cette attribution. C’est le problème du cyberespace : il est très facile de masquer ses traces ou d’utiliser les outils d’attaques des autres », a rappelé fort justement sur BFMTV Gérôme Billois, Cybersecurity Senior Manager chez Wavestone, un cabinet de conseil, notamment en sécurité informatique.

Rien ne dit que ces fuites ont influencé les grands électeurs américains. En réalité, la menace est ailleurs. Elle se trouve principalement dans les machines à voter. Il existe plus de 50 modèles différents aux États-Unis. Et selon les chercheurs de l’université du Michigan, spécialistes du vote électronique, ils sont tous piratables ! Un constat confirmé d’ailleurs fin décembre en Allemagne lors du Chaos Computer Congress, grand-messe des hackers.

Pour rassurer les électeurs, les fabricants de ces appareils exposent un mauvais argument : ils ne sont pas connectés à Internet. Mais l’on sait depuis longtemps qu’il est possible d’infecter une machine sans liaison. Par ailleurs, une carte mémoire contenant les paramètres du vote est insérée dans chaque machine avant chaque scrutin. Or, les ordinateurs qui les configurent sont fréquemment raccordés à Internet…

Par Philippe Richard

Premiers signes de l’étrange propriété quantique du vide ?

L’analyse, au moyen du Very Large Telescope de l’ESO, de la lumière émise par une étoile à neutrons caractérisée par une extrême densité et un puissant champ magnétique, a peut-être conduit une équipe d’astronomes à mettre en évidence les toutes premières preuves de l’existence d’un étrange effet quantique, envisagée au cours des années 1930. La polarisation de la lumière observée suggère que l’espace vide situé en périphérie de l’étoile à neutrons est l’objet d’un effet quantique baptisé biréfringence du vide.

Une équipe pilotée par Roberto Mignani de l’INAF Milan (Italie) et de l’Université de Zielona Gora (Pologne) a utilisé le Very Large Telescope (VLT) de l’ESO installé à l’Observatoire de Paranal au Chili pour observer l’étoile à neutrons RX J1856.5-3754 distante de quelque 400 années-lumière de la Terre.

Bien qu’elle figure parmi les étoiles à neutrons les plus proches de la Terre, RX J1856.5-3754 se caractérise par une luminosité extrêmement faible. Pour pouvoir observer cette étoile dans le domaine visible, les astronomes ont donc été contraints d’utiliser l’instrument FORS2 qui équipe le VLT, poussant le télescope à sa limite technologique.

Les étoiles à neutrons constituent les vestiges des noyaux extrêmement denses d’étoiles massives – de masse supérieure à 10 masses solaires – qui ont explosé en supernovae à la fin de leur vie. Elles sont par ailleurs dotées de champs magnétiques extrêmes, des milliards de fois plus puissants que celui du Soleil, qui transpercent leur enveloppe externe et baignent leur environnement proche.

Du fait de leur intensité, ces champs affectent les propriétés de l’espace vide situé en périphérie de l’étoile. En règle générale, le terme vide désigne un espace totalement vierge, que la lumière peut traverser sans subir la moindre perturbation. En électrodynamique quantique (QED) toutefois, cette théorie quantique qui décrit l’interaction entre particules de lumière et corpuscules chargés tels les électrons, l’espace est rempli de particules virtuelles qui apparaissent et disparaissent à chaque instant. Les champs magnétiques très intenses sont susceptibles de modifier cet espace, et donc de modifier la polarisation de la lumière qui le traverse.

Mignani de préciser : “Selon la QED, un vide fortement magnétisé se comporte à l’image d’un prisme vis à vis de la propagation de la lumière, et produit un effet baptisé biréfringence du vide.”

La QED a donné lieu à la formulation de nombreuses hypothèses qui se sont avérées exactes. Toutefois, le concept de biréfringence du vide n’a pour l’instant pas trouvé le moindre écho expérimental. Les expériences de laboratoire menées ces 80 dernières années – depuis sa formulation au sein d’un article co-signé par Werner Heisenberg (auteur du célèbre principe d’incertitude) et Hans Heinrich Euler – n’ont effectivement pas permis de le mettre en évidence.

“Cet effet ne se manifeste qu’en présence de champs magnétiques extrêmement puissants, tels ceux qui règnent en périphérie d’étoiles à neutrons. Ce qui témoigne, là encore, des formidables laboratoires d’étude des lois fondamentales de la nature que constituent les étoiles à neutrons” précise Roberto Turolla (Université de Padoue, Italie).

Après avoir effectué l’analyse minutieuse des données du VLT, Mignani et son équipe ont détecté un effet de polarisation linéaire – d’environ 16%, ce qui est significatif – qu’ils ont interprété comme la résultante directe de la biréfringence du vide qui se produit au sein de l’espace vide situé en périphérie de RX J1856.5-3754 [2].

Vincenzo Testa (INAF Rome, Italie) d’ajouter : “Il s’agit de l’objet le plus faiblement lumineux dont la polarisation du rayonnement qu’il émet a jamais été mesurée. Cette mesure a requis l’utilisation de l’un des télescopes les plus grands et les plus performants au monde, le VLT, ainsi que l’emploi de techniques d’analyses de données très précises, capables d’amplifier le signal en provenance d’une étoile si peu brillante.”

“Nos modèles ne peuvent rendre compte de la polarisation linéaire élevée que nous avons mesurée au moyen du VLT, qu’à la condition d’y inclure les effets de biréfringence du vide prédits par la QED”, précise Mignani.

“Cette étude réalisée avec le VLT apporte le tout premier élément de preuve observationnelle en faveur de ces types d’effets QED censés se produire au sein de champs magnétiques extrêmement puissants” ajoute Silvia Zane (UCL/MSSL, Royaume Uni).

Mignani est enthousiaste à l’idée que la prochaine génération de télescopes contribue à des avancées dans ce domaine de recherche : “Les mesures de polarisation effectuées au moyen de télescopes plus perfectionnés, tel l’E-ELT, l’European Extremely Large Telescope de l’ESO, pourraient permettre de tester les prédictions de la QED relatives aux effets de la biréfringence du vide dans la périphérie d’un plus grand nombre d’étoiles à neutrons”.

“Cette mesure, effectuée pour la toute première fois en lumière visible, ouvre la voie à de semblables détections dans le domaine des rayons X”, conclut Kinwah Wu (UCL/MSSL, Royaume-Uni).

Notes

[1] Cet objet fait partie intégrante d’un ensemble d’étoiles à neutrons baptisé Les Sept Magnifiques. Ce sont des étoiles à neutrons isolées (INS), dépourvues de tout compagnon stellaire, qui n’émettent aucun rayonnement radio (à la différence des pulsars) et ne sont pas environnées de matière issue d’une supernova.

[2] D’autres processus peuvent polariser la lumière stellaire au cours de son déplacement. L’équipe a soigneusement examiné ces autres hypothèses – la polarisation résultant de la diffusion par les grains de poussière par exemple – avant de les éliminer une à une, aucune d’elles ne leur apparaissant susceptible d’avoir généré le signal observé.

Plus d’informations

Ce travail de recherche a fait l’objet d’un article intitulé “Evidence for vacuum birefringence from the first optical polarimetry measurement of the isolated neutron star RX J1856.5−3754”, par R. Mignani et al., à paraître au sein de la revue Monthly Notices of the Royal Astronomical Society.

Source : eso

Piratage des appareils médicaux : panique au bloc

Jusqu’à présent, les rappels organisés par les industriels ou les distributeurs concernaient des anomalies dans le fonctionnement d’un appareil ou d’une voiture ou la détection de traces suspectes (comme des bouts de métal dans des boites de conserve). Il faut maintenant s’habituer aux rappels à propos de failles de sécurité dans les équipements médicaux !

La réalité a rejoint la fiction. Dans la série Homeland, le vice-président Walden est assassiné à distance au moyen de son pacemaker déréglé par un pirate. Cette attaque n’est pas un délire de scénariste ; comme la majorité des appareils connectés, ce type d’équipement intègre un faible niveau de sécurité, voire une absence totale de mécanismes de protection.

Fin décembre, le laboratoire pharmaceutique Johnson&Johnson est entré en contact avec 114 000 patients aux États-Unis et au Canada. L’un de leurs modèles de pompe à insuline présente une vulnérabilité. Exploitée malicieusement, elle permet d’injecter une dose potentiellement mortelle pour son porteur.

Cet exemple n’est pas unique. Depuis quelques mois, les révélations sur les vulnérabilités de ces équipements se multiplient. Jay Radcliffe, chercheur en sécurité chez Rapid7, lui-même diabétique, a par exemple démontré que le flux de connexion de sa pompe à insuline n’était pas chiffré. En clair, cela signifie qu’il peut être intercepté pour y injecter des données altérées.

Face à ces menaces, la FDA (Food and Drug Administration) a commencé à prendre des mesures drastiques dès 2015. A cette époque, elle avait ordonné le retrait du marché des pompes à perfusion Symbiq de l’américain Hospira. Raccordées en wi-fi, elles pouvaient être modifiées à distance. Pas de cas identique en France. Mais la Haute Autorité de Santé (HAS) a publié un guide de 101 bonnes pratiques afin de concevoir des objets connectés médicaux plus sûrs.

Ce guide est d’autant plus important que la menace concerne aussi les équipements hospitaliers comme les scanners et les IRM qui sont aujourd’hui raccordés au web ou à des réseaux. Comme un PC, ils peuvent donc être infectés par un code malveillant via une liaison internet ou une clé USB. La situation commence à être prise au sérieux par les autorités et les fabricants car le nombre d’incidents déclarés volontairement par les établissements s’est élevé à 1300 en 2015. Mais à la différence de l’informatique de bureau, la problématique est plus compliquée à gérer. « Si un client applique une modification d’un tel système comme la mise en place d’un correctif, cela entraîne la perte d’agrément de santé », signale Philippe Loudenot, Fonctionnaire de sécurité des systèmes d’information au ministère des Affaires sociales.

Philippe Richard

Corps humain : un nouvel organe entre dans le dictionnaire

Dans un article publié dans la revue Lancet Gastroenterology & Hepatology*, une équipe de scientifiques de l’université de Limerick (Irlande), menée par J. Calvin Coffey, a en effet montré que le mésentère est en fait une structure continue et délimitée.

Qu’est-ce que le mésentère ?

Le mésentère est une membrane qui fait la jonction entre les intestins et la partie postérieure du péritoine (paroi abdominale). Cette membrane crée une sorte de tube qui abrite notamment les artères et les nerfs assurant vascularisation et innervation des intestins. Le mésentère joue aussi le rôle de maintien des intestins à leur place et dans une conformation optimale. Selon la section de l’intestin considérée sa largeur et son épaisseur sont variables. Si fin et si collé à la paroi intestinale sur certaines portions que l’on a cru qu’il était compartimenté en plusieurs structures distinctes.
Sa continuité a pu être prouvée grâce à des opérations de chirurgie (excision totale de certaines parties de l’intestin) ou sur des études post-mortem.

Un nouvel organe et alors ?

Le fait de prouver la continuité de cette structure et de le classer comme nouvel organe va changer le regard que la médecine et la recherche médicale porte sur le mésentère. Car on étudie les organes pour les fonctions particulières qu’ils assument et du coup les mal-fonctions ou les maladies qui leur sont propres. L’article du Lancet liste certaines de ces pathologies pour lesquelles un nouvel angle d’attaque pourrait voir le jour: outre les pathologies primaires du mésentère comme les défauts de rotation de l’intestin, les volvulus (torsion d’une anse de l’intestin), les hernies intestinales (dues à une absence du mésentère) etc., l’article suggère par exemple, que la maladie de Crohn pourrait provenir d’une pathologie touchant d’abord le mésentère et s’étendant à l’intestin et non l’inverse. En conclusion, les chercheurs soulignent que le rôle du mésentère est aujourd’hui largement méconnu dans les systèmes lymphatiques, neurologiques, vasculaires pour lesquels il occupe une place centrale. Il reste donc à étudier les propriétés des cellules qui lui sont propres et le rôle qu’elles peuvent jouer par exemple dans les phénomènes inflammatoires par régulation des protéines C-réactives.

Par Sophie Hoguin

*Volume 1, No. 3, p238–247, November 2016

La route solaire suscite l’indignation de riverains en Normandie

Durant l’émission « Energie: comment passer de l’atome au renouvelable ? » (ça vous regarde, LCP), le journaliste Arnaud Ardoin a posé cette question: « on bloque autant qu’on peut le développement des renouvelables en France ? ». « Mais bien sûr » répond Corinne Lepage.

« Par quels biais ? » Réponse de l’ex-Ministre de l’environnement (Minute 19’10 » de la vidéo): « Une règlementation absolument impossible. Madame Royale a inauguré (le 22-12-2016 NDLR) une route solaire, avec une communication d’enfer autour de ce truc là. Je pense que c’est typiquement une fausse bonne idée. Pourquoi ? Parce qu’on a dépensé beaucoup d’argent pour faire cela. Cela rapporte finalement assez peu de kWh, on en prévoyait 17000 il va y en avoir 500 ou 700. Cela va concerner 50 maisons, on a dépensé 5 millions pour faire cela, c’est affreusement cher et pendant ce temps là vous ou moi si l’on veut faire un toit solaire c’est extrêmement compliqué. Et le gouvernement refuse de permettre que cela soit aux individus, aux entreprises  ou aux collectivités locales d’investir massivement sur le renouvelable et l’autonomie énergétique. »

Les critiques les plus dures viennent du terrain: « C’est infect ! » tonne un riverain de la route solaire de Tourouvre dans un reportage LCI intitulé: « la route solaire: un coup de com ? »«Notamment à cause du bruit » explique une journaliste de LCI. Mais peut-être pas que…

En savoir plus :
Dossier – La Route (solaire) du Rhum

Olivier Daniélo

Le 100% Renouvelable est possible pour la région PACA dès 2030 selon ENGIE. Et cela coûtera 20% moins cher

Dans le cadre d’une interview pour Bloomberg publiée le 20 décembre 2016, Thierry Lepercq, Directeur Général adjoint du géant français, en charge de la Recherche & Technologie et de l’Innovation, a déclaré qu’« en France Engie a récemment conduit une étude de modélisation très approfondie (« very deep modeling ») de la région Provence-Alpes-Côte d’Azur où vivent 5 millions de personnes, montrant qu’elle peut fonctionner entièrement avec les énergies renouvelables dès 2030, ceci à un coût 20% moins élevé que le système énergétique actuel » dominé aux trois quarts par le nucléaire d’ancienne génération.

« Le solaire, l’éolien, le biogaz, les batteries à grand échelle et l’hydrogène seront des éléments clés » a ajouté Thierry Lepercq.

Lepercq a par ailleurs dressé un tableau à la fois lucide et enthousiasmant pour le futur de l’Humanité: dans les régions très ensoleillées de la planète le coût du photovoltaïque pourrait  en 2025 passer en dessous de 1 cent le kWh (1 US cent = 0,95 centimes d’€). Autrement dit moins de 10 dollars le MWh.

« Le solaire, le stockage batterie, les véhicules électriques à batterie ou hydrogène ainsi que les objets connectés sont dans une courbe en « J ». » En conséquence ce dirigeant estime que le prix du baril de pétrole pourrait s’effondrer à 10 dollars si le marché anticipe une baisse significative de la demande ». Pour Lepercq « la promesse d’une énergie quasi-infinie et gratuite est là ». 

Des chercheurs finlandais ont mis en ligne un outil pédagogique (Global Internet of Energy Model) montrant que le 100% renouvelable est possible partout sur Terre. Les chercheurs soulignent que leur objectif est de «  débunker les mythes sur les énergies renouvelables » colportés par les défenseurs des énergies non durables.

Vers un pétrole photovoltaïque

L’électricité solaro-éolienne peut servir à alimenter l’électrolyse de l’eau en dihydrogène. Ce dernier permet ahors d’obtenir du CH4 par méthanation. Contacté par Techniques-ingénieur.fr le chercheur Christian Breyer, professeur de « Solar Economy » au sein du MIT finlandais, la Lappeenranta University of Technology, a déclaré que  « l’électricité solaire et éolienne peut tout à fait alimenter les transports aériens et maritimes longue distance ».  Une concrétisation de la vision Solar Impulse du psychothérapeute suisse Bertrand Piccard.

En Novembre 2016 Breyer a co-publié une étude montrant que l’Europe pourrait alors mettre en place une coopération fructueuse dans le domaine du pétrole solaire, de type win-win, avec les pays d’Afrique du nord, du Maroc à l’Egypte. C’est la vision DESERTEC, mais sans les difficultés d’ordre géostratégique que pose la construction d’un grand réseau électrique HVDC sous-marin.

Si le prix de l’électricité tombe en dessous de 1 centime dès 2025 les pays très ensoleillés de la planète pourraient devenir les nouveaux rois du pétrole. Un pétrole qui sera disponible pour les 5000 millions d’années à venir. Ce qui est assez satisfaisant dans une perspective de durabilité.

Par Olivier Daniélo

Expérience#10: « Lâcher prise et finitude »

Le lâcher prise est une démarche difficile car elle nous confronte au sentiment de finitude. En effet, cette attitude consiste à décider d’arrêter de vouloir tout contrôler. Lâcher prise ne veut pas dire renoncer mais se libérer de contraintes excessives. Il ne s’agit pas d’une faiblesse mais au contraire d’une confiance en sa capacité à faire face et à s’ajuster en temps réel.

Voici deux exemples illustrant le lâcher prise en milieu professionnel.

1) Arrêter de vouloir devenir quelqu’un d’autre

Lionel, responsable adjoint du service client, aime se définir comme un manager humaniste. Il accorde un grand soin aux relations interpersonnelles avec ses collaborateurs du service clients, et entretient un climat de saine émulation avec les membres de son équipe.

Il décrit Natacha, son manager, comme une experte volcanique, plutôt expéditive et autoritaire. Lionel admire Natacha pour ses grandes compétences et aussi, il l’avoue, pour son caractère trempé. Le problème c’est la quantité de reproches que cette dernière adresse à Lionel au sujet de sa « familiarité » vis-à-vis des collaborateurs. Avec toute cette brutalité qui la caractérise, et sans y mettre les formes, il arrive même à Natacha de désavouer publiquement certaines options managériales de Lionel. Elle juge notamment « trop amicale » sa manière de traiter les conflits au sein du service.

Lionel a toujours su tenir ses objectifs et ses entretiens annuels ont toujours récompensé sa loyauté, et la qualité de ses compétences professionnelles. Bien que ses opinions, sur l’inefficacité du coaching semblent bien arrêtées, Natacha -pragmatique- a quand même fini par accepter d’accorder à Lionel le support d’un accompagnement individuel afin de l’aider à « tremper » son management. « Après tout certains placebos – comme l’homéopathie- peuvent produire des résultats ; alors pourquoi pas un coaching » a-t-elle ébruité pour couvrir sa décision.

Au cours de ses entretiens de coaching, Lionel prend conscience que la relation qu’il a laissé se développer avec Natacha lui a fait perdre confiance en lui. Il prend également conscience que sa nature humaniste est en ligne avec ses valeurs profondes. Cette observation renforce, à ses yeux, la légitimité de son style managérial.

Il se rend compte qu’il ne pourra pas donner satisfaction à Natacha : Il ne peut, ni ne veut, « durcir » son management. Au contraire, pour améliorer son impact managérial sur les autres, il comprend qu’il doit cesser de vouloir ressembler à Natacha mais au contraire, permettre davantage l’expression de son propre style managérial. Lionel estime que la réussite du projet de développement de son propre style managérial nécessite un investissement personnel incompatible avec la relation installée entre lui et sa responsable.

Pour se protéger désormais de ce qu’il identifie comme une forme de toxicité, Lionel prend alors une décision courageuse et une décision audacieuse :

  1. Il choisit de renoncer au confort de sa fonction actuelle, parfaitement maitrisée, au sein du service client.
  2. Il se lance de nouveaux défis et se porte candidat pour d’autres postes managériaux ouverts au sein de sa société.

Il est à la fois soulagé et fier de la manière avec laquelle il a réussi à traverser sa dévalorisante relation avec Natacha. En acceptant de se concentrer sur le projet de devenir ce qu’il est, Lionel s’est engagé sur une autoroute de changements possibles ; il reprend confiance en lui.

2) Arrêter de vouloir contrôler son image

Martine exerce, en profession libérale, une activité professionnelle de services à la personne. Ambitieuse, consciencieuse, douée, débordant de bonnes idées, Martine souhaite donner une dimension plus industrielle à son activité et s’associe au projet de deux hommes d’affaires de son réseau professionnel. Elle engage ses biens personnels et obtient le financement dont elle a besoin auprès de sa banque pour l’intégration de sa petite société dans le groupe industriel de ses deux associés. Après 18 mois de pratique, Martine regrette déjà. Son affaire tourne assez bien, mais ses valeurs humanistes sont mises à mal. Les comportements de ses deux associés sont arrogants, insensibles, opportunistes, dénués de chaleur et semblent exclusivement motivés par la seule logique financière. Elle ne supporte plus de devoir chaque jour vivre en désaccord avec ses valeurs profondes et n’ose pas se confronter à ces deux associés hommes d’affaires, des « requins » comme elle les qualifie, de peur de paraître non-professionnelle. À l’issue de quelques séances de coaching, Martine s’autorise à s’accepter comme elle est, c’est-à-dire humaniste avant toute autre considération financière. Cet éclairage lui permet de lâcher son projet de développement. Elle rencontre ses deux associés et leur fait connaître sa décision de se désengager. En acceptant de lâcher son acharnement sur ce projet – où elle est pourtant patrimonialement engagée– Martine accède, à sa plus grande surprise, à une renégociation des conditions du partenariat avec ses associés qui ne veulent pas la voir partir. Cette renégociation lui laisse le champ beaucoup plus libre, elle intègre de nouveaux locaux, allège sa contribution aux charges financières du groupe de sociétés, et n’a plus à supporter les comportements de ces deux « machines à sous ». Ils la découvrent même si déterminée qu’ils la qualifient du titre peu enviable de « Martine Thatcher » … Sans doute une marque de respect ! Le lâcher prise de son acharnement à vouloir ressembler à une businesswoman aguerrie lui a permis de devenir davantage l’entrepreneur humaniste qu’elle est réellement. Un acharnement aveugle lui aurait probablement couté sa santé …et son âme.

  • Qu’en pensez-vous ? Ces deux exemples vous inspirent-ils ?
  • Quelles limites voyez-vous dans cette stratégie du lâcher prise ?
  • Cette attitude vous paraît-elle conciliable avec un management efficace ?

Nous vous invitons à prolonger cet article via la zone commentaire (ci-dessous), en nous proposant vos réponses aux problématiques évoquées par l’auteur

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas«
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management
  9. Expérience#9: « Licenciement : échéance de fin de moi »

CES de Las Vegas 2017 : une pédale de vélo qui mesure la puissance du cycliste

Les visiteurs du CES de Las Vegas, le rendez-vous mondial des acteurs de l’innovation dans les technologies numériques, pourront essayer trois démonstrateurs de technologies les plus avancées du CEA-Leti, institut de CEA Tech.

Push : une pédale de vélo intelligente

Push est la première pédale de vélo innovante qui mesure la puissance en divisant le coût par un facteur 10 par rapport aux systèmes actuels, le prix visé est moins de 100 $ : cette pédale est simple d’utilisation et  adaptable sur tout type de vélo (roulant ou fixe), elle mesure la force appliquée sur la pédale et la cadence de pédalage, puis les combine pour calculer et afficher la puissance du cycliste en temps réel. Une seule pédale Push fournit des mesures de puissance fiables et fonctionne quel que soit la face d’appui de la pédale. Le sportif amateur ou le professionnel du vélo peut ainsi suivre ses performances et améliorer sa technique de pédalage. Cette innovation rend accessible la mesure de la puissance et ouvre des champs d’applications nombreux (coaching, bien-être, gaming).

Quoi de neuf ?
Pédale Push présentée par le CEA-Leti au CES 2017
Pédale Push présentée par le CEA-Leti au CES 2017

Les capteurs de la pédale Push sont couplés à des algorithmes de fusion de données qui permettent une estimation de la puissance délivrée par le cycliste à 8 % près. Le dispositif intègre une communication sans fil  permettant de coupler la pédale à un smartphone. Sa faible consommation d’énergie permet une autonomie de plus 10 000 km sans recharge.

Pédale Push présentée par le CEA-Leti au CES 2017
Pédale Push présentée par le CEA-Leti au CES 2017

Relax : un casque pour mesurer l’état de relaxation

Relax est le casque qui présente le meilleur compromis entre simplicité d’utilisation et précision de la mesure de l’activité cérébrale. Il est très simple à installer ce qui le rend utilisable par tout le monde. Grâce aux informations fournies par le casque et son application sur smartphone ou tablette, l’utilisateur de Relax peut vérifier son état de relaxation. Dans le futur, la technologie pourra être adaptée aussi pour commander des applications informatiques comme la réalité virtuelle, les jeux vidéo, ou les systèmes d’assistance aux personnes en situation de handicap.

Quoi de neuf ?
Relax est le premier système de mesure de l’activité cérébrale par électroencéphalographie (EGG) fonctionnant avec des électrodes sèches (sans gel de contact). Il a vocation à constituer un nouveau standard pour développer et diffuser des applications médicales (il est compatible avec les certifications médicales) et de confort ou de loisir.
casque relax
Casque Relax présenté par le CEA-Leti au CES 2017 © CEA
 Basé sur une technologie très innovante, Relax fonctionne sans gel de contact, et avec précision chez presque tous les individus (en fonction de la masse de cheveux et de l’épaisseur du cuir chevelu). Il mesure les ondes du cerveau mais n’interagit pas en retour sur l’organe. Sa mise en œuvre peut se faire à la maison comme au bureau, et ne nécessite pas un environnement médical.

Sigma Fusion : composant embarqué dans les véhicules autonomes

A bord d’un véhicule autonome, Sigma Fusion est un composant numérique embarqué capable d’interpréter les signaux d’une caméra stéréoscopique et de deux Lidars. En temps réel, il fournit au système de pilotage automatique de la voiture des données précises et fiables sur la position des obstacles et les espaces de sécurité autour de la voiture. Il peut également équiper des drones ou des dispositifs de surveillance, de secours ou de sécurité.

Quoi de neuf ?
Sigma Fusion consomme moins de 1 watt, il est donc 100 fois plus efficace que les systèmes équivalents actuellement disponibles. Il est compatible avec une large gamme de capteurs standards. De faible encombrement et de faible coût, il peut être mis en œuvre sur les chaines de production de tout type de véhicule.
Sigma-fusion-1.jpg
Détecteur d’obstacles pour la voiture autonome Sigma-Fusion présenté par le CEA-Leti au CES 2017 © CEA
Source : cea

Le taux de retour énergétique, une mesure de l’efficacité sociétale des sources d’énergie

Cette importance est manifeste si l’on rapporte l’évolution du PIB mondial depuis les années 1960 à la consommation d’énergie primaire, exprimée non pas en dollars, mais en quantité physique : en million de tonnes-équivalent pétrole (Mtep). On voit que le PIB, en réalité, peut être vu comme un proxy de la consommation d’énergie [1], et que la pente moyenne a été d’environ 7000 $/tep.

tableau1

Le formidable développement humain que les fossiles ont permis est dû à ce qu’ils décuplent les facultés de transformation de la matière. Un humain peut développer en une journée environ 0,5 kWh de travail, alors que la combustion d’un litre d’essence libère environ 10 kWh, et cela pour 1,5 € ! Il convient donc de mesurer, pour les sources d’énergie alternative aux fossiles, ce qu’elles sont capables de délivrer pour le développement des sociétés.

Le concept d’EROI (Energy return on [energy] invested), ou taux de retour énergétique, permet de quantifier les choses. Comme il faut de l’énergie pour en produire, ce qui est mis à disposition pour la société doit tenir compte de ce que le secteur énergétique lui-même consomme pour son propre fonctionnement. Désignons par Eout l’énergie produite, par Ein l’énergie investie pour cette production, l’EROI est défini par EROI = Eout/Ein. Il est intéressant d’introduire également, suivant Euan Mearns, l’énergie nette relative, (Eout-Ein)/Eout = 1- 1/EROI, et de la tracer en fonction de EROI. Voici ce qu’on obtient :

tableau2

Pour une valeur donnée de l’EROI, la partie rouge représente l’autoconsommation du secteur énergétique, et la partie bleue ce qui est reversé aux autres secteurs d’activité. On voit que tant que l’EROI est élevé, sa diminution éventuelle ne change pas vraiment le bilan, mais qu’en dessous d’environ 10, le fonctionnement normal de nos sociétés n’est plus assuré, car de moins en moins d’énergie, en pourcentage, est disponible pour la satisfaction de nos besoins. Précisons que les sociétés développées fonctionnent avec un EROI moyen supérieur à 20 [2].

Une question délicate et controversée, pour l’évaluation de l’EROI, concerne le périmètre à prendre en compte pour calculer l’énergie investie. Prenons l’exemple du pétrole. Ne prendre que l’énergie nécessaire à son extraction n’est pas satisfaisant, car le pétrole n’est intéressant que dans la mesure où il est une promesse d’essence. Pour que cette promesse se réalise, il faut transporter ce pétrole, le raffiner, transporter l’essence, le diesel ou le fioul obtenus jusqu’au réseau de distribution, lequel doit exister. Il convient également de tenir compte des salaires des personnels travaillant dans le domaine, car ces salaires ont une contrepartie énergétique consommée par les salariés.  Toutes ces étapes sont consommatrices d’énergie, et à chaque étape correspond une valeur de l’EROI. Tous ces coûts énergétiques pris en compte, ce qui reste peut enfin servir à différents besoins (mobilité, chauffage, industrie, agriculture, culture et loisirs). Cette problématique vaut évidemment quelle que soit la source d’énergie considérée.

Dans une étude remarquable publiée en 2013, Charles Hall et Pedro Prieto ont analysé les performances du photovoltaïque espagnol correspondant aux trois années de production 2009-2010-2011. L’intérêt de cette étude tient à son exhaustivité et à ce qu’il s’agit de données réelles (Pedro Prieto est un ingénieur qui a passé trente ans de sa vie à installer toute sorte de systèmes photovoltaïques). En effet, s’agissant de l’énergie produite Eout, toutes sortes d’effets viennent la réduire : les poussières, le mismatch de modules, les pertes angulaires, les effets de température, les pertes inverteurs, celles du circuit basse tension et de tension intermédiaire, les pertes d’évacuation du courant et de la dégradation temporelle des modules. Concernant l’énergie investie Ein, la fabrication des panneaux et leur installation ne représente qu’environ un tiers de la dépense énergétique, les deux autres tiers étant dus à des aspects souvent négligés mais bien réels : coûts énergétiques associés accès, fondations, canalisations, lignes d’évacuation, fonctionnement et maintenance, lavage et nettoyage, auto-consommation, surveillance et sécurité, transport du matériel et du personnel, vol et vandalisme, matériel défectueux, restructuration du réseau électrique,  lissage d’une production par nature variable, obsolescence prématurée, administration, travail direct et indirect, taxes, marketting… Hall et Prieto évaluent ainsi l’EROI du PV espagnol à 8,3 :1 lorsqu’ils restreignent au minimum le périmètre de l’énergie investie et négligent la plupart des pertes, et cette valeur tombe à 2,5 :1 lorsque tous les coûts énergétiques du secteur sont pris en compte !

C’est à cette étude que j’ai fait allusion dans une note postée sur mon blog de Mediapart, et c’est ce qui m’a valu les critiques d’Olivier Daniélo. Il me reproche de me fonder sur une étude dont les données sont obsolètes, dans un domaine où les progrès technologiques sont extrêmement rapides, au point qu’à l’échelle de 10 ans le bilan énergétique est à revoir totalement. Avant de voir ce qu’il en est exactement, remarquons tout de même qu’il est difficile d’analyser les données sur trois ans de parcs construits aujourd’hui, voire demain – causalité oblige – et que la durée de vie d’un parc est estimée à environ 25 ans. De ce point de vue, l’analyse de Hall et Prieto est toujours d’actualité aujourd’hui pour le parc espagnol. Les industriels se sont jetés tête baissée dans le photovoltaïque dans les années 2000 – assurés de faire des bénéfices grâce aux tarifs d’achat avantageux garantis – savaient-ils qu’ils installaient une source dont l’EROI était si bas ?

Olivier Daniélo se fonde sur une étude très intéressante de Rembrandt Koppelaar, de l’Imperial College London, dont le but est de « reproduire et d’harmoniser 29 études, et d’examiner l’influence de l’âge des données, du périmètre du système et des configurations technologiques » sur l’évaluation des performances du photovoltaïque. Trois conclusions saillantes de cette étude de 2016 : i) l’EROI « harmonisé » est de 8,6 :1 et 9,2 :1 pour les panneaux mono- et poly-cristallins, ii) les valeurs obtenues en utilisant les données postérieures à 2008 sont doubles de celles utilisant les données antérieures et iii) en tenant compte d’améliorations technologiques récentes, les valeurs passent à 9,7 :1 et 11,4 :1 respectivement, bien au dessus de la valeur de Hall et Prieto.

En quoi consiste cette « harmonisation » effectuée par Koppelaar ? Parmi les hypothèses qu’il utilise, citons : i) la production d’électricité a été recalculée en prenant comme donnée d’ensoleillement la valeur de 1700 kWh/m2/an, ii) l’énergie correspondant aux salaires et aux coûts d’investissement obtenue au moyen d’une conversion de l’intensité énergétique des économies a été ôtée des études qui l’ont prise en compte et iii) l’énergie investie dans les batteries, les services auxiliaires, la restructuration du réseau a été ôtée des études qui l’ont incorporée.

La première hypothèse est valable pour l’Espagne, mais elle surestime d’un facteur presque 2 l’ensoleillement en Allemagne, qui a installé environ 40 GW de PV, ou en Suisse. Passons sur ce point, qui n’est pas le plus important. La seconde hypothèse n’est pas justifiée. De quoi s’agit-il ? Dans le coût énergétique des panneaux, par exemple, est comptée la consommation énergétique des travailleurs qui les fabriquent (c’est implicite dans le salaire qu’ils reçoivent) : de quoi assurer leur métabolisme, celui de leur famille, leur transport, l’éducation de leurs enfants etc. Pourquoi ne pas tenir compte de celle des travailleurs qui opèrent et maintiennent les installations ? Une façon approchée de calculer ce coût est de partir de la consommation totale moyenne d’énergie par salarié, puis de tenir compte du nombre de salariés du secteur. Hall et Prieto obtiennent ainsi 5% de Eout. Ce n’est pas négligeable. Il n’y pas plus de raison de ne pas tenir compte, dans l’énergie … investie,  des coûts d’investissement ! La troisième hypothèse n’est valable que si la part du PV ne représente qu’une petite partie du mix électrique, mais elle ne l’est plus si l’on envisage un déploiement important de cette source d’énergie (par exemple, les scénarios 100 % renouvelables). Un réseau adapté pour une production centralisée ne l’est plus pour une multitude de producteurs décentralisés : les coûts énergétiques d’adaptation du réseau doivent être pris en compte. De plus, les réseaux électriques fonctionnent avec de la puissance garantie, pas avec de la puissance variable ou intermittente. Le pilotage de la demande peut prendre en charge une partie des fluctuations, mais certainement pas la totalité en cas de déploiement massif. Il faut donc disposer de puissance de back-up ou de stockage, dédiés au lissage de la production PV. Aujourd’hui, en Allemagne, ce back-up est assuré par les fossiles – charbon et lignite – mais si l’on prétend sortir des fossiles, le problème est entier.

Un rapport récent de la FNH envisage le stockage par batterie (page 51 du rapport). Mais les auteurs du rapport font une erreur grossière.

Ils commencent par remarquer que, d’après les experts, il faut de l’ordre de 350-400 kWh d’énergie pour « fabriquer » 1 kWh de batterie, ce qui, a priori, parait prohibitif. Mais, poursuivent-ils, ce kWh va être utilisé 4000 fois (nombre de cycles), voire le double (progrès). Le cout énergétique passera donc rapidement à 0,01 kWh pour 1 kWh stocké. Cela aura donc un effet négligeable sur l’EROI du PV.

L’erreur consiste à ne raisonner qu’en relatif (coût énergétique par kWh de stockage) sans évaluer le besoin total de stockage, en valeur absolue. Prenons le cas allemand. Nos voisins ont installé environ 40 GW de PV. Aujourd’hui, le back-up est fourni par les fossiles – charbon et lignite. Mais s’il s’agissait de batteries (pour sortir des fossiles), il faudrait pouvoir assurer une large fraction de cette puissance pendant une dizaine d’heures où le soleil est faible ou absent. Disons 20 GW pendant 10 heures, soit 200 GWh. Or l’énergie mondiale totale stockée dans les batteries est d’environ de 500 GWh !

Et je n’ai pas pris ici en compte les besoins de stockage associés à l’éolien. Dans ce cas, le besoin cumulé de stockage peut correspondre à un excédent ou un déficit de plusieurs jours, et une étude récente [3] indique, pour la France, un besoin de l’ordre de 10 TWh, pour un mix électrique renouvelable optimal (PV + éolien) correspondant à une réduction à 50 % de la part du nucléaire. Dix TWh, c’est  20 fois la capacité mondiale des batteries – pour un seul pays. On voit bien que cette technologie ne constituera jamais une solution pour du stockage massif.

Il est temps de conclure. Il ne fait aucun doute que la filière PV fait des progrès technologiques rapides, qu’elle continuera d’en faire, qui se traduiront par une augmentation de l’EROI de la filière. Je pense que c’est une très bonne chose, et que cette évolution est attendue car le photovoltaïque est loin d’être une technologie mature : d’importants progrès peuvent être encore accomplis.

Mais, d’une part, cela n’invalide en rien le besoin de caractériser les performances énergétiques d’installations faites dans un passé récent – car elles sont installées pour 25 ans. Fallait-il, d’ailleurs, en installer tant ? N’aurait-il pas mieux valu mettre l’accent sur la recherche et, en attendant de meilleures performance, développer le PV là où l’absence de réseau favorise l’auto-consommation ? La CSPE coûte aujourd’hui 7 milliards d’euros par an aux consommateurs français, elle augmente de 10 % par an, alors que les laboratoires, y compris ceux qui travaillent dans le solaire, se battent pour des budgets se chiffrant en millions d’euros.

Et, d’autre part, il est naïf – ou puéril, comme on veut – de gonfler les chiffres en restreignant le périmètre du calcul de l’énergie investie dans le secteur. Il convient de garder à l’esprit ce que l’EROI cherche à caractériser : la part du secteur énergétique – de tout le secteur énergétique – parmi l’ensemble des activités productrices de biens et de services. La discussion est parfois polluée, hélas, par des considérations idéologiques : toute analyse qui peut être perçue comme une critique du PV – ou de l’éolien – est immédiatement soupçonnée d’être une forme déguisée de promotion du nucléaire, même s’il ne s’agit que de faire un état des lieux. Pour ma part, cet état des lieux me conduit à penser qu’il est dangereux de décider de se passer du nucléaire, car c’est la seule source d’énergie peu chère capable de délivrer de grandes quantités d’énergie pilotable[4]. L’exemple allemand le confirme à contrario. La première économie européenne a dépensé plus de 300 milliards d’euros pour installer ces 15 dernières années environ 80 GW de PV et d’éolien, ne délivrant que 20 % de son électricité, à un prix du kWh double du prix français pour les particuliers, et en diminuant très peu ses émissions de gaz à effet de serre : le kWh produit en Allemagne émet 7 fois plus de CO2 que le kWh produit en France. Et c’est la nation qu’on donne en exemple de bonne conduite pour le climat ! Comprenne qui pourra.

Pour ma part, je pense qu’il est important de développer l’approche EROI auprès de tous ceux qui s’intéressent à l’énergie et à la substitution de sources décarbonées d’énergie aux sources fossiles. L’article de Koppelaar montre qu’il est urgent de définir des protocoles précis et unifiés du calcul de l’EROI, faute de quoi toutes les manipulations sont possibles et difficiles à démêler. C’est en ce sens que fut organisée au mois de mars dernier une session de l’Ecole des Houches, dont toutes les contributions sont accessibles – powerpoints et vidéos – sur le site Science-and-energy.org. D’autres initiatives similaires seront prises dans les prochains mois.

Par Jacques TreinerPhysicien, chercheur associé au LIED, Université Paris-Diderot

Dans les tribunes, les auteurs expriment un point de vue propre, qui n’est pas nécessairement celui de la rédaction.

[1] La pente de la courbe représente le « contenu énergétique du PIB » et augmente si l’ « efficacité énergétique » s’améliore. Ce genre d’évolution se voit si l’on fait une analyse détaillée pays par pays, mais on constate aussi que si l’on agrège mondialement les données, cette efficacité énergétique moyenne n’a pas changé en 50 ans.

[2] Cf., par exemple, la contribution de Jessica Lambert à l’Ecole des Houches du mois de mars 2016 : science-and-energy.org

[3] Intermittence des énergies renouvelables et mix électrique, D. Grand, C ; Lebrun et R. Vidil, Techniques de l’Ingénieur, 10/7/2015.

[4] Je précise ici que je n’ai jamais travaillé, ni de près ni de loin, dans le nucléaire français – ce qui ne m’empêche pas d’avoir beaucoup de respect pour les gens qui ont fait fonctionner un secteur essentiel pour le confort et le bien-être de tous, avec un sens du service public remarquable.

Transformation numérique : le rôle des cadres est-il en recomposition ?

La transformation numérique suscite plus d’envie que d’inquiétude : le pari d’une mutation favorable à l’entreprise et aux collaborateurs

87% des cadres et 95% des RH estiment que cette transformation a un impact global positif (dont respectivement 13% et 21% très positif). La mutation est pour les cadres synonyme et promesse d’efficacité, de surcroît de liberté par rapport aux contraintes de temps et de lieu (travail en mobilité, gestion autonome de son temps), de créativité encouragée et de temps travaillé recentré sur la valeur ajoutée (question ouverte, aucun item de réponse suggéré) : « Elle permet une meilleure qualité de travail et une économie de temps pour les tâches les moins intéressantes », « Cela transforme mon métier en le rendant plus performant et beaucoup plus fluide ».

Résolument optimistes, les cadres font le pari d’une transformation au bénéfice de leur entreprise et de leur quotidien professionnel.

– Plus de 8 sur 10 affirment que la plupart des effets de la transformation sont ou seront une bonne chose (dont 20% à 37% une très bonne chose) : information et communication au sein de l’entreprise, efficacité au travail, mais également nouvelles pratiques d’organisation et de formation, dont l’expérience est pourtant partielle et occasionnelle pour plus d’1 cadre sur 3.

– Le plébiscite pour l’horizontalité et le collaboratif est manifeste, de la part des cadres comme des RH. 86% des cadres affirment que la mise en place d’une organisation en mode projet est une bonne chose (dont 22% une très bonne chose).

– La comparaison des expériences alimente ce constat: un tiers à 48% des cadres qui évoluent dans une organisation pyramidale et hiérarchique jugent que ce modèle est défavorable à la performance de l’entreprise, la qualité des relations interpersonnelles, la circulation de l’information, la prise d’initiative personnelle, la créativité et l’innovation. Les RH sont beaucoup moins sévères, mais également beaucoup moins positifs que leurs alter ego travaillant dans des entreprises ayant fait le choix du mode projet (+ 6 à 14 points sur ces mêmes items, + 10 à +24 points parmi les cadres sur le total « L’organisation de mon entreprise en mode projet est très favorable ou plutôt favorable à … »). Bien que minoritaires, la transformation cristallise également des difficultés et des craintes pour 13% des cadres. Ils décrivent une déshumanisation des relations, une inflation des processus et une injonction à l’immédiateté.

– Si le rapport aux outils numériques n’est pas l’unique facteur explicatif des difficultés et craintes exprimées, leur maîtrise (objective ou perçue) a un impact mécanique sur la perception et l’expérience de cette transformation : 36% des cadres qui expriment le sentiment de ne pas être « à l’aise » avec les outils informatiques jugent que ces évolutions ont un impact négatif.

– Enfin, si ces cadres représentent une petite minorité de la population totale des cadres français (7%, contre 93% qui affirment se sentir à l’aise, dont 38% très à l’aise), leur accompagnement à l’acquisition de compétences numériques est sans aucun doute indispensable pour leur permettre d’évoluer au sein d’organisations en transformation. Leur identification est un enjeu majeur pour les entreprises : aucun critère sociodémographique objectif ne les caractérise (âge, niveau de diplôme, métier).

Au sein de ces organisations en transformation, le rôle des cadres est-il en recomposition ?

Encadrement, autonomie, expertise, organisation, mobilisation, transmission et prise de décision restent des marqueurs forts du rôle des cadres dans l’entreprise, quel que soit son mode d’organisation. Vecteur de la création de valeur dans les organisations, le cadre est garant de la qualité et de l’efficacité des interactions au sein de l’entreprise.

– 67% des cadres déclarent avoir une fonction d’encadrement, dont 44% avec un lien hiérarchique et 29% en mode projet (6% encadrent des équipes avec un lien hiérarchique ET, ponctuellement en mode projet, des collaborateurs avec lesquels ils n’entretiennent aucun lien hiérarchique). Mais ce sont près de 8 cadres sur 10 (soit 10 points de plus que les cadres affirmant avoir une fonction d’encadrement) qui considèrent avoir des missions d’encadrement : organisation du travail au sein d’une équipe et mobilisation des collaborateurs pour atteindre un objectif. 69% accompagnent également la montée en compétence des collaborateurs (sans écart significatif entre les encadrants en mode projet et avec un lien hiérarchique, l’organisation du travail n’ayant donc pas d’impact sur l’exercice de cette mission). L’exercice de cette fonction se fait, pour 61% des encadrants, sans avoir suivi une formation au management. 19% en ont bénéficié après avoir pris cette fonction. Seuls 22% ont suivi une formation dédiée à l’acquisition de la compétence managériale avant leur prise de fonction.

– 8 cadres sur 10 complètent ce portrait du cadre par l’expertise (83%, dont 42% pour lesquels c’est une mission prioritaire), la prise de décision et son application (78% dont 41% une mission prioritaire). A ces fonctions et missions dont l’importance pour les organisations est réaffirmée, la transformation en cours ajoute un impératif d’adaptabilité.

L’injonction à la polyvalence et l’apprentissage de nouveaux équilibres sont les principaux défis identifiés :

– Cadres et RH sont convaincus qu’un cadre en entreprise doit désormais d’abord faire preuve d’une grande polyvalence, avant le développement d’une expertise forte.

« Face à ces évolutions, c’est la nécessité d’être polyvalent dans la gestion des dossiers, du rôle d’encadrant. En fait, être une personne qui s’adapte en permanence pour en sortir la meilleure efficience. »

L’exigence d’adaptabilité est rendue nécessaire par la gestion quotidienne de différences ou de contradictions à concilier :
• temps long et temps court (interruptions fréquentes,
immédiateté de la réponse d’une part et réfl exion ou
projet de long terme d’autre part),
• expertise et polyvalence,
• horizontalité et verticalité (coexistence de la hiérarchie et du mode projet dans de nombreuses entreprises),
• pluridisciplinarité et « intergénérationnalité » des équipes.

Lire l’étude de l’Apec : Cadres et entreprises – étude des 50 ans.pdf

Notre vie quotidienne impactée par le piratage

Les habitants de San Francisco n’ont pas eu besoin de prendre leur voiture le 26 novembre. Ce jour-là, et durant tout le week-end, les tramways de la ville étaient gratuits. Ce n’était pas une promotion lancée par l’agence de transport, mais la conséquence d’une attaque informatique. Un code malveillant avait paralysé les ordinateurs gérant les tickets et le trafic. Objectif de cette « prise d’otage » numérique : récupérer une rançon de 73 000 dollars (réglable en bitcoins, une monnaie virtuelle, pour éviter de remonter jusqu’à la personne récupérant cette somme).

L’agence de transport ne l’a pas versée, car elle avait préféré utiliser les serveurs de secours qui contenaient des sauvegardes. Finalement, seul un quart des ordinateurs de l’infrastructure avaient été infectés (2 112 sur les 8 656 existants, selon Hoodline).

Quelques semaines plus tard, c’est au tour de l’opérateur Deutsche Telekom d’être visé par des pirates. Environ 900.000 foyers sur les 20 millions d’abonnés fixes avaient du mal à se connecter au web, à téléphoner et à regarder les chaînes de télévision avec leur box. Selon un porte-parole, il y a eu « une intervention extérieure sur les routeurs » : en clair, un logiciel malveillant rendait impossible la liaison du routeur avec le réseau de l’opérateur. Les pirates ont exploité une version dérivée du ver informatique Mirai, utilisé en octobre dernier pour paralyser l’activité de nombreux sites mondiaux.

Ce piratage outre-Rhin risque de se reproduire. Ce ver informatique Mirai se répand très rapidement en scannant continuellement les connexions Internet des objets connectés qui fonctionnent encore avec la protection installée en usine ou avec des noms d’utilisateur et mots de passe par défaut. Demain, les pirates s’attaqueront peut-être à notre foyer en nous privant de lumière. Des chercheurs israéliens ont réussi à infecter des ampoules connectées commercialisées par Philips sous le nom de Philips Hue. Reposant sur le protocole sans fil Zygbee, elles intègrent des clés de chiffrement identiques pour communiquer entre elles. Cette faille a été corrigée par Philips.

Jusqu’à la prochaine…

Philippe Richard

L’Open source pour casser le prix des médicaments

Le prix des médicaments a de quoi donner mal à la tête ! « En 2005, un nouvel anticancéreux apparaît — l’Avastin — et son fabricant, Roche, réclame 44 500 euros par traitement. Un prix élevé pour un gain de trois mois d’espérance de vie. Six ans plus tard, arrive un autre anticancéreux, Yervoy. Le fabricant, BMS, réclame 105 000 euros. Je ne peux pas croire que les coûts de recherche et développement ont été multipliés par 2,5 en six ans… », déclarait récemment Agnès Buzin, la nouvelle présidente de la HAS (Haute Autorité de Santé) et qui fut auparavant présidente de l’Institut du cancer.

Comme pour l’informatique, la baisse des coûts pourrait venir de projets open-source. C’est ce qu’a démontré un groupe d’étudiants de Sidney. Ils ont recréé un médicament pour baisser son prix et le rendre accessible. Le Dataprim, un traitement destiné aux malades du SIDA, est devenu hors de prix depuis que Martin Shkreli, le directeur d’un fonds d’investissement spécialisé dans le rachat de brevets (Turing Pharmaceuticals), l’a augmenté de… 5000 % en 2015 pour le vendre 710 euros. Son seul objectif : augmenter sa rentabilité de ce traitement classé comme essentiel par l’Organisation mondiale de la santé (OMS). Martin Shkreli n’en est pas à son premier coup d’éclat. En mettant la main sur un laboratoire pharmaceutique, Retrophin, il avait décidé de multiplier les prix de certains traitements. Depuis, il est accusé d’avoir utilisé Retrophin pour rembourser les dettes de ses fonds d’investissement.

Participant à un projet de l’Open source malaria consortium, intégré à l’Université de Sidney, des étudiants ont cassé les prix. À partir de 17 grammes pur de 2,4-chlorphényl-acétonitrile, achetés en ligne au prix de 36,50 dollars (34 euros) les 100 grammes, les adolescents de 16 ans ont produit 3,7 grammes de Daraprim. Résultat, leur médicament ne coûte que 12,70 euros.

Pendant toute la conception du médicament, les étudiants ont partagé leurs progrès en ligne sur une plate-forme ouverte afin que les scientifiques du monde entier puissent avoir accès à leurs données et les aider à avancer.

Ce n’est pas le premier projet open-source concernant la santé. Depuis 2011, la Fondation suisse Medicines for Malaria Venture (MMV) distribue gratuitement à 200 laboratoires dans 30 pays, une « Malaria Box » (cette pandémie concerne encore la moitié de la population mondiale). Il s’agit d’un kit contenant 400 composés chimiques présentant une activité antipaludéenne.

Plus d’une douzaine de projets de développement de médicaments sont déjà en cours. « L’Institut national américain du cancer travaille actuellement sur un médicament contre le cancer du côlon, lui aussi découvert par ces recherches collaboratives » précise un responsable de cette fondation qui repose sur un partenariat public-privé à but non lucratif, avec des partenaires chez Novartis, GSK ou Sanofi-Aventis. Elle est financée par d’autres fondations privées (Fondation Bill & Melinda Gates ou le Wellcome Trust), des industriels (ExxonMobil’s) et des fonds gouvernementaux (USA, Espagne, Australie…).

Philippe Richard

Conférences Rendez-Vous Carnot 2016 : Imagerie et robotique appliquées à l’urologie

Cancer de la prostate : aide au diagnostic et au traitement ciblés.

Le laboratoire TIMC-IMAG, la société KOELIS et leurs partenaires cliniques inventent et développent des systèmes de ciblage de la prostate qui touchent un marché d’innovation international.

Intervenants

Jocelyne TROCCAZ, directrice de recherche, institut Carnot LSI

Photo Jocelyne TROCCAZ

 

 

 

 

Eric GAUDARD, responsable de projet de recherche, KOELIS Inc

Photo Eric Gaudard

 

 

 

Conférences Rendez-Vous Carnot 2016 : Les énergies marines renouvelables, small is beautiful

Quels équipements pour convertir cette énergie au plus près du client final ?

Les énergies marines renouvelables (EMR) contribuent déjà au bouquet énergétique européen. Un coût de production inférieur à 120€MWh sera le facteur de réussite des installations destinées à la distribution d’électricité en réseau. La fiabilisation de ces installations face aux contraintes du milieu marin devient donc pour cette industrie un enjeu de R&I important. Il y a là un gisement d’énergie valorisable par de petites structures innovantes pour créer de nouveaux marchés.

Intervenants

Jean-Marc DANIEL, directeur du département ressources physiques et écosystèmes du fond de mer, Ifremer

Jean-Luc LONGEROCHE, président, GEPS Techno

Conférences Rendez-Vous Carnot 2016 : Technologies douces pour la transformation des fruits et légumes

Développements (bio)technologiques améliorant l’arôme des produits à base de fruits

La préoccupation des consommateurs pour des produits à base de fruits et légumes plus « naturels » conduit les industriels de la transformation à concevoir des procédés utilisant des technologies de stabilisation plus respectueuses du produit (qualités intrinsèques : arôme, couleur, etc). Les tendances et innovations actuelles portent sur les technologies de décontamination pour la transformation des fruits et légumes, ainsi que sur les méthodes permettant de diminuer l’usage d’additifs et d’améliorer l’arôme des produits à base de fruits.

Intervenants

Catherine RENARD, directrice de l’Unité Sécurité et Qualité des Produits d’Origine Végétale, institut Carnot Qualiment.

Photo Catherine Renard

 

 

 

 

Jean-Claude DUSSAUD, directeur valorisation et transfert, CTCPA, Institut Carnot Qualiment

Le « blob » : capable d’apprendre… et de transmettre ses apprentissages

Les mêmes chercheurs ont fait un pas de plus en prouvant qu’il peut transmettre ses apprentissages à un congénère en fusionnant avec lui. Ces nouveaux résultats sont publiés dans la revue Proceedings of the Royal Society B le 21 décembre 2016.

Imaginez que vous ayez la capacité de fusionner temporairement avec un autre individu et qu’à l’issue de cette expérience, vous ayez acquis toutes ses connaissances. Eh bien, chez les blobs, c’est possible ! Le blob, Physarum polycephalum pour les scientifiques, est un être composé d’une seule cellule, qui vit dans les sous-bois à l’état naturel et dans des boîtes de Pétri en laboratoire. Audrey Dussutour et David Vogel lui avaient déjà appris à passer outre des substances répulsives mais inoffensives (café, quinine ou sel) pour atteindre leur nourriture. À présent, ils montrent qu’un blob ayant appris à ignorer le sel peut transmettre son apprentissage à l’un de ses congénères, tout simplement en fusionnant avec lui !

Pour cela, les chercheurs ont appris à plus de 2 000 blobs que le sel était inoffensif – les blobs devaient traverser un pont couvert de sel pour rejoindre leur nourriture. Pendant ce temps, 2 000 blobs devaient eux franchir un pont vierge de toute substance (blobs « naïfs »). Au terme de cet apprentissage, les chercheurs ont formé des paires de blobs « expérimentés », des paires de blobs « naïfs » et des paires mixtes, qui fusionnaient au niveau de leur zone de contact. Les blobs fusionnés devaient ensuite à leur tour traverser un pont couvert de sel. À la surprise des chercheurs, les blobs mixtes étaient aussi rapides que les blobs expérimentés, et surtout bien plus rapides que les blobs naïfs – comme si l’apprentissage du caractère inoffensif du sel avait été partagé. Le résultat fut le même avec des trios et des quatuors, quel que soit le nombre de blobs naïfs dans le nouveau blob – il suffisait d’un blob expérimenté pour que l’information circule.

Afin de vérifier qu’il y avait bien eu transfert d’information, l’expérience a été refaite en séparant les blobs une heure ou trois heures après leur fusion. Seuls les blobs naïfs qui étaient restés en contact trois heures avec un blob expérimenté ignoraient le sel, les autres montrant une forte aversion. Le blob naïf avait donc bel et bien reçu l’information. Au microscope, les chercheurs ont remarqué qu’une veine se formait entre les blobs à l’endroit même où ils fusionnaient, et qu’elle nécessitait trois heures pour s’établir. C’est sans doute par ce biais que circule l’information. Prochaines étapes : trouver sous quelle forme elle est transmise, mais aussi tenter de faire des apprentissages croisés. En apprenant à un blob A à ignorer la quinine et à un blob B à ignorer le sel, les biologistes se demandent s’ils peuvent s’échanger et retenir les deux informations.

blob_web
© Audrey Dussutour (CNRS) Physarum polycephalum (diamètre : environ 10 centimètres), ou blob, composé d’une unique cellule, cultivé en laboratoire sur un gel d’agar.

Source : cnrs

Sommeil paradoxal : ces neurones qui nous paralysent

Le modèle animal créé permettra de mieux comprendre l’origine de certains troubles du sommeil paradoxal, en particulier la maladie qui empêche cette paralysie corporelle. Il sera également d’une grande aide pour étudier la maladie de Parkinson, les deux pathologies étant liées. Ces travaux sont publiés le 12 décembre 2016 sur le site de la revue Brain.

Pourtant plongé dans un sommeil profond, le patient parle, s’agite, donne des coups de pied et finit par tomber de son lit. Il souffre d’une forme de parasomnie appelée REM Sleep Behavior Disorder (RBD), une maladie du sommeil qui se déclare aux alentours de la cinquantaine. Alors que pendant la phase de sommeil paradoxal, les muscles sont au repos, chez ce patient, la paralysie corporelle est absente, sans que l’on sache bien pourquoi. Il exprime alors des mouvements anormaux reflétant très probablement son activité onirique.

Une équipe du Centre de recherche en neurosciences de Lyon (CNRS/Inserm/Université Claude Bernard Lyon 1/Université Jean Monnet) a fait un pas de plus dans la compréhension de cette pathologie. Les chercheurs ont identifié dans le cerveau les neurones du noyau sub-latérodorsal, idéalement placés pour contrôler la paralysie du système moteur pendant le sommeil paradoxal. Chez le rat, ils ont ciblé spécifiquement cette population de neurones en y introduisant des vecteurs viraux génétiquement modifiés. Une fois dans les cellules neurales, ceux-ci bloquent l’expression d’un gène permettant la sécrétion synaptique du glutamate. Incapables de libérer ce neurotransmetteur excitateur, ces neurones ne peuvent alors plus communiquer avec leurs voisins. Ils sont déconnectés du réseau cérébral nécessaire à la paralysie corporelle du sommeil paradoxal.

Depuis 50 ans, la communauté scientifique considérait que ces neurones à glutamate généraient le sommeil paradoxal lui-même. L’expérience menée par l’équipe balaye cette hypothèse : même sans aucune activité de ce circuit neuronal, les rats passent bien par cet état de sommeil. Ils sont profondément endormis et déconnectés du monde extérieur, les paupières closes. Pourtant ces rats ne sont plus paralysés. Leurs comportements rappellent très fortement le tableau clinique des patients souffrant de RBD. Les neurones à glutamate ciblés dans cette étude jouent donc un rôle essentiel dans la paralysie corporelle pendant le sommeil paradoxal et seraient prioritairement atteints dans cette pathologie neurologique.

Ces travaux de recherche vont au-delà de la création d’un nouveau modèle préclinique mimant cette parasomnie. Ils pourraient même avoir une importance capitale dans l’étude de certaines maladies neurodégénératives. En effet, de récents travaux de recherche clinique ont montré que les patients diagnostiqués avec le RBD développent presque systématiquement les symptômes moteurs de la maladie de Parkinson, en moyenne une décennie plus tard. L’équipe cherche maintenant à développer un modèle animal évoluant de la parasomnie à la maladie de Parkinson afin de comprendre les prémices de la dégénérescence neuronale.

Source : cnrs

Quand les défauts deviennent des qualités pour les matériaux

Des chercheurs de l’Institut de recherche de chimie Paris (CNRS/Chimie ParisTech) et de l’Université de Cambridge ont dressé un bilan de la recherche qui a révélé de nouvelles propriétés surprenantes chez ces matériaux. Plus leur structure cristalline présente de défauts, plus ils peuvent être performants. Ces travaux sont publiés le 20 décembre dans Nature Chemistry.

Les matériaux hybrides organiques–inorganiques sont des structures cristallines hyper-poreuses, leur surface interne peut représenter plus de 6 000 m² par gramme. Cela leur permet d’immobiliser un grand nombre de molécules, d’où leur utilisation comme adsorbants pour capter par exemple du dioxyde de carbone. La variété de leurs structures et de leurs compositions en font également d’excellents catalyseurs pour de nombreuses réactions chimiques. Les assemblages supramoléculaires complexes de ces matériaux fascinent au point que des chimistes du monde entier se sont lancés depuis des années dans une course pour en synthétiser le plus possible. Alors que plus de 15 000 structures ont été créées à ce jour, on ne connait en détail les propriétés physiques que de quelques dizaines d’entre elles. Au final, seule une dizaine sont actuellement commercialisées.

Les chercheurs du CNRS et de l’Université de Cambridge ont établi un état des lieux pour mieux connaitre leurs propriétés. Leurs travaux ont dévoilé un phénomène étonnant et contre-intuitif : les défauts, le désordre moléculaire et la flexibilité dans l’organisation cristalline apportent des caractéristiques positives à ces matériaux. Alors que les matériaux hybrides organiques-inorganiques sont souvent vus comme des structures cristallines rigides, les chercheurs soulignent qu’ils possèdent une large flexibilité à grande échelle, souvent couplée à leurs défauts. Dans d’autres cas, ces imperfections du réseau cristallin augmentent leurs capacités catalytiques ou de capture de dioxyde de carbone. Cette étude devrait permettre de trouver de nouvelles applications à ces matériaux en fonction de leurs propriétés et de nos besoins.

Source : cnrs

Compteurs communicants : des risques sanitaires peu probables

Les distributeurs d’eau ont également entamé l’évolution de leur parc de compteurs. L’ Agence a donc mené une expertise visant à évaluer l’exposition de la population aux champs électromagnétiques émis par ces dispositifs et les effets sanitaires potentiels associés. Dans l’avis qu’elle publie ce jour, l’Agence conclut à une faible probabilité que l’exposition aux champs électromagnétiques émis par les compteurs communicants, dans la configuration de déploiement actuelle, engendre des effets sanitaires à court ou long terme. Elle appelle cependant les opérateurs impliqués dans le déploiement de ces nouvelles technologies à fournir une information claire et facilement compréhensible aux usagers quant à leurs modalités de fonctionnement.

L’installation de compteurs communicants, permettant la relève à distance des index de consommation d’électricité, de gaz et d’eau, et leur transmission journalière aux fournisseurs d’énergie, notamment dans un objectif de maîtrise des énergies par les consommateurs, fait naître des inquiétudes auprès d’une partie de la population : surcoût éventuel généré pour les abonnés, respect de la vie privée, utilisation des données personnelles. Les consommateurs s’inquiètent également d’éventuels risques sanitaires liés à une exposition aux champs électromagnétiques émis par ces différents compteurs.

Dans ce contexte, la Direction générale de la santé (DGS) a chargé l’Anses de conduire une expertise relative à l’évaluation de l’exposition de la population aux champs électromagnétiques émis par les compteurs communicants et des effets sanitaires potentiels associés.

Exposition aux compteurs communicants

Les compteurs d’électricité « Linky » communiquent de façon filaire, via le réseau de distribution d’électricité, par la technologie du courant porteur en ligne (CPL) avec des points relais des informations de consommation. Les compteurs de gaz « Gazpar » et les compteurs d’eau communiquent avec ces points relais par liaison radio sans-fil.

Les données disponibles à ce jour amènent l’Agence à conclure à une faible probabilité que l’exposition aux champs électromagnétiques émis par les compteurs communicants radioélectriques (gaz et eau) et les autres (électricité), dans la configuration de déploiement actuelle, engendre des effets sanitaires à court ou long terme.

En effet, l’Agence a recensé les données issues de campagnes de mesures réalisées pour caractériser l’exposition liée aux compteurs communicants. Dans le cas du compteur d’électricité Linky, les niveaux d’exposition au champ électromagnétique produit par le compteur lui-même, mais aussi par la communication CPL qui parcourt les câbles électriques, sont très inférieurs aux valeurs limites d’exposition réglementaires. Les compteurs Linky, que ce soit en champ électrique ou magnétique, sont à l’origine d’une exposition comparable à celle d’autres équipements électriques déjà utilisés dans les foyers depuis de nombreuses années (télévision, chargeur d’ordinateur portable, table de cuisson à induction…).

L’exposition à proximité d’un compteur de gaz ou d’eau est très faible, compte tenu de la faible puissance d’émission et du nombre réduit de communications (moins d’une seconde 2 à 6 fois par jour). L’exposition due aux compteurs est par exemple bien plus faible que celle due à un téléphone mobile GSM.

Par ailleurs, les compteurs de type Linky produisent sur le réseau domestique des signaux qui peuvent être équivalents à ceux des parasites créés notamment par la mise en route d’appareils domestiques (courants transitoires à haute fréquence). Actuellement, il n’existe aucune donnée suggérant que les courants transitoires à haute fréquence puissent affecter la santé aux niveaux d’exposition mesurés.

Une campagne de mesures sollicitée par l’Anses auprès du Centre scientifique et technique du bâtiment (CSTB), dont les résultats sont attendus prochainement, permettra de préciser l’exposition (a priori faible compte tenu du mode de fonctionnement) due au compteur Linky en situation réelle (temporalité, niveau d’exposition,…). Ces mesures devraient notamment permettre une comparaison entre l’exposition aux anciens compteurs électromécaniques et celle due aux nouveaux compteurs Linky au domicile.

Recommandations

Dans le but d’améliorer l’information sur l’environnement des usagers, l’Agence engage les opérateurs impliqués dans le déploiement de ces nouvelles technologies à fournir une information claire et facilement compréhensible aux usagers quant à leurs modalités de fonctionnement actuel et futur, incluant notamment la fréquence et la durée des expositions aux champs électromagnétiques auxquelles ces technologies peuvent conduire.

Enfin, il est à noter que le déploiement des compteurs communicants intervient au moment où les objets connectés se multiplient pour des applications diverses, les infrastructures de communication (antennes relais notamment) étant déjà pour l’essentiel en place. Il est possible que ces développements concernent dans les prochaines années la numérisation des services et des infrastructures à l’échelle des individus, des habitations et des villes, dans les domaines de l’énergie, des transports et de la santé en particulier (réseaux intelligents, villes intelligentes, etc.).

La question de l’exposition des personnes aux champs électromagnétiques devrait alors être anticipée et systématisée dans cet environnement évolutif. Aussi, l’agence recommande que le développement des objets connectés s’accompagne de la définition de méthodes et outils (normes techniques) propres à assurer une caractérisation de l’exposition des personnes.

Fonctionnement des compteurs communicants

Le compteur « Linky » est sollicité une fois par jour pour la télé-relève (collecte) des index de consommation. Cette transmission se fait entre minuit et 6 heures du matin et dure moins d’une minute. Il peut être également sollicité plusieurs fois par jour pour vérifier son bon fonctionnement ou pour d’autres tâches (télé-opération par exemple) par le point relais extérieur.

Le compteur de gaz « Gazpar » et les compteurs d’eau transmettent les informations de consommation à un point relais  deux à six fois par jour, en moins d’une seconde. Installé sur un toit d’immeuble, ce point relais envoie ensuite les données au système d’information via le réseau GPRS/3G.

 

Source : anses

Compléments alimentaires destinés aux sportifs : des risques pour la santé pour des bénéfices incertains

Ces signalements et la consommation répandue dans plusieurs disciplines sportives de ce type de produits visant le développement musculaire ou la diminution de la masse grasse, conduisent l’Anses à attirer l’attention sur les risques potentiels pour la santé. Des effets potentiellement graves pour certains, majoritairement d’ordre cardiovasculaire (tachycardie, arythmie et accident vasculaire cérébral) et psychique (troubles anxieux et troubles de l’humeur), ont été observés. L’ Agence déconseille donc l’usage de ces compléments alimentaires aux personnes présentant des facteurs de risque cardiovasculaire ou souffrant d’une cardiopathie ou d’une altération de la fonction rénale, hépatique ou encore de troubles neuropsychiatriques, aux enfants, adolescents et femmes enceintes ou allaitantes. L’ Anses déconseille également la consommation de compléments alimentaires contenant de la caféine avant et pendant une activité sportive, ainsi que la consommation concomitante de plusieurs compléments alimentaires ou leur association avec des médicaments. L’ Anses rappelle par ailleurs la nécessité de prendre conseils auprès d’un professionnel de santé avant de consommer des compléments alimentaires.

Le dispositif national de nutrivigilance de l’Anses a recueilli quarante-neuf signalements d’effets indésirables susceptibles d’être liés à la consommation de compléments alimentaires visant le développement musculaire ou la diminution de la masse grasse et destinés aux sportifs. Les effets indésirables rapportés étaient majoritairement d’ordre cardiovasculaire (tachycardie, arythmie et accident vasculaire cérébral) et psychiques (troubles anxieux et troubles de l’humeur).

Ces signalements d’effets indésirables ont conduit l’ Anses à évaluer les risques associés à la consommation de ces compléments et à attirer l’attention des sportifs concernés sur les risques sanitaires induits par ces pratiques.

Afin de réduire ces risques, elle recommande aux consommateurs d’être attentifs à l’adéquation de ces compléments alimentaires avec leur statut nutritionnel, leur état de santé et les objectifs visés. De ce fait, un conseil personnalisé par un professionnel de santé, le cas échéant en lien avec l’entraîneur ou le préparateur physique, au regard des périodes et des charges d’entraînement, est indispensable. Afin d’assurer un dialogue interdisciplinaire efficace, il est important que les professionnels de santé bénéficient d’une solide formation initiale et continue en matière de nutrition, et en particulier de nutrition du sportif.

Par ailleurs, et plus spécifiquement en cas de recherche de diminution de la masse grasse et/ou d’augmentation de la masse musculaire, les pratiquants doivent être informés des risques liés, d’une part, à la consommation de produits présentant une activité pharmacologique et, d’autre part, des risques sanitaires liés à la pratique de régimes amaigrissants sans accompagnement médical.

L’ Anses met l’accent sur le fait que des effets de ces compléments alimentaires qui pourraient être revendiqués sur la performance n’excluent en rien le risque sanitaire. De façon générale, l’absence de données d’efficacité scientifiquement démontrée rend les bénéfices escomptés de ces compléments alimentaires très fortement hypothétiques, rendant ainsi l’intérêt des produits les contenant largement discutable au regard des risques encourus. Par ailleurs, l’achat sur internet expose de facto davantage le sportif à la consommation de compléments alimentaires frauduleux ou adultérés, susceptibles de conduire à des contrôles anti-dopage positifs et d’induire des effets sur la santé.

Les recommandations de l’Agence

Au vu des résultats de son expertise, l’Anses déconseille fortement la consommation de compléments alimentaires visant le développement musculaire ou la diminution de la masse grasse :

  • aux personnes présentant des facteurs de risque cardiovasculaire ou souffrant d’une cardiopathie ou d’une altération de la fonction rénale ou hépatique ou encore de troubles neuropsychiatriques ;
  • aux enfants et adolescents ;
  • aux femmes enceintes ou allaitantes.

L’Anses émet les recommandations suivantes :

A l’attention des consommateurs

  • La consommation de compléments alimentaires contenant de la caféine est déconseillée avant et pendant une activité sportive, ainsi que chez les sujets sensibles aux effets de cette substance.
  • La consommation concomitante de plusieurs compléments alimentaires ou leur association avec des médicaments est déconseillée.
  • Les objectifs de la consommation de compléments alimentaires devraient être discutés avec un professionnel de santé.
  • La consommation de compléments alimentaires doit être signalée à son médecin et son pharmacien.
  • Les sportifs doivent être attentifs à la composition des produits consommés et privilégier les produits conformes à la norme AFNOR NF V 94-001 (juillet 2012) ainsi que les circuits d’approvisionnement les mieux contrôlés par les pouvoirs publics (conformité à la réglementation française, traçabilité et identification du fabricant).

A l’attention des cadres sportifs :

  • Le recours aux compléments alimentaires ne doit être envisagé que dans le cadre d’une approche pluridisciplinaire mobilisant tant les cadres sportifs que les professionnels de santé ;
  • Une information efficace aux pratiquants, en ciblant plus particulièrement les jeunes sportifs, doit être mise en œuvre.
  • En outre, considérant la banalisation de la consommation de ces compléments alimentaires, l’Agence recommande aux pouvoirs publics de mener une réflexion sur la pertinence de la distribution de ces produits sur les sites de pratique sportive.
  • L’Anses rappelle enfin aux professionnels de santé l’importance de la déclaration auprès de son dispositif de nutrivigilance des effets indésirables susceptibles d’être liés à la consommation de compléments alimentaires destinés aux sportifs dont ils auraient connaissance.

En outre, considérant la banalisation de la consommation de ces compléments alimentaires, l’Agence recommande aux pouvoirs publics de mener une réflexion sur la pertinence de la distribution de ces produits sur les sites de pratique sportive.

L’Anses rappelle enfin aux professionnels de santé l’importance de la déclaration auprès de son dispositif de nutrivigilance des effets indésirables susceptibles d’être liés à la consommation de compléments alimentaires destinés aux sportifs dont ils auraient connaissance.

 

Source : anses

Energie : la mode des appels d’offres « technologiquement neutres »

Les appels d’offres « technologiquement neutres » se veulent non-discriminants : n’importe quelle source d’énergie peut être sélectionnée. Seul compte le rapport coût/efficacité.

Vent mexicain

Ce nouveau mécanisme vient du Mexique qui a récemment libéralisé son secteur énergétique en brisant les monopoles publics de l’électricité et des hydrocarbures. Cette réforme s’est notamment traduite par un appel aux investisseurs internationaux pour construire de nouvelles capacités électriques, dont le pays en pleine croissance a besoin. Mais au lieu de segmenter l’appel d’offres comme il était jusqu’alors de coutume (x MW pour l’éolien, y MW pour le solaire, etc), Mexico décide que toutes les technologies sont les bienvenues et que le coût du MWh sera le facteur déterminant. Et le résultat surprend plus d’un observateur. En deux appels d’offres, le Mexique a attribué en 2016 la construction de 5 776 MW à des prix défiant toute concurrence : jusqu’à 34,5 $/MWh, soit bien en-deçà des moyennes européennes toutes technologies confondues. Et à ce petit jeu, ce sont les énergies renouvelables qui se sont avérées les plus compétitives. L’éolien et le photovoltaïque représentent 95% des capacités allouées ! La technologies des centrales à cycles combinés gaz tire son épingle du jeu pour ses capacité de back-up, indispensables à l’équilibrage du réseau.

L’Espagne s’y met, Bruxelles approuve

Impressionné par cette double réussite, le gouvernement espagnol, enfin élu après un an et demi de crise politique, et qui cherchait un nouveau modèle énergétique viable, a annoncé la semaine dernière le lancement imminent d’un appel d’offres « technologiquement neutre » pour l’installation de 3 000 MW. Le ministre espagnol de l’Energie, Álvaro Nadal, est persuadé que les énergies renouvelables gagneront cette fois encore face à la concurrence, permettant au pays de remplir ses objectifs européens en matière d’Enr.

Et d’Europe, il en est question car Bruxelles s’intéresse de près à ce mécanisme très « concurrence compatible ». Un projet de directive est actuellement en préparation en vue d’imposer ce nouveau modèle. Une initiative qui n’est pas du goût de tout le monde, notamment des Français. Le Syndicat des énergies renouvelables, par la voix de son président, Jean-Louis Bal, a dénoncé « ces dispositifs, pensés par des ayatollahs de la concurrence pure et dure, qui nous priveraient de la nécessaire complémentarité des différentes énergies renouvelables », rapporte Greenunivers. Le gouvernement actuel est sur la même longueur d’onde mais quid dans 6 mois ?

La fin de la politique énergétique ?

Si les appels d’offres « technologiquement neutres » se sont avérés d’incroyables moyens d’attirer des financements et de prouver la compétitivité des énergies renouvelables, ils posent tout de même certaines questions. Ces appels d’offres, une fois les meilleurs gisements occupés, se concluront-ils par des prix aussi attractifs ? Ce mécanisme ne signifie-t-il pas la fin de la politique énergétique au sens classique du terme ? Une interrogation soulevée par le directeur général de la DGEC française, Laurent Michel : « Le potentiel renouvelable français doit s’exprimer à travers toutes les énergies et pas seulement la/les plus compétitive(s) à l’instant T ».

Par Romain Chicheportiche

Dilater le temps pour mieux prédire les évènements extrêmes

Cette technique, appliquée pour le moment à la photonique, pourrait aider à la prédiction de vagues scélérates à la surface des océans ou d’autres événements naturels extrêmes. Ces travaux, menés en collaboration avec des chercheurs finlandais, irlandais et canadiens, sont publiés dans la revue Nature Communications du 19 décembre 2016.

Les instabilités et le chaos dans les systèmes physiques sont des phénomènes aléatoires naturels, généralement très sensibles aux fluctuations des conditions initiales, si petites soient-elles. Pour comprendre ces phénomènes complexes et omniprésents dans la nature, les chercheurs ont récemment eu recours à des expériences impliquant la propagation d’ondes lumineuses et menant à la formation d’impulsions de durée extrêmement brève, de l’ordre de la picoseconde (un millionième de millionième de seconde). En effet, l’étude de ces phénomènes en optique présente l’avantage de se faire sur des échelles de temps très courtes, permettant ainsi de mesurer un échantillon représentatif d’événements et de caractériser de manière fiable ses propriétés statistiques. Cependant, bien qu’ayant permis des progrès sur la compréhension des dynamiques liées aux événements extrêmes, ces études ont été faites jusqu’à présent de manière indirecte, en raison du temps de réponse des détecteurs actuels, trop lents pour capturer ces événements rares.

Des expériences récentes menées à l’Institut Femto-ST à Besançon ont permis de dépasser cette limite. Basée sur le principe d’une lentille temporelle qui dilate l’échelle de temps d’un facteur 100 tout en augmentant la résolution, cette nouvelle méthode a permis aux chercheurs d’observer en temps réel des impulsions géantes de lumière, avec une intensité plus de 1000 fois supérieure à celle des fluctuations initiales de la source lumineuse, un laser. Ils ont utilisé pour cela un effet papillon connu en optique sous le nom d’instabilité modulationnelle qui amplifie, dans une fibre optique de télécommunications, le faible bruit intrinsèquement présent dans le faisceau laser.

Ces résultats ont une portée qui va bien au-delà du domaine de la photonique, puisque ce type de bruit de fond est généralement considéré comme l’un des mécanismes qui pourrait être à l’origine des vagues scélérates destructrices qui  apparaissent de manière soudaine à la surface des océans, mais également de bien d’autres systèmes comme la dynamique du plasma dans l’univers primitif. La capacité à dilater les échelles de temps en optique ouvre donc une nouvelle voie pour l’exploration et la compréhension des nombreux systèmes de la nature pour lesquels il est encore très difficile d’étudier les instabilités de manière directe et ainsi d’obtenir des échantillons statistiques fiables.

Ces travaux impliquent des chercheurs du laboratoire Femto-ST: Franche-Comté électronique mécanique thermique et optique – sciences et technologies (CNRS/Université Franche-Comté/Université de technologie de Belfort-Montbéliard/Ecole Nationale Supérieure de Mécanique et des Microtechniques de Besançon). L’UTMB, l’ENSMM et l’université de Franche-Comté appartiennent à la communauté d’universités et d’établissements « Université Bourgogne Franche-Comté ».

Source : cnrs

Les plus importantes cyberattaques de 2016

Cette multiplication de ces fuites de données démontre que de nombreuses entreprises, fussent-elles des poids lourds dans leur secteur d’activité, ne disposent pas d’un niveau de sécurité très élevé…

Février

S’introduire via la bande passante est un grand classique que la Banque centrale du Bangladesh a vécu à ses dépens . Les pirates ne l’ont pas attaqué directement ; ils ont réussi à accéder à l’interface utilisateur SWIFT pour envoyer de fausses demandes de virements. Depuis vingt ans, ce réseau est utilisé par les banques pour transmettre quotidiennement des instructions de paiement. Bilan : 72 millions d’euros volés.

Mai

En mai, fais ce qu’il te plaît ! Un pirate informatique russe du nom de « peace_of_mind » l’a appliqué à la lettre en s’attaquant à trois importants sites. Il a dérobé 360 millions d’adresses et 427 millions de mots de passe appartenant à des utilisateurs de MySpace. Il a également mis la main sur un fichier de 167 millions de comptes du réseau social professionnel LinkedIn (e-mails et mots de passe). Quant au site de microblogging Tumblr, quelque 45 millions de comptes ont été récupérés.

Toutes ces précieuses données ont ensuite été mises en vente sur le DarkNet.

Ce pirate s’appellerait Evgueni Nikulin. Ce jeune moscovite de 29 ans a été arrêté par le FBI.

Juin

TheDAO (Decentralized Autonomous Organization) est un fonds d’investissement participatif fonctionnant sur la Blockchain d’Ethereum. En quelques minutes, ce sont plus de 50 millions de dollars (sur les 150 de capital) qui ont été dérobés. La technique utilisée était celle de l’appel récursif, qui consiste à envoyer une fonction spécifique en boucle pour transférer la crypto monnaie (Bitcoin).

Septembre

Yahoo ! a battu deux records ! Premièrement, celui du plus gros piratage de l’année avec le vol de 500 millions de comptes. Deuxièmement, celui du délai entre l’infiltration de son réseau et l’annonce officielle : le site a été « ciblé » en 2014, mais il ne l’a reconnu qu’en septembre 2016… Ce même mois, OVH a été noyé sous un déluge de requêtes sans précédent. Les serveurs de cet hébergeur roubaisien n’ont pas résisté aux attaques (entre le 18 et 23 septembre) avec une pointe à 1 térabit par seconde de trafic malveillant. Cette attaque DdoS (denial of service attack) a été lancée par un botnet de 150 000 caméras de sécurité qui avaient été infectées et détournées par des pirates.

Octobre

Le gestionnaire de noms de domaine américain Dyn a subi le même genre d’attaque qu’OVH. Conséquence : l’accès à de nombreux sites (Netflix, Spotify, Airbnb, Twitter, PayPal ou encore le Playstation network de Sony) était impossible. Là aussi, les pirates ont détourné des objets connectés, notamment des caméras de surveillance, pour concentrer leur puissance de feu sur cette cible.

Le même mois, Dailymotion a été victime d’un piratage de sa base de données de 85 millions de comptes.

Novembre

Après Ashley Madison en 2015, c’est au tour de AdultFriendFinder d’être ciblé par des pirates qui ont récupéré 400 millions de comptes. L’attaque dont a été victime Vinci a été plus originale. Il ne s’agit pas à proprement parlé d’un piratage, mais d’une opération s’appuyant sur de l’ingénierie sociale. Des escrocs se sont fait passer pour ce groupe du CAC 40 et ont envoyé un faux communiqué de presse à des médias. Dans ce document, ils affirmaient que des irrégularités comptables sur quelque 3,5 milliards d’euros venaient d’être découvertes à la suite d’un audit interne. Vinci a démenti, mais le mal était fait : l’action a perdu plus de 18 % pendant plusieurs minutes.

Décembre

Yahoo ! fait de nouveau la Une des médias en déclarant avoir été victime d’une cyberattaque en 2013. Celle-ci concerne les données de « plus d’un milliard » d’utilisateurs ; leurs noms, numéros de téléphone ou dates de naissance ont pu être dérobés, ainsi que leurs mots de passe. Lorsque le site a révélé ce piratage le 14 décembre dernier, on ne savait pas si ce « milliard » venait en plus des 500 millions d’informations dérobées en 2014.

Par Philippe Richard

Suède: prime de 5000 dollars pour l’acquisition d’une batterie domestique

La Suède produit dès à présent 57% de son électricité à partir de sources renouvelables. Le reste avec l’énergie atomique. Mais selon Anne Vadasz Nilsson, DG de l’agence suèdoise de surveillance des marchés de l’énergie, a déclaré à l’agence Reuters que « le nucléaire est une énergie coûteuse compte-tenu des régulations en matière de sûreté et du financement de la gestion à long-terme des déchets radioactifs, pour ne mentionner que ces deux éléments« .

En juin 2016 des partis politiques suédois de premier plan ont convergé pour parvenir à 100% d’énergie renouvelable à horizon 2040. Cet objectif est tout à fait réalisable selon Anne Vadasz Nilsson. La prime de 5000 dollars qui sera en Suède versée aux acquéreurs de batteries domestiques s’inscrit dans cette perspective.

Le média spécialisé australien RenewEconomy (« Graph of the day« ) a récemment effectué un comparatif du coût du kWh de stockage des différentes batteries. Le résultat est sans appel, le Tesla Powerwall (version 1 et 2) pulvérise la concurrence. Et en outre intègre un onduleur. Sur le marché australien le solaire en bouteille serait dès à présent meilleur marché que l’électricité provenant du réseau, selon RenewEconomy.

rsz_image_29-11-2016_at_1026_am (1) (1)

« Les Powerwall de Tesla seront populaires en Suède », titre le média spécialisé Electrik.co. En effet Tesla va vendre les Powerwall 2 pour 61.000 couronnes suédoises (environ 6600 dollars américains), auquel il faut ajouter environ 1300 dollars pour l’installation. Autrement dit, en intégrant la prime gouvernementale de 5000 dollars, la batterie Powerwall 2, dont la capacité de stockage est de 14 kWh, sera disponible pour moins de 3000 dollars, installation comprise ! C’est à dire 214 dollars (204 euros) par kWh de stockage.

La France n’a pas un objectif aussi clair et ambitieux que la Suède en matière d’électricité renouvelable. Alors que François Hollande a été élu en promettant de réduire la part du nucléaire de 75% à 50%, pas un seul réacteur nucléaire n’a été fermé, ce qui bien entendu suscite l’ire des ONG environnementales.

Ondine Suavet, DG de la start-up Mylight Systems, contactée par Techniques-ingénieur.fr, est sceptique concernant le marché de la batterie en France dans le court-terme: « cette batterie Tesla n’est actuellement pas distribuée en France car ce marché n’est pas considéré comme stratégique. Il n’y a aucun réseau de distribution pour ce produit en France, ni de réseaux d’installation agréés. Dans les pays où l’offre existe, seuls un installateur agréé peut poser ces batteries. Si nous faisons le parallèle avec le Modèle 3 de la voiture Tesla, il y a 3 ans entre l’ouverture des pré-commande et la livraison. »  Sur le site MaisonEtEnergie.info cette ingénieure innovante a d’ailleurs publié le 13 décembre 2016 une tribune intitulée « Des batteries pour stocker l’énergie solaire : aubaine ou arnaque ?« .

Une alerte afin que les acquéreurs potentiels soient correctement informés et ainsi ne soient pas bernés par des vendeurs peu scrupuleux de l’éco-éthique. Et de l’éthique tout court.

En Suède, la fête la plus importante du pays a lieu à l’occasion du solstice d’été, avec des danses circulaires autour de poteaux sacrés d’origine païenne symbolisant la course du temps solaire.

Ce pays scandinave, pourtant moins ensoleillé que la France, montre-il la voie à suivre pour le pays du coq gaulois ? 

Olivier Daniélo

Revue de presse anglophone #4 : la smart santé à travers le monde

Quelles technologies pour la smart santé ?

smartwatch-250Selon le dernier rapport Frost and Sullivan, la multiplication des données de santé et leur stockage permet d’imaginer sur le court terme un développement important de l’autodiagnostic. Focus sur les technologies qui vont rendre possible la véritable « santé intelligente ».
Sourcewww.innovationintextiles.com

Des tests VIH disponibles sur une clé USB ?

cle-usb-250Des chercheurs ont développé une test rapide (30 minutes), constitué d’un analyseur de Ph qui communique à une puce des données sur la variation de Ph de l’échantillon. Cette variation, associée à la production d’hydrogène, permet d’établir la séropositivité (ou séronégativité) du sang testé, envoyant l’information automatiquement sur une clé USB.
Source : blogs.discovermagazine.com

Quel avenir pour les soins de santé ?

avenir-250Daniel Kraft explique comment l’IA, la réalité augmentée et l’adressage des médicaments vont complètement changer l’avenir des soins de santé : drones pour livrer les médicaments, nano-adressage…
Source : www.theguardian.com

Votre iphone meilleur partenaire de votre santé

iphone-250Le développement des applications smartphone de santé a changé la manière d’envisager les parcours de santé, avec une constante : l’implication du patient devient un passage obligé.
Source : www.nytimes.com/

L’hôpital public pierre de voûte des smart santé ?

hopital-250Les projets d’implémentation des technologies de santé connectée se multiplient dans les réseaux de santé publics.
Source : www.financialexpress.com

 

 

 

Médecine: l’ère de l’intelligence artificielle et des robots

Le futur du diagnostic est en construction. L’intelligence artificielle (IA) Watson, développée par IBM, a des applications dans un vaste champ d’applications. En médecine, elle permet d’améliorer la précision des diagnostics médicaux. Fin octobre, Watson a signé une performance historique. Lors d’une expérience menée à l’école de médecine de l’Université de Caroline du Nord, cette IA a confirmé 99% des traitements prescrits par des cancérologues concernant 1 000 cas de cancer. Mais elle a surtout trouvé 30% d’options thérapeutiques de plus que les médecins.

Cette prouesse provient du deep learning (apprentissage statistique profond). Watson analyse et apprend des milliers d’études publiées chaque année en cancérologie. Il peut ainsi prendre en compte toutes les recherches ou essais cliniques, chose que ne peut pas faire même le meilleur médecin. Par ailleurs, il peut intégrer l’ensemble des données contenues dans le dossier d’un patient pour un diagnostic personnalisé et déterminer les options de traitement les plus adaptées. Le déploiement à grande échelle d’une telle intelligence artificielle permettrait de réduire les erreurs de diagnostics et de recentrer le rôle du médecin sur la prise de décision et la relation avec le patient.

Plus proche du grand public, tout le monde connait Siri, l’intelligence artificielle disponible sur iPhone. Désormais, vous allez découvrir MedWhat, l’intelligence artificielle développée par des médecins de l’université californienne de Stanford. Disponible sur Internet, elle répond à toutes les questions portant sur la santé des utilisateurs, via un robot conversationnel.

Des robots dans tous les hôpitaux?

Le futur de la médecine passe aussi par la robotique. Robots chirurgiens et infirmiers se développent. Le marché des robots spécialisés dans la chirurgie est aujourd’hui dominé par le pionnier Intuitive Surgical et son robot Da Vinci. Piloté par le chirurgien, il offre un outil d’une extrême précision doté d’une caméra endoscopique et de 3 bras manipulant des instruments chirurgicaux. Plus de 3.600 robots Da Vinci ont été vendus dans le monde. Mais il y a aussi le robot Rosa de Medtech pour la chirurgie du cerveau et de la colonne vertébrale, le robot miniature de Virtual Incision pour les chirurgies abdominales, ou encore le futur robot de Verb Surgical…

Reuters relate qu’une intervention chirurgicale sur trois serait réalisée par des robots aux Etats-Unis dans 5 ans. Soit deux fois plus qu’en 2016. Les entreprises développeront aussi leurs ventes en Europe, Inde et Chine. Mais les chirurgiens ne disparaîtront pas pour autant. Ils s’installeront de plus en plus aux commandes d’un ordinateur. Ils guideront alors des bras robotisés qui manipuleront avec une précision micrométrique les instruments chirurgicaux.

Du côté de l’aide aux infirmiers à l’hôpital, Panasonic a créé le robot Hospi, un transporteur de médicaments autonome et sécurisé.  Il peut transporter jusqu’à 20 kg de produits, documents et instruments. D’une autonomie d’environ 9 heures, il se déplace jusqu’à 3,6 km/h. Avec sa tête d’ours, Robear est un robot qui aide les personnes invalides et âgées à se déplacer. Il y a aussi le robot Terapio, en développement au Japon, qui suivra les infirmières partout dans l’hôpital et les assistera dans leurs tâches quotidiennes.

Ces robots coûtent encore très cher. Par exemple, Da Vinci est vendu près de 1.5 millions de dollars. Mais les nouveaux robots sont déjà plus abordables : Robear tourne autour de 200.000 dollars, Hospi près de 100.000 dollars. Les développeurs de la prochaine vague de robots redoublent d’efforts pour développer rapidement des solutions abordables, plus agiles et capables d’exécuter plus de types de procédures. Pour faire que bientôt, robots, médecins et infirmiers travaillent main dans la main.

Par Matthieu Combe, journaliste scientifique

Le boom de l’autodiagnostic et de l’e-santé

Vous avez des doutes sur une pathologie, mais ne pouvez ou ne voulez pas vous rendre dans un laboratoire médical? Le test de grossesse n’est plus le seul kit vendu en pharmacie permettant l’autodiagnostic. Aujourd’hui, il est possible de trouver de nombreux kits en pharmacie ou de se les faire envoyer à domicile pour réaliser soi-même des autotests. Infection urinaire, ménopause, détection de cannabis, tétanos, intolérance au gluten, carence en fer, niveau de cholestérol… Voici un panorama de tests réalisables chez soi grâce à une simple goutte de sang ou d’urine. Il est même possible de mesurer la concentration en spermatozoïdes dans une goutte de sperme pour vérifier sa fertilité. Le résultat, sous forme de bandes colorées, vous est délivré en quelques minutes.

Ces autotests se développent et s’attaquent aux pandémies. Depuis septembre 2015, l’autotest BioSURE HIV Self Test, disponible dans un certain nombre de pays développés, permet ainsi d’identifier l’infection par le virus du sida en 15 minutes. Plus récemment, des chercheurs britanniques ont mis au point une clé USB capable de détecter le taux de présence du VIH dans une goutte de sang. Encore à l’état de prototype, cette clé USB donne des résultats fiables à 95% en seulement 30 minutes. Les chercheurs expliquent dans la revue Scientific Reports qu’ils espèrent développer ce dispositif pour les pays pauvres et l’étendre à d’autres virus, comme celui de l’hépatite. Dans quelques années, on peut donc imaginer qu’il sera aussi facile d’autodiagnostiquer un certain nombre de maladies ou même de cancers.

Pour des résultats plus poussés sur les maladies chroniques, les laboratoires d’analyses médicales pourraient rapidement emboîter le pas. La start-up américaine Everlywell envoie ainsi des kits à ses clients pour mesurer le taux de testostérone ou de cholestérol, la pollution par les métaux lourds, identifier des allergies… Les clients prélèvent eux-même les échantillons et les envoient à un laboratoire partenaire. Les résultats sont ensuite disponibles en ligne en moins d’une semaine. En France, les kits de prélèvement fournis par Kudzu Science vont aussi loin. A partir d’une mèche de cheveux, l’entreprise analyse votre exposition aux pesticides, au bisphénol A, aux PCB, aux métaux lourds, au mercure, au plomb, aux perturbateurs endocriniens… Mais elle permet aussi de faire un bilan de sa consommation d’alcool ou de tabac.

Des applications de santé connectée

Au-delà des auto-tests, les applications de suivi avec l’aide d’objets connectés fleurissent sur smartphones. Elles permettent de suivre son poids, son alimentation, son sommeil, son activité sportive, sa tension, son pouls, sa température… Et même sa vision ou son audition.

Les chercheurs commencent à s’intéresser à ces objets. Si dans la majorité des cas, il ne s’agit pas de dispositifs médicaux, ils peuvent avoir un intérêt médical en prévention de maladies ou chez des personnes souffrant de maladies chroniques. L’objectif des chercheurs est donc de définir les populations pouvant en bénéficier réellement et dans quelles conditions d’utilisation.
Cette question était au centre du premier congrès international e-Health Research organisé par l’Inserm à Paris en octobre 2016. Dans un article de Ticsanté, Elisabete Weiderpass, présidente du comité scientifique du congrès, souligne l’intérêt de ces nouvelles applications. La population des pays développés étant vieillissante, le nombre de personnes atteintes de maladies chroniques augmente sans cesse. Compte tenu des coûts élevés de suivi de ces patients, il faut développer des méthodes alternatives de suivi. « On avance à petits pas, mais dans l’avenir les patients devront avoir plus d’autonomie pour gérer leur santé, avec l’aide non seulement de médecins mais aussi d’infirmières spécialisées, voire de systèmes informatiques », et l’e-santé deviendra centrale », juge-t-elle. De quoi imaginer rapidement le développement massif des auto-tests, des auto-prélèvements et des applications de suivi.

Par Matthieu Combe, journaliste scientifique