Rosetta à son point de rendez-vous avec la comète Tchourioumov-Guérassimenko

« On est arrivé à la comète », s’est écrié Sylvain Lodiot, responsable des opérations de vol de Rosetta à l’Agence spatiale européenne (ESA), depuis le Centre de contrôle de Darmstadt (Allemagne), qui pilote la mission.

Rosetta se trouve comme prévu à 100 km de Tchourioumov-Guérassimenko, à quelque 400 millions de km de la Terre.

« Après dix ans, cinq mois et quatre jours de voyage, cinq passages à proximité du Soleil et 6,4 milliards de kilomètres parcourus, nous avons le plaisir d’annoncer que notre but est enfin atteint », a déclaré Jean-Jacques Dordain, Directeur général de l’ESA.

Rosetta est le premier engin spatial qui se met en orbite autour d’une comète, et qui ne se contente pas seulement de la survoler ponctuellement. Elle va accompagner la comète dans sa course vers le Soleil pendant plus d’une année.

En novembre, elle tentera une autre première très délicate, le largage sur la comète de son robot-laboratoire Philae.

« Rosetta est une mission unique, unique par son objectif scientifique, la compréhension de nos origines, qui est sûrement le meilleur moyen de comprendre notre futur », a souligné M. Dordain. « Elle est aussi unique par ses défis technologiques », a-t-il ajouté. Ce qui « fait de 2014 l’année Rosetta ».

Equipée de 11 instruments scientifiques (caméras, spectromètres, analyseurs de poussière et de particules…), Rosetta va étudier sous toutes les coutures le noyau de la comète, ainsi que les gaz et la poussière éjectés (la coma ou « chevelure ») à son approche du Soleil.

Les comètes sont considérées comme des témoins de la matière primitive à partir de laquelle s’est formé le système solaire, il y a 4,6 milliards d’années. Elles pourraient même détenir la clé de l’origine de la vie sur Terre .

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

NIWeek 2014 : résumé du Keynote #1

« You and NI will », c’est le nouveau credo de National Instruments, répété à foison tout au long de ce keynote. L’idée, qui elle n’est pas vraiment nouvelle chez NI, étant d’avancer main dans la main avec leurs clients pour aller plus vite, plus haut, plus fort, mais pour moins cher.

Pour ce faire, responsables NI et clients se sont succédés sur scène pour présenter nouveaux produits et applications, après une introduction par Ray Almgren, vice-président de NI, et James Truchard, président fondateur de la firme texane.

Premier du lot, Jeff Phillips, chef de produit LabVIEW, a donné une – trop courte ? – présentation de LabVIEW 2014, en mettant l’accent sur l’application LabSocket développée par Bergmans Mechatronics LLC, qui permet d’accéder à distance aux applications LabVIEW depuis internet, ainsi que sur une nouveauté plutôt séduisante : le câblage automatique des modules disposés dans LabVIEW.

Plus besoin a priori de faire ses lacets entre tel et tel éléments, LabVIEW 2014 les relie automatiquement.

 

Ci-dessus : James Truchard, Président fondateur de National Instruments, a comme d’habitude inauguré le premier keynote.

 

Nouveautés pour le PXI

Autre membre emblématique de la famille NI, le PXI s’est accaparé une bonne partie du kenyote, principalement dans une logique de réduction des coûts des tests, en premier lieu desquels les tests automatiques des semi-conducteurs.

En effet, le nouveau STS (pour système de test de semi-conducteurs), disponible en trois tailles mais en une seule couleur, permet de tester ses systèmes intégrés de façon rapide et semble-t-il économique, qui intègre le fameux PXI ainsi qu’une interface labVIEW.

Réduction des coûts grâce au PXI mais également meilleure fiabilité des tests, selon le témoignage de Tony Tenison, de Jacobs Engineering, venu expliqué comme le PXI leur permet de fiabiliser leurs tests en soufflerie, et d’éviter de devoir faire revenir (ou pas) le client pour de (coûteux) tests additionnels.

CompactDAQ durci

Le CompactDAQ quatre emplacements intègre processeur (Atom d’Intel), conditionnement du signal en entrées et sorties, et s’inscrit lui aussi dans une logique de simplification des tâches et de réduction des coûts, puisqu’il s’utilise en totale autonomie, sans être relié à un ordinateur.

Là encore, ce sont les clients qui en parlent le mieux : Robin Pritz de Case New Holland, un fabriquant d’engins agricoles, explique ainsi comment en mêlant CompactDAQ et CompactRIO dans une moissonneuse batteuse, il peut recueillir les données relatives au fonctionnement et réactions de la moissonneuse selon son utilisation.

Plus « impactant », John Lloyd, de BRAINS Inc, explique ensuite comment le CompactDAQ leur a permis de mesurer les forces de rotation auxquelles sont soumises les têtes des footballeurs américains, pour ensuite concevoir un casque réduisant celles-ci de 50 %.

 

Ci-dessus : Une des nombreuses démos présentées lors du keynote #1

 

DataFinder Server 2014

Le keynote s’est achevé sur une présentation de DatFinder Server 2014, l’outil NI permettant de mettre en commun l’ensemble des données de travail des ingénieurs d’une même structure, le tout hébergé non pas sur autant de segments que d’ingénieurs concernés, mais sur serveur commun, et donc beaucoup plus économique, avec outil de recherche des données intégré, fonctionnant tel un moteur de recherche. L’incarnation par excellence du big analog data si cher à National Instruments.

En savoir plus sur NIWEEK 2014

Par Bruno Decottignies

Un lecteur de cartes bancaires signé Amazon pourrait bientôt voir le jour

Il n’y a, à ce jour, pas eu d’annonce officielle de la part d’Amazon. C’est le site 9to5Mac, qui est le premier à avoir diffusé l’information, ensuite relayée par diverses sources. Ce ne sont donc pour l’instant que des conjectures, bien que leurs chances de devenir concrètes soient néanmoins assez fortes.

L’appareil qui permettra aux commerçants d’encaisser les paiements par carte bancaire via leur smartphone devrait s’appeler sobrement Amazon Card Reader. Son fonctionnement serait on ne peut plus simple. En premier lieu, il s’agirait de déterminer le montant à débiter sur l’application prévue. Puis, dans un second temps, un passage de la carte de l’acheteur dans le lecteur suffirait pour lire la bande magnétique et ainsi faire le prélèvement.

Ce dispositif viendra concurrencer le Paypal Here, le Mobile Card Reader ou encore le Staples Credit Card, des lecteurs de cartes similaires.

Mais surtout, il tentera de faire de l’ombre à Square, le lecteur numéro un créé en 2010 et lancé cette année par Jack Dorsey le créateur de Twitter. Il est prévu d’être distribué à partir du 12 août autour de 10 dollars. 

Par Sébastien Tribot

Revue du web #63 : les vidéos étonnantes de la semaine

Cette semaine dans la revue du Web :

  • Chimie du dimanche : « glace chaude » et acétate de sodium ;
  • La chevauchée des gouttes d’eau, ode à la gloire de la super-hydrophobie ;
  • Hypnotique : faire danser une goutte de mercure à différentes fréquences ;
  • Le gadget (inutile?) de la semaine : le tricycle qui ne fait que du sur-place (et facilite la chute) ;
  • et en bonus : lutter contre le mal des transports, à la sauce japonaise.

Chimie du dimanche : « glace chaude » et acétate de sodium

Vous ne connaissez pas encore la « glace chaude » ? Pour débuter notre soixante-troisième revue du web, nous n’allons pas vous faire découvrir un nouveau type de crème glacée, sucrerie absurde et réconfortante pour les mois d’hiver un peu longs. L’élément principal de cette « glace chaude » est même plutôt indigeste, puisque c’est le sel de sodium de l’acide acétique, à savoir l’acétate de sodium.

La vidéo qui suit montre sa rapide formation : un grand bocal contenant une solution, une main plongée dans le bocal, et la glace chaude qui se forme presque instantanément autour de la main, cristallisation venant métamorphoser la solution, dans un dégagement de chaleur. Mais alors, comment ça marche ?

Le bocal contient une solution aqueuse basique (CH3COO- Na+ + H2O <–> CH3COOH + HO- Na+) sursaturée en sel de sodium. Cette solution est métastable (la précipitation se fait au moindre changement) et s’obtient facilement, en théorie du moins, en jouant sur la variation de solubilité en fonction de la température. On dissout donc de l’acétate de sodium dans de l’eau chaude, jusqu’à ce que l’eau ne puisse plus en dissoudre. Une fois que la température a baissé, la solution contient plus de sel qu’elle ne peut en contenir à l’équilibre, provoquant la sursaturation. Cette solution sursaturée a besoin d’un élément déclencheur (par exemple, une main enrobée de cristaux d’acétate de sodium) pour initier la cristallisation, cristaux qui donnent la texture si particulière à cette glace. La glace est dite chaude car la réaction est exothermique : l’énergie contenue dans le désordre des particules devient désormais disponible, et se libère alors sous forme de chaleur.

La chevauchée des gouttes d’eau, ode à la gloire de la super-hydrophobie

La super-hydrophobie a la côte depuis maintenant de nombreuses années. Pour preuve, la pléthore d’études qui lui sont consacrées, en Europe ou outre-Atlantique, s’appuyant souvent sur l’observation de la nature – biomimétisme, quand tu nous tiens. Les ingénieurs de la National Science Foundation (NSF, « Fondation nationale pour la science », équivalent américain du CNRS) se sont eux aussi penchés sur la question, en observant un petit scarabée de Namibie, le Stenocara, qui présente la faculté pour le moins intéressante de recueillir la condensation de l’eau sur sa carapace, afin de s’abreuver comme il le peut et survivre dans le désert.

Pour amener l’eau jusqu’à son orifice buccal, le scarabée a développé une technique à la fois unique et très astucieuse : en se penchant en avant, les gouttes d’eau glissent en suivant des micro-rainures présentes sur la carapace, dont les propriétés de mouillage sont assez particulières. Les scientifiques du NFS se sont inspirés du Stenocara pour concevoir des surfaces aux propriétés similaires, qu’ils se sont fait une joie de tester dans la vidéo qui suit, sur l’air magique de « La chevauchée des Walkyries » de Richard Wagner.

Petit rappel habituel sur l’hydrophobie : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également très efficace pour lutter contre la corrosion, l’accumulation de crasse et le « fouling », la colonisation d’un substrat (souvent immergé) par certains organismes.

Hypnotique : faire danser une goutte de mercure à différentes fréquences

Nick Moore est très curieux. Scientifique à ses heures perdues, il a pris l’habitude de filmer quelques menues expériences de son cru, pour la beauté du geste et ainsi assouvir sa soif de savoir. Ici, notre internaute soumet une goutte de mercure à des fréquences allant de 120 Hz (fréquence d’un son que l’oreille humaine peut percevoir) à 10 Hz (considéré comme un infrason, la fréquence est trop basse pour que le son puisse être perçu), faisant vibrer la goutte métallique qui emprunte certains motifs réguliers. Plus la fréquence est haute, plus les formes et motifs semblent devenir complexes.

Les ondes sonores qui traversent ou contournent la goutte de mercure font osciller cette dernière. La tension superficielle – qui augmente localement la cohésion – ainsi que la vitesse du son dans la goutte de mercure, permettent à certaines ondes sonores d’imprimer certaines vibrations dans la goutte. En d’autres termes, la goutte de mercure entre en résonance avec les ondes sonores à certaines fréquences.

Ce phénomène de résonance n’est pas sans nous rappeler les fameuses « figures de Chladni », motifs créés avec du sable sur une plaque que l’on fait vibrer. La plaque connaît localement des différences d’amplitude, responsables de motifs évolutifs et fascinants dans leur régularité.

En slow-motion :

Piqûre de rappel pour les figures de Chladni :

Le gadget (inutile?) de la semaine : le tricycle qui ne fait que du sur-place (et facilite la chute)

Pour clore en beauté notre soixante-troisième revue du web, rien de tel qu’une vidéo dont le titre colle parfaitement à son contenu et à notre rubrique du gadget (inutile?) de la semaine : « Trois roues, deux pédales, une selle, aucun but pratique ». Le tricycle qui y est présenté est conçu sur la base d’un monocycle, modifié et équipé pour l’occasion de trois roues espacées les unes des autres par un angle de 120°, et orientées selon les trois tangentes du cercle au centre duquel se trouvent la selle, le pédalier et la chaîne.

Pour trouver quelques cobayes, il suffit de poser l’absurde tricycle sur une dalle de pierre circulaire pendant un festival de musique. Un peu de boue, de la motivation, quelques bières, et le tour est joué !

Bonus : lutter contre le mal des transports, à la sauce japonaise

Ce n’est plus un mystère : bien que les causes soient souvent plus complexes, de nombreuses personnes sont sujettes au mal des transports lorsqu’elles ne sont pas assises dans le sens de la marche. Pour remédier à ce problème moderne venant parfois gâcher la vie de l’homo mobilus, certains trains japonais ne font pas dans la demi-mesure, puisqu’ils maximisent le nombre de sièges dans le « bon sens », ne laissant personne souffrir en étant assis dans le sens contraire de la marche.

Une fois arrivé en bout de ligne, pas de chichi. Pas de boucle pour faire demi-tour, pas d’escroquerie d’aiguillages non plus : le terminus devient le théâtre de la rotation de tous les sièges, sans exception, par groupes de deux. De quoi vous assurer d’être assis dans le sens de la marche… pour peu que vous puissiez vous asseoir.

Par Moonzur Rahman

Conseil management #1 : Définir soigneusement le rôle et la portée du management

Manager n’est pas si simple.

Définissez avec soin le rôle et la portée du management des hommes et de la performance, tel que vous l’envisagez. Puis confrontez votre point de vue avec celui des principaux auteurs du sujet afin de  pousser votre réflexion plus avant. Ce travail personnel est un préalable indispensable.

Manager, une définition

Qu’est-ce que manager ?

Voilà la question préalable que tout un chacun est en devoir de se poser avant de prendre en charge ses responsabilités. Depuis une bonne quinzaine d’années, les organisations ont pris goût à la distribution des titres ronflants.  Mais là il ne s’agit pas de titre mais bien d’un rôle à assumer.  Manager n’est pas un concept si aisé que cela à définir. 

Appuyons-nous sur une bibliographie choisie pour cerner du mieux possible cette notion complexe et polysémique.

Qu’est-ce que le management ?

A propos du management. Bibliographie choisie…

Pour les uns le management est un « art ».

Mais ceux qui ont appris à ne pas trop s’en laisser compter préciseront que si le management est un art, c’est avant tout celui d’inciter les autres à faire ce qu’ils n’ont pas toujours forcément envie. L’ art des apparences en quelque sorte.

Ainsi, la contrainte liée à une soumission de principe (« moi je commande toi tu obéis ») en est la forme la plus rustique. On parle alors de management directif. Bien qu’encore couramment pratiquée, cette forme de management n’est plus vraiment adaptée aux exigences actuelles.

D’autres préfèreront la classique méthode de la carotte et du bâton. Rebaptisée management par les objectifs, elle revient régulièrement au devant de la scène.

Mais les missions sont toujours plus complexes et les « managés » sont aussi des hommes avec leurs propres besoins et ambitions.

Ce constat n’est pas nouveau, et des théoriciens expérimentateurs ont ainsi, dès le début des années 60, développé un nouveau modèle de management orienté « participation » mettant en pratique le célèbre couplet à succès du win-win (plutôt démocratique que laisser-faire ou autocratique). Le management participatif était né. Malgré ses atouts, ce type de management, éternellement « révolutionnaire », rencontre encore pas mal de difficultés à sortir des séminaires, amphis et des livres de management. On le croise assez peu en entreprises.

Pour d’autres, le management est plutôt un « talent » et manager est un « métier ».

ll est tout à fait juste de reconnaître qu’il existe des managers nés, dotés d’un véritable sens inné de meneur d’hommes. Il est pourtant dommage de colporter au delà du raisonnable cette image d’Epinal du manager absolu, de droit divin.

S’il est vrai que certains peuvent quelquefois manquer de charisme et cherchent alors à développer leur leadership, c’est plutôt du côté de la communication et de la compréhension des autres (la négociation, l’art d’avoir toujours raison ou la manipulation  ?) qu’il faut rechercher le talent.  Le bon manager prendra ainsi le temps de développer (grâce au coaching ?) ses qualités d’écoute et de prise de décision. 

Les préoccupations du manager responsable ne se limitent pas à  la gestion des hommes,  aussi  complexes soit-elle. Piloter les projets de l’entreprise et assurer l’indispensable travail de prospective techno-culturelle  et managériale, sont part entière de ses attributions. Enfin, sa responsabilité porte aussi sur des aspects plus prosaïques mais tout aussi essentiels comme la gestion financière et organisationnelle.

Tout cela n’est pas simple. Et comme pour toutes choses peu simples, les méthodes et outils… prolifèrent ! Beaucoup ne sont qu’un éternel rhabillage des techniques et méthodes du passé. Même si nous connaissons actuellement le temps du changement permanent la problématique citée ci-dessus, elle, ne change pas…

Des méthodes et techniques de management vous en trouverez ici.

Bien entendu, prises dans leur contexte spécifique, elles sont toutes relativement efficaces. Mais aucune n’est universelle.

La meilleure ?

Ce sera la votre une fois que celle-ci sera au point. En attendant  vous pouvez prendre un peu de recul, ou encore vous attardez sur la « mienne »  (si, si, je vous assure !) que je développe ici même avec le management collabhorratif, non, non il n’y a pas de coquille…

 

Enfin, au terme de ce texte ne perdez pas de vue qu’une organisation ce sont des femmes et des hommes et non des pions. Les meilleures structures ne sont-elles pas celles qui justement redonnent toute sa dignité à l’Homme ?

La chasse aux « jumeaux solaires » avec le télescope spatial Kepler

En 1997, l’étude des étoiles analogues au Soleil prend un tournant important au sein de la communauté scientifique. A l’époque, seul un « jumeau solaire » avait été identifié. Récemment3, les chercheurs ont découvert une vingtaine d’étoiles analogues au Soleil, dont une dizaine de « jumeaux solaires » ce qui a permis de doubler le nombre connu auparavant.
Grâce à la réalisation de mesures spectroscopiques1, à l’utilisation de la technique d’Astérosismologie2, et à l’aide des observations du satellite Kepler, une équipe internationale pilotée par le CfA à Harvard, et impliquant des chercheurs du Laboratoire AIM (CNRS/CEA/Université Paris Diderot), a détecté une vingtaine d’analogues solaires dont l’âge a pu être estimé. Mais comment faire la différence entre analogues et véritables jumeaux ? Les analogues solaires sont des étoiles dont la masse et la composition chimique sont proches de celles du Soleil alors que les « jumeaux » ont des contraintes plus fortes (par exemple, une masse comprise entre 0,95 et 1,05 masse solaire). Les chercheurs ont déterminé de nombreux paramètres, dont la période de rotation, de chaque étoile. Celles ayant des caractéristiques trop éloignées de ces critères sont alors écartées. Les étoiles restantes constituent des « jumeaux » du Soleil, plus jeunes ou plus âgés. Elles permettent aux astrophysiciens de voir ce qu’a été et ce que sera le Soleil et donc de retracer son histoire.
Actuellement, le Soleil est à la moitié de sa vie et finira par se transformer en une étoile massive qualifiée de « géante rouge », avant de refroidir longuement et de devenir une étoile naine peu brillante. Or, cette évolution est en partie régie par la manière dont le Soleil tourne sur lui-même, cette rotation induisant des modifications profondes de sa structure interne. Et, si sa période de rotation est actuellement de 26 jours, celle-ci augmente très lentement.

En connaissant la période de rotation d’étoiles de masse comparable à celle du Soleil et en supposant le même processus de ralentissement, il est possible d’estimer leur âge. Et les étoiles jeunes tournent plus vite que les étoiles plus âgées.
Pour mesurer la rotation des étoiles étudiées ici, les astronomes ont analysé les variations de la luminosité moyenne émise par l’étoile due à l’assombrissent produit par le passage de taches stellaires (similaires à celles du Soleil) sur la surface du disque visible de l’étoile. La vitesse de rotation de l’étoile est déduite à partir du temps de passage de ces taches. Les résultats obtenus ont permis de confirmer les relations empiriques entre âge et rotation d’étoiles pour des étoiles indépendantes dites “du champ » (n’appartenant pas à un amas d’étoiles), relations uniquement validées jusqu’à présent pour des étoiles faisant partie d’amas d’étoiles jeunes. Ces nouvelles données sont d’une importance majeure pour de futures missions spatiales comme la future mission PLATO de l’ESA dont le but est d’étudier les systèmes planétaires similaires au système solaire avec des planètes de la taille de la Terre en orbite autour d’étoiles de type solaire.

1 Mesures permettant de déduire précisément certaines caractéristiques de la surface d’une étoile comme sa température et sa gravité.
2 Technique qui consiste à étudier les propriétés des ondes acoustiques qui se propagent au coeur des étoiles, et qui permet notamment d’estimer la masse, le rayon et l’âge des étoiles observées.

Source : CEA
Le CEA est un organisme de recherche sur les énergies nucléaire et renouvelables, les technologies pour l’information et la santé, la défense et la sécurité.

Et aussi dans les
ressources documentaires :

NIWeek 2014 : résumé de l’Academic Forum Keynote

Introduction en douceur par Shekhar Sharad, responsable marketing de National Instruments pour le secteur académique, qui félicite les enseignants-chercheurs partenaires de NI les plus méritants de l’année, avant de présenter les trois finalistes du Student Design Contest :

  • l’équipe Sud-Coréenne du KAIST et sa Self-Driving Car, ou EureCar ;
  • l’équipe Suisse de l’ETH Zurich, et son robot sous-marin omnidirectionnel Sepios ;
  • l’UNC Charlotte, qui a développé une fusée capable de se poser au sol sans dommage, et donc réutilisable, ce qui lui a valu d’emporter un prix lors de la NASA Student Launch Competition cette année.

Ces trois équipes ayant bien sûr truffé leurs projets respectifs de matériel National Instruments, à commencer par LabVIEW et myRio, l’outil hardware destiné aux étudiants présenté l’année dernière. Des projets qui donnent la mesure du potentiel apporté au monde de l’enseignement technique par les produits dédiés de National Instruments. « Notre objectif est de permettre aux étudiants d’utiliser des outils les plus proches possibles de ceux avec lesquels ils travailleront une  fois entrés dans le monde du travail », martèle Dave Wilson, directeur des programmes académiques de NI, qui assure la majeure partie de la présentation.

Nouvelles applications pour MyRio et NI Elvis

Au programme de ce premier keynote donc, la présentation des nouveautés impactant les produits dédiés aux étudiants et au monde de l’enseignement.

À commencer par MyRio qui, présenté il y a un an, semble avoir connu un succès commercial d’une rapidité sans précédent dans la branche académique de National Instruments.

Après quelques démonstrations d’utilisations possibles, notamment avec le CAN de la société Stratom, ou, le Qube Servo de Quanser, est présenté la nouveauté de l’année concernant MyRio : l’ouverture d’un segment d’applications propres à myRio sur le LabVIEW Tools Network, pour l’instant au nombre de vingt, dans des domaines tels la robotique, la simulation, l’acquisition de données, ou encore le développement d’applications…

Des nouveautés également du côté de NI ELVIS, l’outil éducatif compilant l’essentiel des outils nécessaires en laboratoires d’enseignement, qui se voit enrichi de six nouvelles applications, et qui surtout, permet désormais à ses utilisateurs d’ajouter des applications, élargissant l’ « écosystème » de l’outil, selon le terme chéri par National Instruments.

Enfin, l’ultime nouveauté présentée à ce Keynote, vous la connaissez déjà puisque nous vous l’avons présentée récemment, c’est VirtualBench (Lire ICI).

Le premier Keynote de NIWEEK 2014 aura lieu mardi 5 août. Un résumé sera disponible sur notre site dès la fin du Keynote !

Par Bruno Decottignies

Astuce du Web #12 : Mode d’emploi du formulaire « Droit à l’oubli » de Google

Contraint par la loi européenne, Google a donc mis en place le déjà célèbre formulaire « droit à l’oubli ». Autrement dit, la possibilité pour  une personne de faire retirer de la toile un ou plusieurs liens menant à des données compromettantes, embarrassantes ou simplement périmées. Cela peut concerner du texte mais aussi des photos ou des vidéos.

Comment faire sa demande ?

Rendez-vous sur la page du formulaire. Renseignez votre nom et votre mail, puis indiquez dans le champ prévu l’url que vous souhaitez voir supprimée. Vous pouvez en indiquer plusieurs. Pour chacune, vous devez motiver votre demande en moins de 1000s. Il vous est ensuite demandé de télécharger une copie d’une pièce d’identité puis de signer numériquement en indiquant votre nom et la date. Cliquez sur « envoyer » pour valider définitivement votre demande.

A ce jour, le délai de traitement n’est pas connu.

A noter que ce formulaire permet de faire une demande, rien ne garantit qu’elle soit acceptée. Google décide seul de retirer ou non le lien, expliquant s’appuyer sur des critères tels que l’ancienneté du lien, l’exactitude de l’information, le type de support, presse ou non… D’ailleurs, en cas d’acceptation, le lien ne disparait que de la version européenne du moteur de recherche, les liens restant visibles depuis sa version américaine. Un « droit à l’oubli » partiel et partial, mais c’est ce qui ouvre la voie à un minimum de régulation des informations présentes sur internet. D’ailleurs, le moteur de recherche Bing prépare lui aussi son propre formulaire.

Accéder au formulaire ici

Par Audrey Loubens, journaliste scientifique

Sony propose son plastique issu du recyclage à des clients extérieurs

Cette matière, appelée Sorplas (« Sony Recycle Plastic »), est déjà employée par Sony depuis 2011 dans une partie de ses appareils, à commencer par ses téléviseurs, et le groupe a décidé d’en étendre le potentiel d’utilisation à des entreprises autres, compte tenu de ses propriétés écologiques élevées.

Le Sorplas est conçu à 99% de matériau recyclé, contre environ 30% dans la plupart des autres cas.

Il est produit à partir de déchets de matières plastiques de DVD et autres disques optiques, et de films optiques pour téléviseurs. Le tout est broyé, lavé et converti en Sorplas pour la réutilisation avec une petite quantité d’additifs, tels que des retardateurs de flamme et colorants.

Sony prévoit notamment de fournir ce plastique à d’autres fabricants japonais de produits électroniques et électroménagers.

kap/anb/jh

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

Reach/CLP : toute l’actualité de juillet (2/2)

Etiquetage des générateurs d’aérosols

 

24/07/2014

Le ministère de l’économie, du redressement productif et du numérique a publié au JORF le Décret n° 2014-840 du 24 juillet 2014, portant modification des dispositions d’étiquetage applicables aux générateurs d’aérosols. Ce décret transpose en droit français les dispositions de la Directive n° 2013/10/UE publiée le 19/03/14.

Ce décret est consultable sur : legifrance.gouv.fr/jopdf/common/jo_pdf

 

 

Nouvelle proposition de classification et d’étiquetage harmonisé

 

30/07/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance, un insecticide : bendiocarb (ISO); 2,2-dimethyl-1,3-benzodioxol-4-yl N-methylcarbamate (N° CE : 245-216-8 – N° CAS : 22781-23-3). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 15 septembre 2014.

Plus d’informations sur : echa.europa.eu/harmonised-classification-and-labelling-consultation

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

La France ne renonce pas au nucléaire pour sa transition énergétique

Le projet de loi sur la transition énergétique adopté le 30 juillet en conseil des ministres est « le plus ambitieux de l’Union européenne » s’est félicitée la ministre de l’Environnement, Ségolène Royal. Très attendu, ce texte relatif à la transition énergétique pour la croissance verte, dont la ministre avait déjà présenté les grandes lignes le 18 juin 2014, mise sur des objectifs ambitieux : porter la part des énergies renouvelables dans la consommation énergétique à 32 % d’ici à 2030, réduire les émissions de gaz à effet de serre de 40 % entre 1990 et 2030 et baisser de 30 % la consommation énergétique énergies fossiles (charbon, gaz, pétrole) en 2030.

Le projet de loi fixe également des objectifs à l’horizon 2050. Il prévoit entre autres de réduire la consommation énergétique finale de 50 % en 2050 par rapport à 2012, ainsi que la division par quatre des émissions de gaz à effet de serre. Côté financements, la ministre a lancé fin juin une conférence bancaire qui devrait permettre de mobiliser quelque 10 milliards d’euros sur trois ans en faveur de la transition énergétique. Un montant jugé insuffisant pour assurer les ambitions du texte, selon plusieurs associations de défense de l’environnement.

Pas de remise en cause du nucléaire

Adoptée en Conseil des ministres le 30 juillet 2014, la version définitive du projet de loi sur la transition énergétique devra ensuite être débattue à l’Assemblée nationale. Le texte devrait être étudié en commission parlementaire en septembre, pour un examen en plénière à partir du 1er octobre. Si les objectifs français en matière de réduction des gaz à effet de serre sont en ligne avec ceux de la Commission européenne, les ambitions du gouvernement français en matière d’énergies renouvelables vont plus loin.

En effet, dans le paquet énergie-climat 2030, adopté en janvier 2014, la Commission européenne a présenté des objectifs de réduction de 40 % des gaz à effet de serre par rapport au niveau de 1990 ainsi qu’un objectif de 27 % d’énergies renouvelables, contraignant pour l’ensemble de l’Union, mais pas à l’échelle nationale.

Pour la ministre de l’Environnement, Ségolène Royale, qui a porté le texte, les objectifs français vont permettre « de faire de la France le pays de l’excellence environnementale pour pouvoir peser dans les discussions au niveau européen » a-t-elle détaillé.

La ministre a notamment évoqué le Conseil européen prévu les 23 et 24 octobre 2014, au cours duquel les chefs d’État et de gouvernement des 28 pays membres de l’Union européenne devraient accorder leurs violons sur les propositions de la Commission pour 2030. Un exercice qui devrait s’avérer périlleux, tant les politiques énergétiques des différents États membres sont disparates.

L’enjeu est également politique pour la France, qui doit en effet accueillir en 2015 la conférence Paris Climat 2015, où les gouvernements des pays développés et en voie de développement devront tenter de trouver un accord à l’échelle mondial pour limiter le réchauffement climatique.  

« La France doit être exemplaire dans cette perspective », a martelé la minister.

Le projet de loi entérine par ailleurs un des engagements de campagne du président François Hollande, la baisse de la part du nucléaire dans la production d’électricité en France. Le texte prévoit ainsi de ramener sa part de 75 % à 50 % d’ici à 2025.

Selon le bilan 2013 du gestionnaire du réseau de transport électrique français RTE, le nucléaire a représenté 73,3 % de la production française d’électricité, tandis que la part des énergies renouvelables a atteint 18,6 % de la production en 2013.

Cet objectif  ne représente pas un véritable tournant pour la France, dont la politique énergétique reste fortement axée sur le nucléaire, à l’inverse de l’Allemagne, qui a décidé de sortir du nucléaire depuis la catastrophe de Fukushima. « La France a fait le choix du nucléaire » a rappelé la ministre, confirmant que cela resterait « le socle de notre mix énergétique ».

Le projet de loi n’aborde que très peu les moyens mis en œuvres pour assurer la baisse du nucléaire. Pour l’heure, seule la fermeture de la plus vieille centrale de France, Fessenheim, a été annoncée à plusieurs reprises au niveau politique.

Cependant, la fermeture de Fessenheim n’est pas inscrite dans le texte de loi, qui se contente de plafonner la capacité nucléaire française à son niveau actuel, soit 63,2 GW.

Grâce à cette mesure, le gouvernement impose de fait la fermeture d’une centrale pour toute ouverture d’un nouvel EPR – comme celui de Flamanville prévu en 2016.   la France devra ainsi fermer une centrale de capacité égale.

Source : Euractiv

Un objectif : des poids-lourds européens de plus en plus sobres en énergie

La Commission Européenne déclare qu’elle veut s’attaquer à un vrai problème: la réduction des consommations en carburants et des émissions de CO2 des poids lourds et autres bus qui circulent en Europe. Elle annonce avoir défini un logiciel (Vecto) qui lui permettra de simuler les émissions de CO2 prévisibles pour les nouveaux véhicules mis sur le marché, première étape  nécessaire pour établir un état des lieux, puis pour fixer réglementairement,  des objectifs de progrès auprès des constructeurs.

Les émissions de CO2 des poids lourds en Europe représentent aujourd’hui le quart des émissions de l’activité transport routier ou 5% des générations totales européennes de gaz à effet de serre, affirme la Commission.

La progression de la circulation des poids lourds en Europe a entraîné une croissance des consommations de carburants et des émissions de 36% entre 1990 et 2010. Inverser cette tendance, dans un contexte de hausse inexorable des coûts des carburants, apparaît comme étant un défi nécessaire à la bonne santé économique des nations européennes.

Il en résulte que l’objectif pour 2050, fixé par ailleurs, de réduire de 60% les émissions de CO2 par rapport au niveau de référence de 1990 est donc un objectif d’une grande ambition qui nécessitera la mise en place de progrès technologiques significatifs sinon révolutionnaires.

Parmi les grandes familles d’actions envisageables par les constructeurs, les actions portant sur la réduction des pertes d’énergie tout au long de la chaîne de traction, sur l’aérodynamisme du véhicule, sur sa réduction de masse à vide, sur la réduction des déformations des pneumatiques au contact de la chaussée, sur l’aide à la conduite et l’aide au choix d’itinéraire ne seront pas suffisantes pour atteindre l’objectif.

Se posera alors le problème de l’hybridation des poids lourds qui permettra de récupérer l’énergie cinétique au freinage, point clé d’une amélioration réelle de l’efficacité énergétique de ces véhicules très lourds, en particulier durant les phases d’embouteillages de la circulation aux abords des agglomérations, lieux où les consommations de carburant s’emballent.

Une hybridation électrique centralisée, du type de celle mise au point sur les véhicules de tourisme, nécessiterait d’énormes batteries onéreuses associées à des moteurs électriques de très grande puissance. Une option possible, pour fractionner ce bilan énergétique et réduire ainsi les pertes d’énergie, consisterait à traiter ce problème de façon autonome dans chacune des roues ou sur chacun des essieux, y compris ceux des remorques, de  poids lourds qui peuvent dépasser en charge les 40 tonnes.

L’autre option réside dans le stockage pneumatique, si possible adiabatique, de cette énergie.

Formidables défis technologiques en perspective, à affronter sans tabous.

Les économies attendues en achats de carburants devraient permettre d’amortir les surcoûts prévisibles d’une technologie plus complexe des ensembles.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Nouvelles réactions politiques au projet de loi sur la transition énergétique

– François de Rugy, coprésident des députés écologistes: « Pour la première fois de notre histoire, le Parlement va être amené à voter une loi définissant la politique énergétique. Et cette loi organisera la décroissance de notre dépendance au nucléaire et aux énergies fossiles au profit de l’efficacité énergétique et des énergies renouvelables. Elle mettra en oeuvre le compromis passé entre les écologistes et les socialistes avant 2012. Contrairement à ce qu’espérait le lobby nucléaire, PDG d’EDF et Arnaud Montebourg en tête, le gouvernement n’est pas revenu sur l’engagement de François Hollande de réduire la part du nucléaire de 75 à 50% dans la production d’électricité à l’horizon 2025. Comme l’a souligné Denis Baupin, vice-président de l’Assemblée nationale, +la transition énergétique est non seulement une obligation écologique, mais aussi une formidable opportunité économique face à la crise : elle peut permettre de créer des centaines de milliers d’emplois non délocalisables, redonner du pouvoir d’achat aux ménages, et réduire notre dépendance aux importations énergétiques+. » (communiqué)

– Yann Wehrling, porte-parole du groupe UDI-MoDem: « La lecture des nombreux articles de la loi donne un sentiment de service minimum. Beaucoup de ces articles confirment des actions déjà engagées et initiées dès le Grenelle de l’environnement. C’est donc un texte sans grande surprise qui assure une continuité sans pour autant donner le coup d’accélérateur qui était attendu. Les grandes orientations sont rassurantes mais les moyens, notamment financiers, restent imprécis. Il est par ailleurs surprenant de constater le calendrier retenu. Cette loi, présentée comme un +moment important du quinquennat+, est annoncée au coeur de l’été, après des reports à répétition dissimulant mal les hésitations au sein du gouvernement. Aurait-on voulu réduire au maximum l’impact médiatique de cette loi et laisser entendre que le gouvernement ne veut pas en faire un temps fort de son action, qu’on ne s’y serait pas pris autrement. » (communiqué)

zl/rh/sd

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Réactions politiques au projet de loi sur la transition énergétique

– Association des régions de France: « Ce texte consolidé engage la France sur des objectifs ambitieux et réalistes à la fois. Il introduit un nouveau modèle qui fait une large place aux collectivités locales. Les régions étaient particulièrement attentives aux évolutions du texte permettant d’enclencher une dynamique ambitieuse en faveur de la rénovation énergétique des logements. De leur point de vue, l’enjeu majeur réside dans la capacité des différents acteurs publics à créer un véritable +guichet unique+ susceptible d’accompagner les ménages tout au long de leur projet de travaux, et travaillant à la fois à la structuration de l’offre de professionnels qualifiés. » (communiqué)

– Julien Aubert, député UMP du Vaucluse: « Le gouvernement s’apprête à dépenser des milliards d’euros sans avoir réfléchi aux outils nécessaires pour assurer une dépense efficace. Les objectifs retenus par le projet de Mme Royal sont flous: ils n’ont qu’un but purement politicien, à savoir contenter les Verts. S’agissant du nucléaire, on ne peut que constater la lâcheté dont le gouvernement fait preuve. En voulant copier le modèle allemand, il s’apprête à mettre à mort une filière française d’exception, sans toutefois le reconnaître clairement. (Toutefois) le gouvernement rejoint l’opposition notamment sur la question du tout électrique dans le domaine des transports en ouvrant des voies aux multiples technologies et aux différentes sources énergétiques. De même, s’agissant de la simplification administrative, quelques avancées sont prévues par ce projet de loi. » (communiqué)

– François Brottes, député PS et président de la commission des Affaires économiques de l’Assemblée nationale: « Pour réduire la facture énergétique de la France, lutter contre le chômage et répondre au défi du changement climatique, ce texte engage un travail collectif de pédagogie et de conviction partagée. Chacun de nous en sera décideur et acteur. Ce texte démultiplie les capacités d’initiative pour réussir la transition énergétique, c’est-à-dire gagner la bataille d’une énergie propre, diversifiée et vraiment accessible à tous (…). C’est un texte de réconciliation et de rassemblement. » (communiqué)

– Le Parti communiste français: « L’objectif de diminuer par deux nos consommations d’énergie à l’horizon 2050 est réaffirmé. Cet objectif est contestable et il est pour le Parti communiste un objectif insoutenable! Cette perspective est complètement incohérente avec l’évolution démographique de notre pays dont les prévisions s’acheminent vers 70 millions d’habitants en 2050 et d’autre part par l’exigence du droit à l’énergie pour tous en corrélation avec la satisfaction des besoins sociaux. Les baisses de consommation observées ne sont que les conséquences de la crise sur l’activité économique et l’augmentation de la précarité énergétique. Le PCF ne se résigne pas à la désindustrialisation de notre pays. Et cela suppose un accroissement de nos capacités de production et donc de consommation d’énergie. » (communiqué)

– Didier Guillaume, président du groupe socialiste du Sénat: « Ce projet tant attendu vient concrétiser les engagements du président de la République et constituera sans nul doute l’un des plus gros dossiers de la rentrée parlementaire. Le nouveau modèle énergétique français, c’est un levier important d’investissements d’avenir pour relancer la machine de la croissance et la création d’emplois durables. Un véritable foyer d’innovation pour nos entreprises, dans de nombreux secteurs au premier rang desquels la construction, les transports, les énergies renouvelables, et l’économie circulaire. C’est une chance à saisir sans tarder pour le développement de nos territoires. C’est aussi une chance à saisir pour tous les ménages français: économiser l’énergie, c’est la garantie d’une baisse de factures! » (communiqué)

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Bientôt des batteries flexibles imprimables !

Grâce sa technologie de batterie brevetée ZincPoly, Imprint Energy est en passe de bouleverser le marché des batteries pour les petits appareils électroniques portables,. Ce marché dépasse aujourd’hui les 1 milliard de dollars et devrait croître sensiblement avec l’émergence de l’internet des objets et le développement de l’électronique portable.

Imprint Energy développe des batteries sans dangers pour les applications életroniques portables embarquées sur ou à l’intérieur du corps humain. Ces batteries présentent une faible taille et une grande flexibilité qui permettront la conception de nouveaux produits jusque là non imaginables avec des batteries à base de lithium.

Des batteries solides à base de zinc

Imprint Energy a été fondé en 2010 sur le renforcement des recherches originales de la cofondatrice de la société, Christine Ho, à l’Université de Californie à Berkeley. Elle avait alors collaboré avec un chercheur au Japon pour produire des batteries de zinc microscopiques à l’aide d’une imprimante 3-D.

Les batteries qui alimentent la plupart des nouvelles technologies contiennent du lithium. Mais ce métal est très réactif et doit être protégé par un système électronique de protection, ce qui augmente la taille de la batterie et donc l’encombrement des circuits.

Les batteries lithium-ion fonctionnent mal lorsqu’elles sont extrêmement minces, de sorte que Christine Ho a développé un nouveau type de chimie de la batterie en utilisant du zinc. Le zinc n’étant pas toxique et étant stable, il ne nécessite pas de gaine protectrice. Pour rendre la batterie rechargeable, Christine Ho a eu l’idée de mettre au point une membrane électrolyte polymère solide. Les cellules sont minces comme du papier et pliables. Il est alors possible de les imprimer directement avec une imprimante industrielle ordinaire.

Les innovations de l’entreprise dans la chimie de la batterie rechargeable de zinc lui ont permis de développer des cellules à l’état solide, minces et flexibles, aux performances et fonctionnalités inégalées. Les batteries ZincPoly sont plus minces, plus souples, plus personnalisables et offrent une liberté sans précédent dans la conception des objets.

Des batteries plus fiables et vérifiées

Malgré la demande en batteries flexibles, Christine Ho explique qu’aucun standard n’a encore été développé pour mesurer leur flexibilité, frustrant les clients qui souhaitent comparer les chimies. La société a donc construit son propre banc d’essai et a  entrepris une analyse comparative de ses batteries avec les batteries commerciales prétendues flexibles. Les batteries existantes auraient cessé de fonctionner après moins de 1000 cycles de flexion, tandis que les batteries d’Imprint seraient restées stables.

La flexibilité de cette batterie la rend particulièrement attrayante pour l’électronique portable. La société vise ainsi les fabricants d’appareils électroniques portables, d’appareils médicaux, d’étiquettes intelligentes, et de capteurs environnementaux. Elle a même récemment commencé à travailler sur un projet financé par l’armée américaine pour fabriquer des batteries alimentant des capteurs servant à surveiller l’état de santé de ses soldats.

En juin 2014, la société a levé 6 millions de dollars des fonds de Phoenix Venture Partners, ainsi que d’AME Cloud Ventures, le fonds de placement du cofondateur de Yahoo Jerry Yang. Cette somme lui permettra de développer sa technologie et financer le lancement commercial de ses nouvelles batteries.

Découvrez la technologie en vidéo (en anglais)

Par Matthieu Combe, journaliste scientifique

Le plus grand avion en papier vole à plus de 150 km/h

Le projet retenu a été soumis à une société d’ingénierie pour réaliser l’avion pensé par le jeune garçon de douze ans. Le premier prototype a été réalisé avec des plaques de carton alvéolé. L’avion fait tout de même quatorze mètres de long pour huit mètres d’envergure. Le tout pour un poids plume de trois cent soixante kilogrammes.

 L’Arturo’s Desert Eagle a été testé dans le désert de l’Arizona. Héliporté à 4000 pieds d’altitude, son vol n’a duré que quelques secondes, suffisant pour que l’avion de papier atteigne la vitesse de 160 km/h. Malheureusement, l’arrière de sa structure s’est vite dégradé, suffisamment pour provoquer la chute de l’avion.

La réalisation du plus grand avion en papier au monde est néanmoins un succès, tant sur le plan technique que sur celui de la communication. Cette initiative a motivé une centaine d’enfants et les a sensibilisés à l’ingénierie aéronautique. Le vainqueur du concours a d’ailleurs déclaré souhaiter s’orienter vers une carrière d’ingénieur.

Découvrez le vol spectaculaire filmé par une GoPro :

Par Audrey Loubens, journaliste scientifique

EDF: résultats semestriels solides grâce au nucléaire et aux économies

Sur les six premiers mois de l’année, le bénéfice net du producteur français d’électricité est ressorti en hausse de 8,3% à 3,1 milliards d’euros, pour un chiffre d’affaires en repli de 3,8% à 36,1 milliards, affecté par des conditions météorologiques défavorables qui ont pesé sur la demande d’énergie.

« Cette bonne performance est la preuve de notre capacité à répondre à deux impératifs indissociables: satisfaire les intérêts de nos actionnaires, et accomplir avec détermination notre mission de service public », commente le PDG, Henri Proglio, dans un communiqué du groupe.

Détenu à 84,4% par l’Etat, EDF avait annoncé en février qu’il réduirait progressivement ses investissements et continuerait à maîtriser ses coûts afin de générer une trésorerie positive après dividendes en 2018, en excluant le déploiement du compteur communicant Linky.

Ces efforts en matière de coûts se sont traduits en 2013 par des économies de 1,3 milliard d’euros, tandis que le montant des investissements nets devrait s’établir entre 13 et 13,5 milliards d’euros en 2014.

Le géant de l’électricité a bénéficié aussi de la hausse de 5% des tarifs réglementés de vente en août 2013, mais l’augmentation identique prévue à la même période cette année a été annulée par la ministre de l’Energie Ségolène Royal, qui a invoqué une réforme en cours de leur mode de calcul afin d’en limiter l’inflation et préserver le pouvoir d’achat des consommateurs.

Matignon avait toutefois tempéré cette annonce, qui avait provoqué une chute spectaculaire du cours d’EDF à la Bourse de Paris, en indiquant qu’une « hausse modérée, inférieure à 5% », interviendrait en septembre ou octobre.

mpa/fpo/gf

 

 

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le problème énergétique majeur français : ses importations de pétrole et de produits pétroliers

Les médias parlaient alors du solde commercial « hors pétrole », laissant supposer que cet incident mineur dans les prix de la ressource ne serait que passager et que reviendrait rapidement le temps d’une énergie bon-marché qui avait caractérisé les trois décennies glorieuses d’après-guerre. Or, comme tout le monde le sait à-présent, il n’en a rien été.

Pour renouer avec cette tradition, bien de chez nous, je peux vous annoncer que le solde du commerce extérieur de notre pays, « hors pétrole et gaz » est quasiment à l’équilibre. Alors tout va bien me direz-vous ! A une condition cependant, que les cours du gaz naturel et du pétrole soient réduits de 90% durant la décennie à venir…hypothèse possible mais peu probable.

Un examen  des données publiées par les Douanes sur ce thème du solde du commerce extérieur (TAB.I) à la fin du mois de Mai dernier, montre que les importations sur les douze derniers mois, de pétrole et de produits pétroliers, corrigées des exportations, ont coûté à la France dans les 50 milliards d’euros. Une analyse rigoureuse des effets volumes et des effets prix sur les variations par rapport aux années antérieures n’est pas évidente à mener,  mais il est possible de constater que ce poste, cumul des deux premières lignes du Tableau, a toujours été depuis 2011 supérieur ou égal à ces 50 milliards d’euros, en accord avec une très faible décroissance des consommations de produits pétroliers de la France durant la dernière décennie, et une baisse des activités de raffinage avec transfert des importations de pétrole brut vers celles de produits raffinés plus onéreux.

 

Tableau.1 : solde exportateur net de la France en produits énergétiques  et autres produits à forte teneur énergétique. (Douanes)

 

Il ressort de ces données qu’à court et moyen terme, le problème de la France n’est pas de produire plus d’énergies renouvelables, mais c’est de consommer moins de gaz et de pétrole. Or dans une économie aux ressources contraintes, ce qui est le cas de notre pays, se tromper de « tempo », peut être une faute très grave.

Faut-il investir en priorité dans la suppression des consommations de fioul domestique ou dans les éoliennes offshores en surnombre en Europe ?

Vu des données du commerce extérieur et de l’objectif majeur de rétablissement de bonne santé économique de notre pays, il est clair que c’est le poste de réduction des consommations qu’il faut privilégier et laisser le poste onéreux des énergies intermittentes à notre riche voisine allemande, largement spécialisée sur ce sujet hors de prix.

Lire aussi : Comment réduire la consommation française de produits pétroliers ?

Par Raymond Bonnaterre

Comment réduire la consommation française de produits pétroliers ?

La faible rentabilité du raffinage français et son inaptitude à produire les volumes gazole largement consommés localement, conduit les distributeurs de fioul domestique et de gazole à importer largement cette ressource (56% de la consommation nationale d’après l’UFIP), ce qui conduit le poste « produits de raffinage du pétrole » à un solde négatif sur les douze derniers mois de 17,4 milliards d’euros qui se rajoute au précédent. En bref le solde du commerce extérieur du pétrole et de ses dérivés frôle, sur douze mois, un solde négatif proche des 50 milliards d’euros. Tel est le prix de l’addiction des citoyens de ce pays au pétrole, facture insupportable et pour laquelle les exportations de biens et de services vers les pays pétroliers ne suffisent pas et de beaucoup, à faire revenir ces milliards dépensés. Il y a là, de toute évidence, une des raisons majeures de la faiblesse économique de notre pays qui globalement consomme trop et surtout, ne produit pas assez.

Passons rapidement sur la pertinence de taxer plus encore cette énergie importée pour tenter par un « signal prix » d’en réduire la consommation intérieure. Les taxes  pléthoriques en France, asphyxient notre pays et appauvrissent ses citoyens en raison de l’inefficacité des multiples prestations collectives qu’elles supportent. 

La voie vertueuse de la réforme se situe bien d’avantage vers la réduction des consommations, à prestations équivalentes, par une optimisation, une amélioration continue  de l’efficacité énergétique des processus. La question qui se pose alors est la suivante : quels sont les postes, les cas d’emplois qui doivent être examinés en priorité ?

 

Figure.1 : Estimation de la répartition des consommations de produits pétroliers en France en 2013, à partir de plusieurs sources (UFIP et BP)

 

Un examen de ces cas d’emplois des produits pétroliers en France en 2013 permet d’estimer que sur 1,7 million de barils de produits raffinés consommés quotidiennement, 51% de ces volumes sont dédiés au transport terrestre (Fig.1).

Cette part de la consommation des transports par rapport à toutes les autres utilisations est en croissance en France (Fig.2), comme elle l’est dans de nombreux pays dans le monde en développement, sous l’impact de la croissance trafic routier, et cela malgré une baisse régulière de la consommation moyenne nominale des véhicules constituant le parc.

 

Figure.2 :  Part des consommations annuelles en volumes de carburants routiers rapportées aux consommations totales de produits pétroliers en France.

 

Cet accroissement relatif de la part des carburants routiers se développe sur fond d’une trop lente décroissance des consommations énergétiques (Fig.3) de ce secteur.

En effet la décroissance moyenne des livraisons de carburants routiers durant la décennie précédente peut être estimée à 0,4% par an, tendance dont la faiblesse n’est pas de nature à modifier radicalement l’équation économique défavorable.

Depuis le mois de Janvier 2013, date où la consommation annuelle moyenne en carburants routiers est passée au dessous des 860 mille barils/jour, la consommation sur les douze derniers mois s’est quasiment stabilisée au-dessus des 850 mille barils/jour.

 

Figure.3 : flux des consommations sur douze mois mobiles, en milliers de barils par jour, de carburants routiers en France (UFIP).

 

Un certain nombre d’actions de progrès portant sur l’efficacité énergétique des véhicules neufs par réduction de masse, hybridation, motorisation plus efficace, utilisation de pneumatiques optimisés, ou portant sur les infrastructures et les aides à la conduite en vue de la  réduction des bouchons routiers dans la périphérie et au sein des grandes agglomérations ne suffiront pas à accélérer cette vitesse de décroissance des consommations. Une part essentielle est dans l’évolution trop lente des mentalités qui devraient, peu à peu, se convaincre qu’un véhicule « smart » doit être de faible masse, de forme profilée et de taille réduite. Or, aujourd’hui, sur le modèle américain, nombreux sont convaincus que plus le véhicule est massif ou imposant et plus le conducteur est riche et fort!

En conclusion, il est possible d’affirmer qu’il serait bien illusoire d’espérer, à court ou moyen terme, une baisse des consommations de carburants routiers en France qui permettrait d’améliorer la balance commerciale dans le domaine du pétrole et des produits pétroliers.

Seule une disparition programmée des consommations de fioul domestique dans l’industrie, le commerce et au sein des habitations, est de nature à faire baisser de 10% les consommations françaises en produits pétroliers. La fin des consommations de fioul domestique, largement importées, serait équivalente à une baisse de 20% des consommations de carburants routiers.

Il y a là un bon objectif à mettre en priorité parmi les objectifs de réduction de la dépendance énergétique de notre pays et d’amélioration de son économie, à condition de remplacer une part de la combustion du fioul importé par une ressource autochtone, comme l’électricité, au sein de locaux thermiquement mieux isolés et à l’aide de procédés de très forte efficacité énergétique comme les pompes à chaleur.

Par Raymond Bonnaterre

Comment pister la représentation des odeurs dans le cerveau

Cette structure cérébrale profonde joue un rôle important dans l’olfaction et restait jusqu’à présent inaccessible par imagerie fonctionnelle. Ces travaux apportent également de nouvelles données sur le fonctionnement, encore mal connu, du système olfactif, notamment sur la façon dont sont traitées les informations au niveau cérébral.
Cette étude est le résultat d’une collaboration entre l’équipe de Mickaël Tanter de l’Institut Langevin (CNRS/Inserm/ESPCI ParisTech/UPMC/Université Paris Diderot) et celle de Hirac Gurden du laboratoire Imagerie et modélisation en neurobiologie et cancérologie (CNRS/Université Paris-Sud/Université Paris Diderot). Elle est publiée dans la revueNeuroImage du 15 juillet 2014.

Comment aboutir à une représentation de l’environnement extérieur à partir de la perception des sens ? Comment, par exemple, les informations olfactives liées à la nourriture ou aux parfums sont-elles traitées par le cerveau ? Si l’organisation du système olfactif est bien connue – elle est semblable des insectes jusqu’aux mammifères – son fonctionnement est encore peu compris. Pour répondre à ces questions, les chercheurs se sont donc intéressés à deux structures cérébrales qui constituent des relais majeurs pour l’olfaction : le bulbe olfactif et le cortex piriforme. Chez le rat, le bulbe olfactif se situe entre les deux yeux, juste derrière l’os du nez. Le cortex piriforme est par contre une structure beaucoup plus profonde du cerveau des rongeurs dont aucune image fonctionnelle n’avait pu être enregistrée chez un animal vivant jusqu’à présent.

La technique d’imagerie neurofonctionnelle par ultrasons développée par l’équipe de Mickaël Tanter, baptisée fUS (functional Ultrasound), a permis de suivre l’activité neuronale du cortex piriforme. Elle est basée sur l’envoi d’ondes planes ultrasonores dans les tissus cérébraux. Les échos renvoyés par les structures traversées par ces ondes permettent, après traitement des données, d’obtenir des images ayant une résolution spatiotemporelle inégalée : 80 micromètres et quelques dizaines de millisecondes.
Le contraste obtenu sur ces images est lié aux variations du flux sanguin dans le cerveau. En effet, l’activité des cellules nerveuses nécessite un apport en énergie : elle est donc couplée à un afflux de sang dans la zone concernée. En enregistrant les variations de volume dans les vaisseaux sanguins qui alimentent les différentes structures cérébrales, il est ainsi possible de connaître la localisation des neurones activés.

Plusieurs techniques d’imagerie, comme l’IRM, s’appuient déjà sur le lien entre volume sanguin et activité neuronale. Mais fUS est avantageuse en terme de coût, de maniabilité et de résolution. De plus, elle donne un accès facilité aux structures les plus profondes, situées plusieurs centimètres sous la boîte crânienne.

Les enregistrements effectués par cette technique dans l’équipe de Hirac Gurden ont permis d’observer la répartition spatiale de l’activité dans le bulbe olfactif. Lorsqu’une odeur est perçue, on observe une augmentation du volume sanguin dans des zones bien définies : à chaque odeur correspond une carte spécifique de neurones sollicités. Au-delà de ce résultat, les images révèlent aussi, pour la première fois, l’absence de cette répartition spatiale dans le cortex piriforme. A ce niveau, deux odeurs différentes entraînent la même activation de l’ensemble de la zone.
Les mécanismes cellulaires responsables de la disparition de la signature spatiale ne sont pas encore bien définis mais ce résultat permet déjà de formuler plusieurs hypothèses. Le cortex piriforme pourrait être une structure qui ne sert pas seulement à traiter les stimuli olfactifs mais plutôt à intégrer plusieurs types d’informations et à les mémoriser. Se détacher des cartographies strictes associées à chaque odeur permettrait de faire des associations et d’aboutir à un concept global. Par exemple, à partir de la perception de centaines de molécules odorantes contenues dans le café, le cortex piriforme permettrait de reconnaître une unique odeur : celle du café.

Ces travaux ouvrent de nouvelles perspectives pour l’imagerie et pour la neurobiologie. Les chercheurs vont maintenant s’intéresser à l’effet de l’apprentissage sur l’activité du cortex afin de mieux comprendre son rôle et les spécificités du système olfactif.

Références :
Functional ultrasound imaging reveals different odor-evoked patterns of vascular activity in the main olfactory bulb and the anterior piriform cortex. B.F. Osmanski, C. Martin, G. Montaldo, P. Lanièce, F. Pain, M. Tanter, H. Gurden. NeuroImage. 15 juillet 2014.
DOI: Consulter le site web

Source : CNRS

Un robot de la Nasa bat le record de distance extra-terrestre parcouru en roulant [AFP]

Depuis son arrivée sur Mars, Opportunity, propulsé par l’énergie solaire, a couvert 40 kilomètres. Il a ainsi battu le record officieux établi par le robot Lunokhod 2, lancé par l’Union soviétique sur la Lune en 1973.

« Opportunity est allé plus loin que n’importe quel autre véhicule roulant sur la surface d’un autre monde », a déclaré John Callas, du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena, en Californie (ouest).

« C’est remarquable si l’on considère qu’Opportunity ne devait à la base rouler que sur 1 kilomètre et qu’il n’a pas été conçu pour de telles distances », a-t-il ajouté.

Opportunity et son jumeau aujourd’hui hors d’usage, Spirit, ont découvert des traces d’environnements humides sur Mars, certains ayant pu être propices à la vie.

Opportunity explore aujourd’hui le cratère Endeavour sur Mars.

Son descendant, le robot Curiosity lancé en 2012, a de son côté parcouru seulement 8,6 kilomètres jusqu’à présent, a précisé la Nasa à l’AFP. Et sa destination finale ne lui permettra pas a priori de rouler autant que son prédécesseur Opportunity.

Selon la Nasa, Lunokhod 2, qui s’était posé sur la Lune le 15 janvier 1973, a parcouru 39 kilomètres en moins de cinq mois. Ce chiffre est basé sur de récents calculs effectués grâce aux images d’un module de reconnaissance autour de la Lune, sur lesquelles on voit les traces laissées par Lunokhod dans le sol lunaire.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Entretien avec Valérie Guillet, experte en risque HSE, à propos du rôle du responsable HSE

Techniques de l’Ingénieur : Quel est le rôle du responsable HSE au sein d’une entreprise ?

valérieguilletValérie Guillet : Il doit être considéré comme un expert interne sur les questions HSE, chargé d’identifier les réglementations applicables, de communiquer dessus auprès de ses collègues afin qu’ils les respectent, et d’anticiper les réglementations à venir. Son travail doit être pris en compte dans la stratégie d’entreprise, tant dans le développement de nouveaux produits que dans l’anticipation des évolutions législatives concernant des produits déjà existants.

Entendons-nous bien : son rôle est un rôle d’animation, dont l’objectif de faire intégrer à la direction et aux équipes les obligations réglementaires, et non pas un rôle d’application directe de celles-ci. Le responsable HSE n’est pas responsable de la sécurité, c’est le manager qui l’est, et qui peut faire changer les comportements. Le Responsable HSE est là pour éviter à la direction des problèmes pouvant relever du pénal, et au personnel d’être victime d’accidents, par un rôle de veille juridique et de conseil. Il n’est pas là pour, comme trop d’entreprises l’imaginent, appliquer directement lui-même les réglementations au sein de l’entreprise.

Techniques de l’Ingénieur : Quelles armes doit posséder le responsable HSE pour mener sa tâche à bien ?

Valérie Guillet : Il doit principalement savoir organiser son travail de veille juridique, sans quoi il risque d’y passer beaucoup trop de temps. Même si les résultats peuvent ne pas sembler flagrants pour l’entreprise, posséder un outil de veille efficace peut être déterminant. Il doit donc se poser comme adjoint à la direction, et chercher à la protéger des retombées judiciaires, en lui faisant appliquer les normes en vigueur. En agissant ainsi, tout le monde y gagnera, et la productivité augmentera. Anticiper sur les évolutions législatives peut même apporter des subventions. C’est au responsable HSE de savoir « vendre » ce type d’initiatives.

Mais surtout, le responsable HSE doit être capable de faire preuve de diplomatie, de persévérance, et d’une grande force de conviction. Il doit pouvoir dire des choses qui vont déplaire, et encaisser des critiques en retour.

Techniques de l’Ingénieur : Vous co-animez chez Techniques de l’Ingénieur un cycle de formation sur cette thématique. A qui s’adresse-t-il ?

Valérie Guillet : Chez les responsables HSE, deux profils se distinguent : les « jeunes » sortant de formations spécialisées, type DUT, et les plus anciens, souvent d’anciens responsables de maintenance, de production, reclassés en fin de carrière sur une tâche moins pénible physiquement. Certains responsables HSE ne réalisent pas cette tâche à temps complet, mais en complément d’autres tâches. Ce programme est donc établi pour ce type de profils, afin de leur éviter certains écueils, le principal, évoqué plus haut, étant de tout faire à la place des autres.

Nous traitons donc de la réglementation, des savoirs et des savoir-faire à maîtriser, mais aussi du rôle d’animateur du responsable HSE, qui est à mon sens fondamental. Nous traitons de ce point en particulier pendant trois jours, car il est crucial : le métier de responsable HSE peut être très intéressant, puisqu’il se situe à l’intersection de tout le monde dans l’entreprise, mais pour cela il faut vraiment être capable de changer les habitudes, et donc disposer des bons outils et des bonnes méthodes pour conduire le changement.

Une première estimation du flux des ressources mondiales de condensats de gaz de schistes assimilables à du pétrole

Ces extractions localisées pour l’instant en Amérique du Nord, viennent conjoncturellement et à bon escient, compenser les manques de productions de certains pays de l’OPEP agités par d’interminables querelles internes à caractères religieux ou claniques.

On sait d’autre-part, ou on soupçonne fortement, que des gisements de gaz de schistes, dont certains seront exploitables, existent par ailleurs dans le monde. Jusque là,  personne ne s’est risqué à échafauder une quelconque projection chiffrée de la ressource.

Cependant, durant la Conférence sur l’Energie 2014 de l’EIA, qui s’est tenue  les 14 et 15 Juillet à Washington, Samuel Gorgen, analyste à l’EIA a présenté un papier sur l’avenir de l’extraction des fractions pétrolières issues des condensats de gaz de schistes aux USA et dans le monde (Figure 1).

Ce spécialiste du Ministère de l’Energie Américain (DOE), estime, à ce jour, que le flux mondial d’extraction de la part des condensats assimilables à du pétrole pourrait dépasser les 9 millions de barils par jour vers 2035. Rappelons que les extractions mondiales de pétrole brut sont de l’ordre de 75 millions de barils/jour et devraient progresser vers les 85 millions de barils/jour durant la décennie à venir.

Il me paraît nécessaire de prendre cette prévision de l’EIA avec beaucoup de philosophie en raison des incertitudes qui pèsent tout d’abord sur les seules prévisions américaines qui oscillent entre un plateau d’extraction situé entre 4 à 5 millions de barils/jour en 2020 (cas de référence représenté ici) et  celui qui atteindrait autour des 8 millions de barils/jour vers 2040 dans le cas d’un scénario beaucoup plus optimiste, auxquelles se rajoutent les erreurs probables des prévisions mondiales.

Retenons pour l’instant et pour simplifier le message, que le monde pourrait extraire des gaz de schistes, dans les décennies à venir,  autour des 10% de ses ressources pétrolières, ce qui ne serait pas si mal.

D’intenses prospections pour mettre à jour ces hypothétiques ressources se déroulent dès à présent en Russie, en Chine et en Amérique du Sud. L’enjeu économique, sur la base d’une industrie mondiale du seul pétrole et de ses dérivés estimée vers les 4000 milliards de dollars en 2014 est considérable, ce qui rend fort plausible cette hypothèse de projection.

Figure 1 : Flux d’extraction de la part des condensats assimilables à du pétrole 

Par Raymond Bonnaterre

Google classe les FAI selon la bande-passante allouée à YouTube

Depuis fin mai, une nouvelle fonctionnalité est apparue chez certains utilisateurs américains de YouTube : le « Video Quality Report ». Dès lors qu’une vidéo met du temps à charger ou que sa qualité est trop faible, une bannière indiquant « Difficile de lire cette vidéo? Découvrez pourquoi » apparaît sous la vidéo. En cliquant dessus, ces utilisateurs découvrent le classement des meilleurs (et des pires!) fournisseurs d’accès à internet (FAI) pour regarder YouTube.
Les opérateurs y sont classés en 3 catégories : « YouTube HD garantie » pour les opérateurs offrant une lecture fluide de vidéos haute définition en streaming (720p minimum), « définition standard » pour les opérateurs offrant un visionnage sans difficulté en résolution standard (360p) et « basse définition » pour les opérateurs ne permettant une lecture des vidéos de moyenne définition qu’à renfort de coupures.
Google indique gentiment à l’utilisateur le débit de son FAI, mais aussi ceux de ses concurrents qui permettent une meilleure lecture de ses vidéos dans son quartier.

Quelles sont les explications de Google ?

Sur le site dédié, Google explique que les FAI jouent un rôle important « en amenant la vidéo à travers leur réseau jusqu’à votre maison ». « Ils doivent s’assurer d’avoir une capacité suffisante pour transporter les données de YouTube. Dans le cas contraire, la qualité de vos vidéos en souffrira », précise-t-il. Mais le géant de l’Internet reconnaît que la qualité de la vidéo peut aussi diminuer si votre connexion Wi-Fi est mal configurée, si trop d’appareils sont connectés simultanément à Internet, ou encore lors des pics d’utilisation d’Internet.

Ainsi, YouTube délivre un message simpliste signifiant grossièrement « Si le chargement est long, c’est sûrement à cause du faible débit réservé à YouTube par votre fournisseur d’accès; si vous souhaitez améliorer ce débit, vous pouvez changer de fournisseur, d’ailleurs on vous en propose quelques-uns ! « . En conseillant implicitement de se tourner vers les opérateurs qui privilégient YouTube dans l’allocation de leurs bandes passantes, Google met directement la pression aux opérateurs pour que ceux qui ne le font pas encore priviligient, à leur tour, YouTube afin de garder leurs clients.
Avant même l’arrivée de ce dispositif en France, Orange critique déjà une fonctionnalité partisane, incomplète, vague et sans garantie d’indépendance. En effet, cet indicateur ne concerne que YouTube et pourrait laisser penser aux utilisateurs que cela vaut pour l’ensemble des sites Internet. Mais, un FAI avec un bon débit sur YouTube délivre-t-il aussi un meilleur débit sur l’ensemble des autres sites? Est-il plus ou moins fiable? Un tel jugement doit être réservé à un observateur indépendant et non à un acteur privé.

Que recherche YouTube avec ce dispositif ?

Cette fonctionnalité sert à peser dans un débat qui fait rage depuis quelque temps et oppose les éditeurs de contenus et les FAI. En somme, la question est assez simple : les gros éditeurs de contenus, nécessitant une bande passante importante doivent-ils payer plus que les autres sites web ? C’est notamment le cas des sites de Streaming, comme YouTube et Netflix. Les FAI estiment que ces éditeurs doivent participer financièrement pour les aider à accroitre leurs capacités. Mais le géant Google ne l’entend pas de cette oreille : pour lui, c’est aux fournisseurs d’accès de prendre en charge les travaux nécessaires, les utilisateurs les payant pour avoir accès convenablement aux sites web.
En filigrane, c’est le principe de neutralité du Net qui est remis en cause. Ce principe garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination ou avantage accordé à un site web et à son flux de données.
Ce débat pose plusieurs questions. Les autres fournisseurs de contenus vont-ils accepter d’être délaissés au profit de YouTube et autres gros éditeurs de contenus ? Si YouTube y parvient, il est certain que d’autres sites emboiteront le pas pour être avantagés à leur tour. Il faudra alors s’attendre à ce que les plus petits sites soient défavorisés, faute de moyens pour payer.
Aux Etats-Unis, les opérateurs Verizon et Comcast sont parvenus à faire payer Netflix et YouTube pour bénéficier d’une meilleure bande passante sur leur réseau.La neutralité du Net semble donc bien être compromise…

En France, Free dans le collimateur de YouTube?

Si Google gagne cette bataille, ce sont bien les utilisateurs qui devront payer les travaux. Xavier Niel, patron de Free, précisait en avril 2013 à 01Net Magazine qu’il ne comptait pas se laisser faire. « Si on ne fait pas ça aujourd’hui, les abonnements vont grimper de 5 à 15 euros par mois, juste pour payer le surplus de la bande passante de Google. Mieux vaut une petite crise des débits maintenant que des prix élevés demain. Chaque jour, j’espère qu’on aura la solution. En attendant, on ne bride l’accès à personne, mais on arrête l’escalade : on a un tuyau d’une certaine taille pour le trafic de Google et on n’en rajoute pas » , expliquait-il. Une crise qui dure donc… et qui devrait s’amplifier lorsque YouTube lancera son offensive en France.

Free avait même été accusé de brider l’accès à YouTube. En janvier 2013, l’Arcep ouvrait une enquête sur cette affaire. En juillet, il concluait qu’il n’avait remarqué « aucune pratique discriminatoire ». Alors, comment cette fonctionnalité sera-t-elle adaptée en France et Free sera-t-il classé parmi les « YouTube basse définition » ? Réponse certainement bientôt, le site indiquant que « Les résultats pour votre localisation ne sont pas encore disponibles. SVP, revenez bientôt ».

Par Matthieu Combe, journaliste scientifique

Un oxyde de métaux à la surface similaire à celle du graphène

C’est à un véritable jeu de géométrie que se sont adonnées les équipes Centre de sciences nucléaires et de sciences de la matière (Université Paris sud/CNRS). Ces chercheurs ont réussi à créer un état métallique 2D sur une surface (111) de KTaO3. Ils n’en sont pas à leur coup d’essai, puisqu’en 2011 ils avaient déjà créé de tels états 2D à la surface de différents oxydes isolants comme le SrTiO3 et le KTaO3. Or, réussir à confiner les électrons sur les deux premières couches le long de la direction (111) revient à fabriquer un réseau en nid d’abeille, identique à celui du graphène.  Voilà pour la théorie.

En pratique, s’appuyant sur leur savoir-faire, les scientifiques du CSNSM, aidés de leurs confrères de l’IEF, du LPS et de l’UMR-Thalès, sont donc parvenus à franchir la première étape, celle de la fabrication d’un état métallique en 2 dimensions (gaz d’électrons)  sur une surface (111). Grâce au rayonnement synchrotron, cette surface a été illuminée pour une mesure directe des électrons éjectés. Cette expérience a prouvé que la distribution des états électroniques du réseau cristallin de surface avait effectivement une symétrie hexagonale. Il ne leur reste plus qu’à confiner les électrons sur seulement deux couches atomiques.

En attendant, cette réalisation intéresse les acteurs de l’électronique à base de métaux de transition dont les multiples propriétés physiques (supraconductivité, magnétisme, thermoélectricité…) permettront d’intégrer plusieurs fonctionnalités au sein du même dispositif électronique, et donc de réaliser des transistors multifonctions.

Par Audrey Loubens, journaliste scientifique

Quels freins au développement du véhicule autonome ?

Les véhicules totalement autonomes ne sont pas pour tout de suite. « Avant qu’une voiture soit capable de comprendre quelle va être l’attitude des autres véhicules qui atteignent un carrefour, on a encore du travail », reconnaît Rémi Bastien, Directeur de l’innovation de Renault.

Mais, progressivement, certaines phases de conduite ou des fonctions de conduite vont gagner en autonomie. « Par exemple, on va avoir des convois de véhicules qui vont pouvoir se déplacer de façon autonome et libérer ainsi les chauffeurs, on va avoir des phases de freinages d’urgences qui vont pouvoir être automatisées », prévoit Jean-Hubert Wilbrod, Président de Neavia, entreprise spécialisée dans la surveillance et la gestion du trafic. La voiture autonome, ce sera aussi prochainement la voiture qui peut se garer toute seule. D’ores et déjà, certains véhicules présentent quelques fonctions autonomes : ils allument les feux ou les essuie-glaces automatiquement, ils régulent la vitesse, fournissent une assistance au changement de file…

Bientôt des véhicules de série partiellement autonomes ?

Lors du CES de Las Vegas, Audi a présenté un module de pilotage automatique dans les embouteillages. Si le conducteur peut lâcher ses mains du volant lorsque la voiture évolue en mode automatique, dans l’état actuel de la réglementation française, le conducteur doit rester vigilant et concentré sur la route. Cette A7 automatisée entend libérer le conducteur de la corvée des bouchons, car elle est capable de rouler sans intervention humaine sur des voies rapides embouteillées, jusqu’à 65 km/h.

En France, PSA veut aussi donner plus d’autonomie aux véhicules pour plus de sécurité et plus de confort, notamment dans les bouchons. Les travaux du constructeur portent sur des arrêts automatiques et le redémarrage tout en restant dans sa file. Ces systèmes seront couplés avec des systèmes de reconnaissance de vigilance, par exemple par caméras de reconnaissance faciale pour vérifier l’état d’attention du conducteur. Renault est également sur le coup : « Ces premières étapes ne sont pas du tout utopiques, on est certain chez Renault que cela interviendra avant 2020 », prévient Rémi Bastien.

Point noir : la sécurité avant tout !

Quelle doit être la fiabilité de ces systèmes ? « On a en France 700 milliards de km parcourus chaque année en France approximativement ; en face, on a environ 56 000 accidents corporels. Cela veut dire que l’on a 1 accident corporel tous les 12,5 millions de km. Pour arriver à ces niveaux de fiabilité, il va falloir non seulement mettre des capteurs, fusionner les données, mais aussi avoir […] de la communication véhicule à véhicule », précise le Président de Neavia. Comme dans plus de 80 % des cas d’accidents, la cause est humaine, « utiliser davantage de capteurs bioréactifs est un moyen d’améliorer la sécurité », assure de son côté Rémi Bastien. « Les technologies disponibles vont permettre très rapidement de démontrer la capacité à élever énormément le niveau de sécurité », précise-t-il.

La prise de contrôle par la voiture lorsque les conditions de sécurité sont rapidement maîtrisées devraient donc voir le jour en premier : c’est notamment la conduite en embouteillage sur des grands axes et les voitures qui se garent toutes seules dans les parkings. Les constructeurs reconnaissent qu’il faut tout de même continuer à travailler sur les capteurs et l’intelligence artificielle pour plus de sécurité.

Pour démontrer la fiabilité de ces systèmes, il faut autoriser des essais à grande échelle, mais là encore, le bât blesse. Un autre frein capital au développement du véhicule autonome est en effet l’absence de responsabilité définie prévue par la réglementation en cas d’accident. Pour prévoir une expérimentation à grande échelle, il faudra donc adapter le cadre réglementaire et ne pas dégrader les conditions de sécurité. « On a besoin de pouvoir démarrer des expérimentations en grandeur réelle autorisées  et réfléchir à comment faire évoluer la réglementation, sans doute par étapes, où on pourra démontrer par étapes que l’on augmente la sécurité », assure Rémi Bastien.

Comment adapter l’infrastructure ?

Si l’on veut développer des véhicules autonomes et connectés, il ne faut pas oublier la nécessité d’adapter les infrastructures existantes. « Le véhicule connecté va avoir à trouver son usage par rapport à d’autres usages de l’infrastructures », explique Jean-Louis Marchand, Directeur général adjoint d’Eurovia, concepteur de route français. Comment adapter l’infrastructure au véhicule autonome ? « On est au niveau zéro de la réflexion », affirme-t-il.

Il y a en plus un problème de gouvernance des réseaux routiers en France. Ces réseaux comprennent 20 000 km de routes nationales, gérées par le ministère de l’Écologie, 380 000 km de routes départementales gérées par les départements et 650 000 km de routes communales gérées par les communes. Il n’y a pas de structure de coordination réelle entre ces différentes gestions. « Il va bien falloir que l’on soit capable de dire dans les années qui viennent sur quel réseau on est capable d’accepter tel ou tel type de véhicule susceptible de recevoir tel ou tel niveau de service intelligent et on n’échappera pas à cette réflexion » conclue Jean-Louis Marchand.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Une nouvelle île soudainement apparue au sud de Tokyo continue de grossir [AFP]

Cette île, qui se présentait dans les premiers jours sous une forme à peu près ovale de 400 mètres de long sur 200 de large, a fini par rejoindre l’île inhabitée de Nishinoshima appartenant au petit archipel Ogasawara.

L’ensemble mesure désormais 1.550 mètres d’est en ouest et 1.350 mètres du nord au sud et selon un responsable des garde-côtes cité par la chaîne de télévision publique NHK. Elle a des chances de s’étendre.

Trois cratères sont visibles sur les images tournées mercredi, dont deux crachent régulièrement de la lave, témoin d’une activité volcanique encore intense et qui a même tendance à s’accentuer.

Le nuage de poussière s’élève en outre jusqu’à 2.000 mètres d’altitude, trois fois plus haut que le mois dernier, et retombe à une distance de plusieurs centaines de mètres du cratère d’origine.

Depuis la fin de la guerre du Pacifique, quatre à cinq îles seraient soudainement apparues dans les eaux du Japon, un pays de séismes et de volcans, dont une en 1986, qui a disparu en l’espace de deux mois, et une en septembre 1973 également dans les parages de Nishinoshima. C’est toutefois la première fois depuis 40 ans qu’un nouvel îlot émerge dans cette zone.

La carte du Japon est déjà riche de quelque 6.852 îles, dont beaucoup de « cailloux » et quatre principales qui donnent sa forme filiforme au pays (Kyushu au sud-ouest, Shikoku au sud, Honshu au centre et Hokkaido au nord).

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Forfait à 0 € : FreedomPop va-t-il faire trembler nos opérateurs téléphoniques ?

FreedomPop est ce que l’on appelle un opérateur de réseau mobile virtuel (MVNO), un opérateur qui ne possède pas de réseau propre, mais contracte des accords avec un ou des opérateurs mobiles possédant leur réseau mobile. En achetant de la bande passante en gros, il peut ensuite la revendre au détail en utilisant sa marque propre.

Quelle est son offre ?

Lancée en 2012 à Los Angeles, la société FreedomPop a commencé son activité en tant que fournisseur d’accès à Internet. En 2013, elle a lancé son premier forfait à zéro dollar. Et cela marche : en mai 2014, elle possédait déjà plus de 250 000 clients dans le pays. Aux Etats-Unis, FreedomPop achète des données 3G et 4G à l’opérateur Sprint pour proposer un forfait de base gratuit. Ce dernier inclut 3h20 d’appel, 500 SMS/MMS et 500 Mo d’internet mobile.
FreedomPop utilise le réseau 4G pour traiter la téléphonie comme un flux Internet. Les appels téléphoniques passent par cet accès internet mobile, un peu comme Skype utilise la connexion résidentielle, ce qui lui coûte 5 fois moins cher. Pour ce faire, il passe par une application à télécharger sur smartphones.
Mais rien n’est gratuit ! Pour être rentable, ce MVNO s’appuie sur le portefeuille client de son forfait gratuit. Ces clients sont susceptibles d’acheter ses options supplémentaires: hors-forfait, forfaits payants, connexion plus rapide, vente de smartphones… Environ la moitié de ses utilisateurs ne paie pas d’abonnement, tandis que l’autre moitié souscrit à des services payants. C’est le modèle « freemium » que l’on retrouve sur presque toutes les applications sur smartphones. Si le service de base y est gratuit, il faut ensuite payer pour avoir des options supplémentaires.

La Belgique, point d’ancrage en Europe

FreedomPop décide de s’attaquer au marché européen, en commançant par la Belgique. Il vient d’y signer un accord commercial avec Base (filiale du Hollandais KPN), le troisième plus grand opérateur mobile du pays, qui va lui louer son réseau 3G/4G. L’offre est encore en cours d’élaboration et sa date de commercialisation n’est pas encore communiquée. Néanmois, la société confirme que le tarif gratuit de base comprendra le même contenu qu’outre-Atlantique. « La Belgique est un marché test, explique Stephen Stokols, fondateur et patron de FreedomPop. C’est un petit marché, en bonne santé et où tout le monde a une carte de crédit. C’est un bon moyen avant d’arriver en Europe ».
Pour se lancer en Europe, FreedomPop adaptera quelque peu sa stratégie. Il ne vendra pas tout de suite des smartphones, il se contentera dans un premier temps de vendre des cartes SIM nues. La France, l’Allemagne, l’Espagne et le Royaume-Uni sont aussi d’ores et déjà dans son viseur.

Une offre pour la France ?

Selon les informations de BFM Business, FreedomPop serait déjà en train de discuter un accord de MVNO avec l’un des opérateurs français. Il annoncerait même une offre « 50% plus intéressante que celle de Free ». FreedomPop pourrat-il réussir là où Virgin Mobile, NRJ Mobile, Crédit Mutuel Mobile et les 41 autres MVNO n’ont pas réellement bousculé les positions des grands opérateurs ?

En France, l’opérateur Free Mobile a fait une entrée réussie sur le marché en 2012 en « cassant » les prix grâce à son forfait à 2 euros (et à 0 euro pour les abonnés fixes Freebox). Ce forfait de base de Free Mobile propose 2 heures d’appels, SMS/MMS illimités, 50 Mo d’internet 3G/4G, soit 1h20 d’appels et 450 Mo de données en moins que le forfait de FreedomPop. Alors que l’on pensait que « Free a tout compris », l’opérateur pourrait bien être obligé de réadapter à nouveau son forfait si FreedomPop parvenait à arriver sur le territoire.

Rappelons néanmoins que l’Arcep, l’autorité de régulation des communications électroniques et des postes a récemment publié son étude sur la qualité des réseaux de téléphonie mobile. Si Orange arrivait en première position avec 213 indicateurs sur 258 au-dessus de la moyenne, Free Mobile fournissait le moins bon service avec seulement 2 indicateurs au-dessus de la moyenne. Alors, la guerre des prix peut-elle s’accompagner d’un service de qualité ? Le marché ne cesse de critiquer la tendance des prix cassés, souvent au dépend de la qualité du réseau, de l’investissement et de l’emploi. La qualité se paye et rien n’est gratuit, il ne faut pas l’oublier !

Par Matthieu Combe, journaliste scientifique

Paraplégiques : remarcher grâce à l’exosquelette ReWalk

Il semblerait que les exosquelettes s’implantent dans notre quotidien. Le coup d’envoi de la coupe du monde 2014, le 12 juin dernier par un jeune Brésilien paralysé des membres inférieurs et équipé d’un exosquelette en est le signe le plus éminemment symbolique. En ce sens où il est révélateur des progrès de la science dans ce domaine : l’association de la robotique et de la neurosciences. La preuve en deux exemples.

L’exosquelette ReWalk

Imaginé par la société Rewalk Robotics – fondée par l’ingénieur israélien Amit Goffer, paralysé à la suite d’un accident en 1997 – l’exosquelette ReWalk permet aux personnes atteintes à la moelle épinière de retrouver une certaine mobilité (se lever et marcher). Toutefois, l’appareil ne concerne que les paraplégiques atteints de lésions entre la 7ème vertèbre thoracique et la 5ème vertèbre lombaire. Il s’agit du premier dispositif du genre destiné aux particuliers pour les assister dans leur quotidien.

Son fonctionnement maintenant. L’appareil ceinture les jambes et le buste de l’utilisateur; à condition que sa taille soit comprise en 1,60 et 1,90 mètre et que son poids ne dépasse pas 100 kilogrammes. Un ordinateur de bord et une batterie contenus dans un sac à dos servent à actionner les moteurs placés au niveau des hanches et des genoux. L’utilisateur les contrôle à l’aide d’une commande située à son poignet et choisit de cette manière les actions qu’il souhaite effectuer. Et ça marche, les démonstrations sont éloquentes.

À ce titre, et après de nombreux tests, la Food and Drug Administration (FDA) a décidé d’approuver la vente sur le territoire américain de l’exosquelette ReWalk. Une excellente nouvelle, certes, mais dont le prix devrait refroidir quelque peu. Il en coûtera 70 000 dollars (plus de 50 000 euros) aux particuliers pour bénéficier d’un ReWalk.

Soulager et redonner de l’autonomie

Grâce à l’exosquelette ReWalk, l’alternative au fauteuil roulant n’est plus une chimère mais sera avant demain une réalité. Et c’est une espèce de révolution en soi parce que ReWalk offre l’espoir salvateur de retrouver de l’autonomie aux personnes handicapés. Pour celles qui, malgré le prix exorbitant, pourront s’acheter l’équipement, leur vie promet d’être bouleversée.

L’utilisation de l’exosquelette, outre le miracle de se lever et marcher à nouveau, s’accompagne d’autres bienfaits. Les patients ont témoigné d’une meilleure circulation du sang, d’une remusculation des membres… Bref d’une meilleure forme physique et également mentale. Le fait de regagner en autonomie, sans l’aide d’autrui, de communiquer à hauteur d’yeux procurerait un grand bien-être.

Les exosquelettes du MIT:  devenir un « surhomme » à quatre bras

Cette fois-ci, l’exosquelette concerne les travailleurs et vient surtout en renforcement des capacités naturelles de l’homme. En effet, des chercheurs du MIT d’Arbeloff Laboratory ont conçu des prototypes afin de soulager les ouvriers lors de leurs tâches les plus difficiles.

L’exosquelette se présente en fait sous la forme de deux bras robotiques attachés au dos de l’utilisateur et couvrant une large surface. Selon le modèle – il en existe deux – le début des bras est situé au niveau des hanches ou des épaules. Le Supernumerary Robotic Limbs (SRL, son petit nom) ne pèse que 4,5 kilogrammes mais grâce au détecteur de mouvements dont il est pourvu, il peut venir en aide aux travailleurs, en suppléant ses gestes, ou en le soutenant lors du port de charges lourdes. Différents modèles comportementaux ont été créé dans ce but.

De par son faible encombrement, le SRL se révèle très pratique car il est censé offrir davantage de liberté de mouvement tout en permettant à celui qui le porte de garder les mains libres. Un système ingénieux qui a semble-t-il plu au constructeur aéronautique Boeing qui a financé en grande partie les recherches.

Par Sébastien Tribot

Bientôt des organes bio-artificiels !

Pour remplacer des fonctions altérées chez les patients, les bioprothèses sont diverses et variées: implants dentaires, prothèses de hanche, de genoux, d’épaule, mais aussi valves cardiaques, substituts osseux… La recherche est riche, notamment pour créer des organes entiers, à l’instar du coeur ou du pancréas bio-artificiels. D’autres travaux s’intéressent même à la régénération des organes défectueux in-situ.

Remplacer les valves cardiaques

Pour remplacer des valves cardiaques, il existe essentiellement deux grandes familles de prothèses : les prothèses mécaniques et les valves biologiques. Les prothèses mécaniques ont une très longue durée de vie au prix d’un traitement anticoagulant à vie. A l’opposé, les bioprothèses ne demandent pas de traitements mais se détériorent avec le temps, imposant à certains patients une réintervention après une quinzaine d’années.

Les valves mécaniques (prothèse de St Jude) sont à base de carbone pyrolytique et de titane. Elles ont une durée de vie supérieure à celle du patient chez qui on l’implante mais nécessitent un traitement anticoagulant à vie. L’efficacité du traitement anticoagulant doit être contrôlé régulièrement. Le patient peut en effet faire des hémorragie s’il est trop anticoagulé ou au contraire contracter une embolie, quand il ne l’est pas assez.

Les bioprothèses valvulaires, sont élaborées avec des tissus de veau ou de cochon. Elles sont préférées chez les patients âgés et pour les patients qui ne peuvent pas suivre un traitement anticoagulant ou en contrôler son efficacité. A l’opposé, les patients qui sont déjà sous traitement anticoagulant en raison d’une autre pathologie recevront plus volontiers une prothèse mécanique plutôt qu’une bioprothèse.

Vers des organes artificiels ?

Le premier coeur bio-artificiel de la société Carmat a été greffé en France début 2014. Le patient est décédé 74 jours après son opération des suites d’un court-circuit encore inexpliqué. « Pendant 74 jours, ce patient n’a montré aucune déficience cérébrale, et la vérification du cœur après le décès et l’autopsie l’ont confirmé : il n’y avait pas le moindre caillot, ni dans la prothèse, ni dans la circulation. En ce sens, l’essai est un succès. » explique le professeur Alain Carpentier, père du coeur artificiel au JDD. Les travaux vont donc continuer pour permettre à de futurs patients de profiter de ce coeur qui ne nécessite pas de lourds traitements anti-rejets de greffes.

Le premier pancréas bio-artificiel bénéficiera de premiers tests chez l’homme début 2016 à Montpellier et à Oxford (Royaume-Uni). De premiers résultats devraient ainsi être disponibles fin 2017. Ce pancréas bio-artificiel se présente sous la forme d’un disque ultra-fin en polymère, à peine plus grand qu’un CD. Il est destiné aux diabétiques insulino-dépendants. Implantée dans l’abdomen, cette poche renfermera des cellules de pancréas (obtenues par génie génétique ou à partir de cellules souches) permettant de sécréter l’insuline. Grâce à une membrane semi-perméable, les cellules se trouvent ainsi à l’abri des attaques du système immunitaire, tout en laissant passer l’insuline, mais aussi les sucres – afin que les cellules pancréatiques « sachent » quelle quantité d’insuline produire. Les cellules pancréatiques seront renouvelées par injection sous cutanée 1 à 2 fois par an et le disque devra être remplacé tous les 4 à 6 ans. Cela améliorera grandement le quotidien des diabétiques qui s’injectent de l’insuline plusieurs fois par jour ! Là encore, il n’y aura pas besoin de traitement anti-rejet.

Régénérer sans remplacer ?

Des travaux de recherche portent aussi sur l’injection de cellules souches au niveau du coeur. Elles permettent de régénérer des fibres musculaires et de revitaliser le coeur sans aller jusqu’à son remplacement par une bio-prothèse.

Les travaux portent notamment sur les cellules souches pluripotentes induites qui peuvent être répliquées indéfiniment en laboratoire etse différencier, dans la bonne matrice, en une multitude de tissus : cellules musculaires, nerveuses, pulmonaires… Dans le cas du pancréas bio-artificiel, « il a fallu trouver un matériau et une matrice de façon à avoir un environnement viable pour les cellules pluripotentes », explique Guy Daculsi, Directeur de Recherche Inserm de classe exceptionnelle (DRE) à l’Université de Nantes. »Dans cet environnement, les cellules croient être dans un pancréas et se différencient pour faire des cellules capables de sécréter l’insuline« , poursuit-il.

Ces cellules souches pluripotentes induites pourraient régénérer des parties d’organe une fois incorporées à la bonne matrice. « On va ainsi pouvoir réparer un morceau de coeur, un morceau de foie, de rein, même de poumon« , prévoit Guy Daculsi. Plusieurs unités de l’INSERM travaillent sur certains de ces organes. Ils pourraient être accessibles pour le grand public d’ici une dizaine d’années.

« Il y a eu l’époque de l’homme soigné, puis avec les deuxièmes générations de techniques et produits est arrivé l’homme réparé ; maintenant avec la troisième génération est arrivée l’ère de l’homme augmenté grâce aux nouvelles technologies qui augmentent le potentiel de cicatrisation, de régénération », conclut Guy Daculsi.

Par Matthieu Combe, journaliste scientifique