Arrêter la cigarette… en dormant

Selon le principe sur lequel repose l’hypnopédie, l’apprentissage de l’Homme ne cesserait pas complètement lors de son sommeil. Il serait donc possible de le solliciter en lui faisant écouter des disques pendant son sommeil, ce que plusieurs études scientifiques semblent réfuter. Des chercheurs de l’Institut Weizmann supposent quant à eux que l’Homme pourrait effectivement être conditionné dans son sommeil grâce à… son nez ! Etonnant mais vrai, ils ont ainsi montré qu’une exposition nocturne à des odeurs de cigarette mêlées d’oeuf ou de poisson pourri peut aider à arrêter de fumer.

Le meilleur des mondes

Chacun se souvient du fameux roman de Aldous Huxley, Le meilleur des mondes, décrivant une société où les foetus se développent dans des flacons où ils sont conditionnés. Les traitements que subissent les embryons au cours de leur développement déterminent leurs futurs goûts, aptitudes et comportements. Un procédé qui fait beaucoup penser au conditionnement associatif, aussi appelé conditionnement pavlovien, qui consiste en l’entraînement inconscient du cerveau à associer des stimuli de l’environnement à des réactions de l’organisme.

Quand le nez veille

La Dr Anat Arzi, travaillant dans le laboratoire du Pr Noam Sobel à l’Institut Weizmann, s’intéresse au conditionnement pavlovien. Elle étudie les odeurs comme stimuli provenant de l’environnement et le rôle qu’elles pourraient jouer durant notre sommeil. Car les odeurs, à l’inverse d’autres stimuli, ne nous réveillent pas. De plus, après une exposition nocturne et inconsciente à des odeurs, on ne se rappelle pas les avoir senties le lendemain.

Le stade de sommeil durant lequel les stimuli pourraient jouer un rôle serait le stade 2, aussi appelé stade de sommeil léger. Le stade 2 occupe environ 50% du temps de sommeil total. Le sujet est assoupi mais il est encore très sensible aux stimuli extérieurs. Ainsi, lors du stade 2, environ 50% des bons dormeurs et 80% des mauvais dormeurs pensent ne pas dormir.

Dans quel but ?

Dans un article publié en novembre dans The Journal of Neuroscience, la Dr Arzi a mis en évidence l’influence d’un conditionnement nocturne olfactif sur la consommation de cigarettes. Le fait de fumer étant un phénomène quantifiable, l’impact des stimuli olfactifs a pu être mesuré.

Pour réaliser cette étude, 66 personnes désirant arrêter de fumer mais ne sachant pas comment procéder se sont portées volontaire. Après avoir indiqué leur fréquence de consommation de cigarettes, elles ont été séparées en plusieurs groupes. Celles du premier groupe passèrent une nuit dans une salle de laboratoire à l’écoute de leur sommeil. Lors de la phase 2, elles furent exposées de façon répétitive à une forte odeur de cigarette suivie d’une odeur nauséabonde. Bien qu’ils furent incapables de se souvenir de ses odeurs au réveil, les volontaires observèrent une diminution de leur consommation de cigarettes d’environ 30% la semaine suivant l’expérience.

Les membres du second groupe furent exposés aux mêmes odeurs pendant un temps similaire, mais dans un état d’éveil et non pendant le sommeil. Ceux du troisième groupe furent exposés à des odeurs de cigarette et des odeurs nauséabondes pendant leur sommeil, mais de façon aléatoire et non couplée. Contrairement aux membres du premier groupe, ceux des deux autres ne relevèrent aucune diminution de leur consommation de cigarette.

Ces résultats confirmèrent l’hypothèse du groupe du Pr Sobel : nous oublions la majorité de nos rêves, mais il existe un conditionnement association qui se fraye un chemin lors de notre sommeil.

La fin des patchs de nicotine ?

Une simple nuit de conditionnement olfactif réduirait ainsi de façon significative la consommation de cigarettes pendant plusieurs jours. Le conditionnement olfactif est un terrain prometteur pour les chercheurs travaillant sur les phénomènes d’addiction. La région du cerveau contrôlant l’addiction serait en effet très proche de la région d’olfaction et ces deux régions, en plus de rester éveillées pendant notre sommeil, semblent absorber des informations.

Cette découverte ne permet pas encore aux fumeurs de se débarrasser de leur addiction juste en dormant. Mais elle nous indique la possibilité d’un conditionnement pendant notre sommeil qui pourrait un jour nous mener à d’importants changements comportementaux. Huxley ne s’était peut-être pas trompé : nous pourrions un jour être sujets au conditionnement associatif durant notre sommeil, mais ce serait à de nouvelles fins : faire disparaitre nos addictions au lieu de les créer.

Source : bulletins-electroniques

Le gaz de schiste a ses apôtres en France

« Un certain nombre d’industriels a pensé qu’il était temps d’apporter une information scientifique qualifiée sur ce sujet (et) de sortir de l’obscurantisme dans lequel on est plongé », a indiqué lors d’une conférence de presse, Jean-Louis Schilansky, qui présidera le Centre des hydrocarbures non conventionnels (CHNC).

L’ancien patron de l’Union française des industries pétrolières (Ufip) a nié que l’objectif du nouveau centre soit de créer un lobby du gaz de schiste en France, même si la plupart des groupes qui soutiennent ce centre n’ont jamais dissimulé leur souhait d’obtenir l’autorisation d’explorer le sous-sol français pour en connaître exactement les ressources, à l’image des groupes chimiques Solvay et Arkema.

« Nous ne sommes tout simplement pas un lobby », s’est défendu M. Schilansky. « Nous n’irons pas voir des parlementaires et des cabinets ministériels pour essayer de les convaincre. Nous ne serons pas dans les couloirs », a-t-il assuré.

Muni d’un conseil scientifique, le CHNC a pour objectif de « rassembler, évaluer et diffuser des informations factuelles. Des faits, des faits et encore des faits et non pas seulement des opinions », a affirmé son président.

Selon lui, les adversaires du gaz de schiste sont les bienvenus. « Le centre sera ouvert à tous, à toutes les opinions. Il n’y aura pas de discrimination », a-t-il assuré, prônant une approche « cartésienne », loin du « débat idéologique, pour ne pas dire religieux » qui caractérise, selon lui, la discussion sur les hydrocarbures non conventionnels en France.

François Hollande avait assuré en juillet 2013 qu’il n’y aurait ni exploration ni exploitation du gaz de schiste en France sous sa présidence.

La fracturation hydraulique, seule technique éprouvée pour exploiter les hydrocarbures de schiste, est d’ailleurs interdite en France.

Le CHNC dit n’avoir pas l’intention de changer la loi. « Ce n’est pas le moment », affirme M. Schilansky, pour qui, en revanche, « c’est le moment d’apporter des informations, de parler, de dire ce qu’il se passe » dans ce secteur qui a bouleversé la donne énergétique mondiale.

Parmi la vingtaine de groupes soutenant le CHNC figurent des groupes déjà présents dans la filière du gaz de schiste, à l’image de Total, le géant gazier GDF Suez, le fabricant de tubes sans soudures Vallourec, le groupe Imerys qui produit des proppants ou encore Air Liquide.

L’Union des industries chimiques, l’Ufip, Suez Environnement, ou Technip sont également associés.

arz/mpa/cb/nm

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une plate-forme en ligne pour acheter moins cher vos machines-outils

Sur un marché mondial de la machine-outil qui a atteint 81 milliards d’euros en 2012, la société allemande Surplex GmbH occupe une position originale.

Maison de ventes spécialisée, elle assure, par l’intermédiaire de son site internet, la commercialisation à prix attractifs de nombreux matériels industriels d’occasion.

Cette prestation se complète de plusieurs services pratiques – liquidation, évaluation, expertise technique et aide au démontage.

Uli Stalter & Michael Werker, fondateurs de l’entreprise Surplex.

 

Cet intermédiaire fondé en 1999 simplifie l’accès à l’outillage de seconde main.

Il assure aux entreprises en pleine croissance ou à la recherche de moyens de production plus performants (par exemple dans les pays en voie de développement) la disponibilité rapide de références souvent récentes : 

plus besoin d’attendre des semaines avant de recevoir sa machine-outil neuve ! Cette réutilisation des matériels prend également tout son sens dans un monde où la lutte contre la pollution et la consommation responsable des ressources deviennent de plus en plus nécessaires.

 

Le fonctionnement de la plate-forme internet Surplex se distingue par sa facilité. Quelques instants suffisent pour s’inscrire puis commencer à acquérir des équipements, en achat immédiat ou lors d’enchères.

Chaque lot dispose d’une fiche détaillée, illustrée de nombreuses photos et de vidéos : ce document précise notamment l’état, le prix et les modalités d’enlèvement.

 

Parce que la maison de ventes fait de la qualité une priorité, les machines présentées sont en bonnes voire très bonnes conditions d’utilisation et permettent un travail en toute sécurité. Elles proviennent fréquemment de fermetures d’entreprises ou de restructurations d’usines.

 

La variété des biens proposés constitue un autre point fort de Surplex. Le site représente notamment l’un des principaux intervenants dans la vente en ligne de machinerie d’occasion pour le travail du métal et du bois :

découpe (sciage, fraisage,…), soudage, finition (meulage, ponçage,…) et usinage combiné à commande numérique constituent quelques-unes des catégories de son catalogue de machines.

Celles-ci se déclinent en de nombreux modèles et proviennent de constructeurs réputés. Elles peuvent se compléter par des références destinées au stockage, à la manutention et à l’équipement des ateliers ou des bureaux.

 

Plus de 30.000 lots commercialisés avec succès depuis près de 15 ans témoignent de la valeur ajoutée Surplex. Disponible en 10 langues et accueillant 200.000 visiteurs par mois localisés dans 150 pays, le domaine enregistre depuis sa création un chiffre d’affaires en croissance permanente.

 

Son accompagnement fort tout au long de la mise en vente rassure acheteurs et propriétaires, les déchargeant avec efficacité de la gestion des annonces, des formalités administratives, du paiement et de la livraison. Il se double d’un service-client réactif, répondant à toute question technique ou commerciale.

Transition énergétique:vers un bras de fer Sénat-gouvernement

Les premiers sont d’accord pour limiter à 50% la part du nucléaire dans la production d’électricité mais sans fixer de date, alors que le gouvernement prévoit, lui, 2025, une date correspondant à l’une des promesses de campagne de François Hollande.

« Tout en adhérant à l’objectif de diversification souhaité par le gouvernement, l’amendement que nous avons adopté vise à assurer une transition réaliste et garante d’une croissance durable », a assuré Ladislas Poniatowski (UMP), le rapporteur du texte.

« 2025, c’est demain », a souligné l’élu de l’Eure. « Si le gouvernement maintient sa position, je lui demanderai de prendre ses responsabilités et de nous dire quels réacteurs, sur quels critères, et où veut-il fermer ».

Mais la ministre de l’Écologie, Ségolène Royal, ne désespère pas « de revenir au texte initial qui a déjà fait l’objet de nombreux débats ».

« Je vais écouter les arguments, et je m’accorde toujours une marge d’adaptation par rapport au débat parlementaire », avait-elle dit en indiquant qu’elle allait « continuer dans la co-construction de la solution du meilleur mix énergétique pour la France ».

« Le texte, qui sera présenté au vote des sénateurs, est à un tel point vidé de ses principales avancées, qu’il se révèle pour moi inacceptable », a déclaré de son côté le président de la commission du Développement durable de l’Assemblée, Jean-Paul Chanteguet (PS).

Parallèlement, la commission des Affaires économiques a préconisé le relèvement du plafonnement de la capacité de production du nucléaire à 64,85 GW au lieu de 63,2 GW prévus dans le texte de loi, afin que la mise en service de l’EPR de Flamanville (Manche) ne se traduise pas, dès 2017, par l’arrêt de deux réacteurs supplémentaires.

En ce qui concerne les bâtiments, alors que le texte prévoit une isolation par l’extérieur, les sénateurs préfèrent laisser aux maires la liberté de décider de la technique d’isolation lors d’un ravalement de façade.

La commission a par ailleurs considéré qu’il y avait un oubli dans le texte en ce qui concerne les énergies renouvelables: la biomasse, qui peut être développée sur tout le territoire.

Quant à la circulation automobile, le Sénat a accordé aux maires la possibilité d’étendre les limitations de vitesse inférieures à 50 km/h à l’ensemble des voies de la commune. Un rapport devra faire le bilan des émissions de particules fines, y compris au titre de l’abrasion, c’est-à-dire au cours des freinages.

La commission du Développement durable du Sénat propose aussi d’inscrire la définition de l’obsolescence programmée dans le code de la consommation et son contrôle par la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes). Elle entend généraliser le tri à la source des biodéchets et supprimer l’interdiction de la vaisselle jetable en imposant son tri sélectif.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des colliers de nanoparticules d’or pour guider la lumière jusqu’au nanomètre

La lumière peut servir à transmettre des informations. Cette propriété est par exemple utilisée dans la fibre optique et offre une alternative intéressante à la microélectronique. L’utilisation de la lumière permet d’augmenter la vitesse de transmission et de réduire les pertes d’énergie qui se produisent par réchauffement lorsqu’un signal électrique est utilisé. Cependant il reste plusieurs défis à relever, notamment celui de la miniaturisation : avec la fibre optique il est en effet difficile de confiner la lumière dans une largeur inférieure au micromètre (soit 10-6 mètres).

Les électrons circulent librement dans les métaux et parfois se mettent à osciller collectivement à leur surface sous l’effet de la lumière, comme dans les métaux nobles tels l’or et l’argent. Les propriétés de ces oscillations collectives, appelées plasmons, offrent depuis une vingtaine d’années une voie prometteuse vers un confinement sub-longueur d’onde (c’est-à-dire inférieur au micromètre) de l’énergie lumineuse. En transmettant cette énergie portée par les photons aux électrons en mouvement, il est possible de transporter de l’information dans des structures plus étroites que les fibres optiques. Pour atteindre des confinements encore plus importants, la plasmonique2 s’intéresse désormais aux propriétés optiques de nanoparticules cristallines. La surface cristalline lisse évite de perturber les oscillations des électrons et limite les pertes d’énergie. Exploiter les propriétés de ces nanoparticules devrait donc permettre simultanément des confinements de l’ordre du nanomètre et le transport de l’information sur de grandes distances.

Dans cette étude, les chercheurs ont démontré que lorsque des nanoparticules d’or de dix nanomètres de diamètre sont alignées sous forme de chaine, les plasmons qu’elles portent génèrent des oscillations particulières, propices à la propagation ultra-confinée. Cependant à chaque passage entre deux nanoparticules, il existe une perte d’énergie. Si cette caractéristique peut être exploitée pour certaines applications qui nécessitent des sources de chaleur très localisées, notamment en médecine, elle ne favorise pas la propagation longue distance.

Les chercheurs ont donc délicatement fusionné les nano-perles, en focalisant un faisceau électronique à haute énergie, de façon à former un réseau continu et cristallin. Ils ont alors observé que les pertes d’énergie sont réduites et que les plasmons sont libres d’osciller sur de très grandes distances tout en restant confinés suivant le diamètre des nanoparticules. Au sein de ce collier de seulement dix nanomètres de large, l’information peut voyager jusqu’à 4000 nanomètres.

Un autre défi relevé par cette étude a été de cartographier, avec une précision exceptionnelle, les oscillations des électrons observées à la surface de la chaine de nanoparticules. Les différents types de mouvement des plasmons ont été caractérisés par une technique de microscopie appelée spectroscopie de perte d’énergie des électrons (EELS) dont la très fine résolution spatiale et spectrale a permis aux chercheurs de proposer un nouveau modèle théorique du comportement des plasmons. Les simulations basées sur ce modèle reproduisent les expériences avec une fidélité sans précédent.

Ces travaux qui résultent d’une collaboration à long terme avec des équipes de Bristol et de Singapour pourraient mener à une miniaturisation extrême du guidage de la lumière et ouvrir la voie vers des applications en matière de capteur, pour le photovoltaïque par exemple, et en télécommunication.

© E. Dujardin (CEMES, CNRS)
Image EELS montrant la distribution spatiale des électrons confinés le long d’une chaine de nanoparticules d’or.
Source : CNRS

Recharge de voitures électriques: le projet de Bolloré reconnu de « dimension nationale »

Bolloré avait demandé la reconnaissance de la « dimension nationale » de son projet afin d’être « exempté de redevance d’occupation du domaine public » pour son projet représentant « un investissement de 150 millions d’euros sur quatre ans », avait indiqué Bercy début décembre.

Le projet « 16K » vise à « déployer jusqu’à 16.000 points de charge (…) sur près de 4.000 communes », réparties dans 94 départements des 22 régions de France métropolitaine, précise la décision de la ministre de l’Ecologie et de l’Energie, Ségolène Royal, et de son collègue chargé de l’Economie, Emmanuel Macron.

La moitié au moins de ces points de charge « se présente comme conforme par avance » à la directive européenne sur les carburants alternatifs, en particulier en matière d' »interopérabilité à l’échelon européen », selon le texte.

L’installation se fera en deux phases « d’égale ampleur », la première s’achevant le 31 décembre 2016 et la seconde le 30 juin 2019. « La totalité des départements voire des communes concernées a vocation à être couverte dès la première phase », ajoutent les ministres.

Le groupe industriel breton a affirmé de son côté que « par son ambition, ce réseau permettra de promouvoir la mobilité électrique +pour tous et partout+ en complément des infrastructures déjà installées par le Groupe Bolloré au travers de ses services d’autopartage » à Paris (Autolib), Lyon (Bluely) et Bordeaux (Bluecub).

Bolloré a également révélé que ses futures bornes, « intelligentes et connectées, munies d’écrans tactiles permettant le dialogue avec les utilisateurs », permettraient une charge de type « semi-accélérée » avec une puissance de 7,4 kilowatts.

« Contrairement aux bornes +rapides+, ce choix de charge +semi-accélérée+ s’inscrit dans le respect de la transition énergétique, évitant de déstabiliser le réseau électrique par des appels de puissances trop brutaux et prolongeant la durée de vie des batteries des véhicules », a assuré Bolloré en estimant que « plus de 100 emplois » seraient ainsi créés.

Le maillage du territoire en points de recharge est vu comme l’un des leviers pour inciter les Français à passer à la mobilité électrique, alors que l’autonomie limitée des véhicules freine jusqu’ici leur développement.

La publication au JO intervient deux jours après des annonces gouvernementales portant la prime à l’achat d’un véhicule électrique à 10.000 euros à partir de début avril, sous conditions, notamment de mettre à la casse un véhicule diesel de plus de 13 ans.

Malgré les incitations déjà existantes et des campagnes commerciales agressives de certains constructeurs, le marché des automobiles électriques peine à décoller en France, représentant 0,6% des autos neuves immatriculées en 2014, en hausse toutefois de 20% par rapport à 2013.

Le chiffre d’affaires de Blue Solutions, filiale de Bolloré spécialisée dans le stockage d’énergie, a plus que doublé sur les neuf premiers mois de 2014 par rapport à la même période de 2013, et la société espérait atteindre entre 90 et 100 millions d’euros de chiffre d’affaires sur l’année. Elle dévoilera ce chiffre le 12 février.

Il ne s’agit toutefois encore que d’une activité de niche au sein du groupe diversifié (logistique, médias…) qui a réalisé en 2013 un chiffre d’affaires de plus de 10 milliards d’euros.

gbh-tq/fpo/phc

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

HoloLens, le casque de réalité augmentée signé Microsoft

HoloLens est donc un casque de réalité augmentée permettant d’intégrer des images virtuelles à « l’environnement réel » ou le « vrai monde » comme le dit Microsoft. Ces images (objets, graphiques…) s’intègrent à notre champ de vision et sont contrôlables d’un simple geste. En agitant un doigt dans l’espace par exemple.

Le casque développé par Microsoft se présente comme un véritable ordinateur portable, avec un processeur, une carte graphique et un système d’exploitation. Il n’est pas nécessaire de le brancher au secteur ou de le raccorder à un ordinateur pour le faire fonctionner. En cela, il se distingue de Facebook avec l’Occulus Rift et de Sony avec Morpheus, les deux projets concurrents.

Cependant ce qu’il faut retenir, c’est que ce sont les capteurs qui font tout le boulot. En effet, les caméras intégrées au casque saisissent les détails qui entourent l’utilisateur – comme le fait la Kinect. L’environnement est ensuite recomposé par le casque puis enrichi en temps réel par des objets virtuels, sans qu’il y ait de saute dans l’image.

Ces images ou éléments avec lesquels l’utilisateur peut interagir ont été comparés à des hologrammes par celle que l’on appelle « la firme de Redmond ». Mais ce n’est pas tout à fait exact. Par définition, l’holographie est la représentation en trois dimensions d’une image projetée par un faisceau laser sur un écran. Or, contrairement aux projections holographiques traditionnelles, une seule personne est en mesure d’apprécier ces représentations : son utilisateur. Tout ce qui transforme l’image que l’on perçoit normalement – c’est-à-dire l’acquisition de nouvelles informations – apparaît sur l’écran des lunettes. Un peu comme le calculateur de puissance dans Dragon Ball Z, le manga japonais imaginé par Akira Toriyama. Il est donc plus juste d’associer HoloLens à la famille des objets de réalité augmentée tel que feu les Google Glass.

Microsoft ne compte pas en rester là et va pousser l’expérience plus loin. La  Nasa a en effet commandé un logiciel permettant l’exploration de Mars, grâce aux HoloLens, sans bouger de son siège. Et qui sait encore quelles autres applications ou jeux « nous plongeant dans un monde fictif » verront le jour.

Toutefois, quelques questions se posent à propos des HoloLens. Déjà, qu’en est-il de la portabilité des lunettes :  leur poids, leur esthétisme… ? D’un point de vue éthique, ne s’agit-il pas d’une intrusion dans nos vies privées comme certains le pensaient déjà avec les Google Glass ? Ces expériences toujours plus immersives, où le voile entre le réel et le virtuel se révèle être de plus en plus ténu, ne vont-elles pas créer un effet d’isolement en nous coupant du monde ? Et bien sûr, comment le public va-t-il réagir ? Des questions pour l’heure sans réponse.

Les HoloLens devraient se retrouver sur le marché vers la fin de l’année autour de 1 000 dollars, un prix certes conséquent mais tout de même inférieur à celui auquel étaient vendues les Google Glass (1 500 dollars). 

Par Sébastien Tribot

Les textiles connectés représentent l’avenir de la filière textile

C’est (presque) bientôt Noël, et des vêtements d’un nouveau genre pourraient bien fleurir au pied du sapin. En effet, depuis quelques années les textiles dits « intelligents » ou « connectés » connaissent un fort développement. Bardés de capteurs, ils sont capables de mesurer des paramètres, conférant au vêtement une compétence. C’est le cas du D-shirt de la PME Cityzen Sciences dont le vêtement intègre un cardiofréquencemètre, un GPS, un altimètre et une centrale inertielle. Autant d’informations précieuses pour un sportif réunis sur son propre habit. Le développement des smartphones permet aujourd’hui de rendre accessibles les données via des applications, permettant à l’utilisateur de s’informer et d’adapter son comportement en temps réel.

En 2013, une étude du CEA chiffrait à 33% le nombre de personnes qui utilisent régulièrement leur téléphone mobile pour mesurer des données de santé. Une habitude qui devrait se développer car selon une étude opinion way, 53% des français pensent que les outils technologiques sont une aide dans la gestion de la santé et du bien-être.

L’ère du textile connectée semble s’ouvrir. La France ne s’y trompe pas et l’un des 34 plans industriels lancés fin 2013 est consacré aux « Textiles techniques et intelligents » avec comme objectifs d’« Exploiter les opportunités offertes par les révolutions numériques et les nanotechnologies, grâce aux textiles intelligents et innovants ».

Dans ce cadre, le projet CONNECTITUDE doit permettre le développement et la mise en marché de 5 projets industriels de textiles connectés. Parmi les entreprises françaises expertes en textiles intelligents, on compte Brochier Technologies qui s’est spécialisé dans le tissage de fibres optiques pour des textiles lumineux, Sefar Fyltis qui fabrique des tissus conducteurs monofilament, Sofileta R&D qui se focalise sur les tissus avec des capteurs de température ou de rythme cardiaque par exemple, Tibtech Innovations qui est experte des fils chauffants ou conducteurs, et Cityzen Sciences se veut spécialiste du textile connecté dédié au monitoring d’individu avec le projet Smart Sensing.

La société Glagla a mis au point Digitsole, une semelle chauffante connectée pilotable via son smartphone. Récemment, nous vous parlions aussi de MySenses dont les pastilles thermosensibles équipent chapeaux d’enfant et bracelets pour mesurer l’exposition aux UV.

Du fait de fortes attentes dans les domaines de la santé, du sport mais aussi des bâtiments, des transports et de la communication, il y a fort à parier que les textiles intelligents  ne resteront pas un marché confidentiel bien longtemps !

Par Audrey Loubens

Plus de nucléaire et d’ENR, moins d’énergies fossiles !

En 2014, la production nette d’électricité atteint 540,6 térawattheures (TWh), soit une baisse de 1,8 % par rapport à 2013. Mais la consommation française baisse davantage, – 6 % entre 2013 et 2014, passant à 465,3 TWh. C’est le plus faible niveau de consommation mesuré depuis 2002 ! Avec une consommation plus faible, due principalement à une météo extrêmement clémente, cela a permis de booster notre solde exportateur vers les autres pays européens, à hauteur de 65,1 TWh, contre 47,2 TWh en 2013.

Après correction des aléas météorologiques, la consommation française pour 2014 s’établit à 474,1 TWh, en baisse de 0,4 % par rapport à 2013. Les mesures d’efficacité énergétique sur les équipements et bâtiments, ainsi que la baisse de la part de marché du chauffage électrique dans le bâtiment neuf suite à l’application de la Règlementatin Thermique 2012 commencent donc à montrer quelques résultats.

Recul du charbon et du gaz

Fin 2014,  les capacités installées de centrales thermiques utilisant des combustibles fossiles (charbon, fioul et gaz) sélèvaient à 24,4 gigawatts (GW) pour une production de 27 TWh. Elles étaient respectivement de 25,6 GW et 44,7 TWh fin 2013. Entre 2013 et 2014, le parc de production installé en France a perdu 1,2 GW de centrales au charbon, 65 mégawatts (MW) de fioul et gagné 9 MW de gaz.

Entre 2013 et 2014, si les centrales thermiques  utilisant des combustibles fossiles n’ont perdu que 5 % de puissance installée, leur production a baissée de 39,6 %. Alors que le recours au charbon avait augmenté de 14% en 2013, la production des centrales au charbon a diminué de 58,2 % en 2014. Du côté du gaz, la production baisse encore de 28,2 % en 2014, la baisse précédente étant de 18,9 %. La production des centrales au fioul a aussi baissé de 10,5 % en 2014, amplifiant la baisse de 19,2 % déjà observée en 2013. En 2014, ces centrales thermiques à combustible fossile n’ont assuré que 5 % de la production d’électricité française.

Selon RTE, la baisse considérable du recours au charbon s’explique par la fermeture de nombreuses centrales, pour respecter la réglementation européenne en matière d’émissions de CO2 entrée en vifueur au 31 décembre 2014. Mais ce sont surtout les conditions météorologiques clémentes qui expliquent la baisse considérable d’utilisation des combustibles fossiles. En absence de températures froides prolongées, les centrales thermiques n’ont pas été appelées. Cela se vérifie par le pic de consommation de 2014 qui est le plus faible observé depuis 2004. Le maximum de consommation a été enregistré le 9 décembre à 19h, avec une puissance de 82,5 GW utilisée, contre 102,1 GW appelés le 18 février 2012 et 92,6 GW le 17 février 2013.Les émissions de CO2 ont ainsi connu une chute historique de 40 %, se portant à 19 millions de tonnes d’équivalent CO2.

Augmentation du nucléaire et des énergies renouvelables

Fin 2014, la puissance installée des centrales électriques françaises s’élevait à 128,9 GW, en hausse de 0,5 % par rapport à 2013. Le nucléaire représentait 63,1 GW de puissance installée, l’hydraulique 25,4 GW, l’éolien 9,1 GW, le photovoltaïque 5,3 GW et les autres sources d’énergies renouvelables 1,6 GW.

La production nucléaire est en forte reprise par rapport à 2013. La puissance installée du parc nucléaire est restée inchangée entre 2013 et 2014, mais les réacteurs ont assuré 77 % de la production d’électricité en 2014, contre 73,3 % en 2013. Leur production nette s’élève à 415,9 TWh en 2014, contre 403,7 TWh en 2013. La disponibilité du parc nucléaire s’est donc améliorée.

Alors que le projet de loi sur la transition énergétique va bientôt être examiné au Sénat, cette hausse de production d’électricité d’origine nucléaire doit être surveillée. Les programmations pluriannuelles des l’énergie devront notamment prendre en compte cette augmentation récente pour s’assurer du respect des engagements du projet de loi pour la transition énergétique. Selon cette loi, la part de l’électricité d’origine nucléaire doit passer à 50 % en 2025.

Parallèlement, on note une reprise du développement des filières éolienne et photovoltaïque par rapport aux cinq dernières années. En 2014, le parc a gagné 963 MW d’éolien, 926 MW de photovoltaïque et 92 MW d’autres énergies renouvelables. Ces niveaux s’éloignent des niveaux minimaux de développement observés en 2013 pour l’éolien (621 MW installés) et pour le photovoltaïque (646 MW installés). Mais avec un facteur de charge inférieur, le parc éolien ayant produit en moyenne à 22,6% de sa capacitté contre 23,2% fin 2013 et une production hydraulique en baisse de 9,7%, la part des énergies renouvelables dans la production d’électricité atteint 18 %, contre 18,6 % en 2013. En revanche, la part issue de l’ensemble des sources d’énergies renouvelables atteint 19,5 %, de la consommation d’électricité française contre 19,3 % en 2013. Pour la première fois, la production des énergies renouvelables, hors hydraulique, devance la part de la production thermique fossile, avec 28 TWh d’électricité produite.

Quelle capacité pour quelle production?

Le nucléaire représente 49 % de la puissance installée du parc français, mais 77 % de l’électricité produite. Les systèmes thermiques à combustible fossile représentent 18,9 % du parc installé, mais seulement 5 % de la production. L’hydraulique représente 19,7 % du parc installé, mais 12,6 % de la production. Cette année, la disponibilité du parc nucléaire a été très bonne, alors que l’utilisation du parc thermique a été beaucoup plus faible pour les raisons que nous avons détaillées. Grâce à de bonnes précipitations, la production hydraulique est restée élevée, bien qu’en recul de 9,7 % par rapport à l’année dernière.

Lorsque l’on considère les énergies renouvelables intermittentes, les écarts entre puissance installée et production sont beaucoup plus importants. Si l’éolien représente 7,2 % de la puissance installée, le parc représente 3,1 % de la production d’électricité. Avec 4,1 % de la puissance installée, le parc photovoltaïque ne constitue que 1,1 % de la production.

Ce petit panorama montre l’importance du marché de capacité qui est en train d’être mis au point pour assurer l’équilibre offre-demande, même en cas d’hiver très rigoureux. Il devrait permettre de rémunérer les centrales thermiques indispensables à cet équilibre en période de pointe, même lorsqu’elles ne sont pas appelées pour éviter leur mise sous cocon par manque de rentabilité.

Par Matthieu Combe, journaliste scientifique

Eco2mix : l’électricité s’invite dans votre smartphone !

Vous aimeriez connaître en temps réel l’état du réseau d’électricité et du parc de production français ? Savoir si les éoliennes tournent ou si la neige empêche les panneaux solaires de produire ? C’est possible grâce à l’application Éco2mix de RTE, qui rend accessible les données au niveau national en temps réel. En fin de chaque mois, les données de chaque région sont mises à jour : consommation, production par type d’énergie et flux interrégionaux.

Avec son application, RTE veut sensibiliser les utilisateurs à la transition énergétique et démystifier le secteur. Éco2mix fournit ainsi également des chiffres clés pour mieux comprendre la transition énergétique : capacités du parc installé, production maximum et minimum de l’éolien et du solaire, ampleur des pics de consommation… 

Des analyses pour mieux comprendre le secteur électrique

Chaque mois, une analyse de la situation électrique française est mise en ligne. Elle revient sur les conditions météorologiques et économiques qui impactent la consommation, la production et les échanges. Elle analyse également les raisons des échanges transfrontaliers. 

Sur l’analyse du mois de Décembre 2014, on apprend, par exemple, que la France a maintenu une exportation élevée en Belgique en raison de l’indisponibilité du parc nucléaire belge et que le solde des échanges avec l’Allemagne reste importateur pour le quatrième mois consécutif ! Cela vous permettra de clouer le bec aux fervents du nucléaire qui affirment que l’Allemagne importe massivement l’électricité française  d’origine nucléaire pour assurer sa transition énergétique !

L’application éco2mix est disponible sur smartphones, tablettes et sur le site rte-france.com.

  • Découvrir éco2mix en vidéo

Par Matthieu Combe, journaliste scientifique

Améliorer les vaccins contre le cancer

Les vaccins contre le cancer sont récemment apparus comme l’une des approches les plus prometteuses pour se débarrasser des cellules tumorales avant qu’elles ne se répandent, en dirigeant les défenses immunitaires d’un patient contre les cellules cancéreuses afin de les détruire de manière spécifique. L’objectif de ces vaccins est d’obtenir une réaction à la fois parfaitement ciblée, autonome et pérenne. Bien que forte de quelques jolis succès, la recherche n’en est encore malheureusement qu’à ses balbutiements, la plupart des « candidats vaccins » ne fonctionnant que trop aléatoirement. C’est dans ce contexte qu’une équipe de chercheurs japonais aurait développé un nouveau type de vaccin capable de stopper la croissance d’une tumeur, un vaccin testé avec succès après l’inoculation de la substance active sur des souris de laboratoire. Leurs résultats ont été annoncé dans la dernière édition de la revue scientifique ACS Nano, publication consacrée aux nanotechnologies de la prestigieuse American Chemical Society.

L’immunothérapie : une efficacité pour le moment relative

Actuellement, la plupart des vaccins contre le cancer agissent :

  • soit au niveau de l’antigène, en induisant une réaction immune contre un certain type de cellule, produisant des anticorps par le biais des lymphocytes B (immunité à médiation humorale) ou par le biais des lymphocytes T (immunité à médiation cellulaire) ;
  • soit au niveau des cellules dendritiques et des macrophages, les cellules de surveillance qui jouent un rôle primordial dans l’initiation des réponses immunes adaptives. Le vaccin va faire signe à ces cellules immunitaires, qui vont à leur tour activer les lymphocytes NKT (Natural Killer T, « tueur naturel T ») afin qu’elles s’attaquent aux tumeurs.

Pourtant, les approches basées sur le ciblage de ces cellules immunitaires, en constante circulation, n’ont pas encore rencontré le succès escompté.

Un maître-mot : furtivité

Les découvertes récentes suggèrent qu’un sous-ensemble de macrophages, provenant du fin fond de la structure des ganglions lymphatiques, pourrait jouer une partition importante dans le ralentissement de l’évolution du cancer. Mais comment faire en sorte que le vaccin ne soit pas absorbé, phagocyté par les cellules dendritiques et les macrophages en circulation, et atteindre ce fameux sous-ensemble de macrophages ?
L’innovation majeure du vaccin mis au point par l’équipe de Hiroshi Shiku et Naozumi Harada serait à trouver… du côté de la furtivité des nanoparticules qui le composent. Les chercheurs ont injecté les nanoparticules ninjas dans l’organisme de plusieurs souris, particules ne possédant aucune charge électrique, ni même de molécule de surface (qui pourraient attirer l’attention des cellules immunitaires patrouilleuses). Les nanoparticules furtives, contenant des molécules-messages destinées aux lymphocytes NKT, furent non seulement capables de pénétrer les ganglions lymphatiques, mais réussirent également à se faire repérer et engloutir par les macrophages visés. Résultat : la croissance de la tumeur est entravée, de manière plus efficace qu’avec les vaccins existants.

Par Moonzur Rahman

Ecophyto : Le Foll revoit sa copie

Loin de diminuer, entre 2009 et 2012, la consommation de pesticides a augmenté en moyenne de 5 % en France. Pire, entre 2012 et 2013, elle a augmenté de 9,2 %. Cette évolution concerne le nombre de doses-unités épandues à l’hectare (NODU), l’indicateur de référence utilisé dans le cadre du plan Ecophyto. L’Etat français revoit donc sa copie à la baisse. Au lieu d’une réduction de 50 % de l’usage des pesticides d’ici 2018, une baisse de 25 % d’ici 2020, puis de 50 % d’ici 2025, est prévue.

Tout n’est néanmoins  pas à refaire. « Ce premier plan a permis d’éliminer 80 % des substances les plus dangereuses », a insisté le ministre Stéphane Le Foll, à l’occasion d’une conférence censée lancer « 2015 : l’an I de l’agro-écologie », et au cours de laquelle il a présenté les grands axes du nouveau plan Ecophyto.

Comment créer une nouvelle dynamique durable ?

Stéphane Le Foll n’aime pas trop les engagements chiffrés et préfère « créer la dynamique sur le terrain », plutôt que de se focaliser sur des objectifs difficiles à atteindre. A l’instar de son plan Ambition Bio 2017, où il parle de « processus global de développement de l’agriculture biologique » plutôt que de « surface agricole utile à convertir en bio », le ministre préfère ici encourager les nouvelles pratiques agro-écologiques.

Plusieurs mesures ont déjà été lancées en 2013 : le plan Ambition bio 2017, le plan Ecoantibio, le plan pour l’apiculture durable et le plan Energie Méthanisation Autonomie Azote (EMAA). Puis, en 2014, la loi d’avenir pour l’agriculture et la forêt a été votée et les mesures agro-environnementales ont été mises en place dans le cadre du second pilier de la PAC. Ces dispositions visent à imposer l’agro-écologie, une agriculture performante aux niveaux environnemental et économique, comme nouvelle norme pour l’agriculture française. Dans cette perspective, le plan Ecophyto a un rôle important à jouer.

La nouvelle monture de ce plan insiste donc plus sur les moyens à déployer pour atteindre les objectifs.Elle s’inspire largement du rapport sur le sujet, remis au premier ministre Manuel Valls fin décembre, par le député PS Domnique Potier.

Comment mettre en action le monde agricole?

Un pesticide de synthèse ne se remplace pas  par du biocontrôle sans repenser en profondeur le système de culture. Pour que la baisse de la consommation des pesticides soit possible, le nouveau plan mise donc sur la formation et l’accompagnement pour répandre un ensemble large de pratiques agronomiques alternatives, telles que la rotation des cultures.

Pour y parvenir, il n’y a pas 36 solutions. Le nouveau plan Ecophyto mise sur ce qui a marché entre 2009 et 2014 : son réseau de 2 000 fermes pionnières Dephy qui ont vu une baisse de leur consommation de pesticides de 12 % en moyenne en 2013. Ces fermes « modèles » accompagnent chacune dans leur transition une dizaine de fermes grâce à des ingénieurs agronomes cofinancés par les conseils régionaux ou les agences de l’eau. Le nouveau plan prévoit de recruter 1 000 nouvelles fermes pionnières.

Des certificats d’économie de produits phytosanitaires mis en place

Les fermes Dephy ont leur importance, mais il faut élargir la dynamique au-delà de ce cercle réduit. Pour ce faire, la grande nouveauté du plan Ecophyto 2 est la mise en place d’un système de certificats d’économie de produits phytosanitaires (CEPP), inspiré par le modèle des Certificats d’économies d’énergie.

Les distributeurs de pesticides et les grandes coopératives devront engager des services et conseils pour réduire les produits phytosanitaires chez leurs clients de 20 % d’ici 2020. Outre le fait de mettre tous les acteurs à contribution, l’idée est également d’assurer une rémunération complémentaire aux industriels pour que la baisse de volume de vente des pesticides n’engendre pas de baisse de leur chiffre d’affaires.

En cas d’objectifs non atteints, les distributeurs de pesticides devront s’aquitter d’une pénalité financière de 11 euros par NODU. En revanche, ceux qui auront dépassé leurs objectifs, pourront vendre aux moins avancés  leurs surplus de NODU épargnés. Notons que ces CEPP portent sur une obligation de moyens mis en oeuvre et non de résultats. Les modalités d’évaluation des actions conduites devront donc être bien menées pour s’assurer de résultats à la hauteur des moyens.

Pour accompagner tout cela, 30 millions d’euros supplémentaires viendront s’ajouter aux 40 millions déjà alloués au plan chaque année. Ces nouveaux capitaux seront financés par un élargement de l’assiette de redevance pour pollutions diffuses collectée par les agences de l’eau.

Jusqu’en juin 2015, le projet est ouvert à consultation publique. Il sera ensuite décliné dans la foulée par régions, sous l’autorité du préfet. Espérons que, cette fois-ci, les résultats seront au rendez-vous !

  • Aller plus loin :

Rapport «Pesticides et agro-écologie LES CHAMPS DU POSSIBLE» de Dominique Potier

Par Matthieu Combe, journaliste scientifique

Le diesel n’est plus le bienvenu à Paris

Anne Hidalgo se lance. Dès le 1er juillet, une  zone de basse émission sera créée à Paris. Ce secteur dont les frontières restent à définir sera interdit aux véhicules les plus polluants. La Maire a déclaré à nos confrères du Monde.fr que cette zone ne concernera pas le périphérique ni les bois de la capitale. Cette annonce, en cohérence avec la volonté d’Anne Hidalgo de s’attaquer à la pollution de l’air parisien, reste floue puisque ni les frontières de la zone ni les critères de pollution ne sont connus. Toutefois, on sait que les véhicules diesel sont dans le collimateur, mais que de vieux véhicules essence pourront aussi être concerné. De même, les cars de tourisme ont été pointés du doigt et les tours opérateurs feraient bien de réfléchir à une autre façon d’acheminer leurs clients au cœur de Paris… Reste aussi à la mairie de Paris à choisir comment appliquer et faire respecter cette zone privilégiée. Pour cela, la municipalité pourra s’appuyer sur les retours d’expérience des nombreuses grandes métropoles qui ont déjà passé le cap.

 La Suède fut un précurseur dès 1996 en créant des zones à basse émission, aussi connues sous le nom de Low Emission Zone (LEZ). Stockholm, Göteborg et Malmö délimitèrent leurs propres LEZ interdites aux camions diesel et aux cars de plus de 3.5t. Puis ce fut au tour de l’Italie en 2005 de créer des LEZ, activées en hiver. En 2007, les Pays-Bas se convertissent, puis Berlin et Londres en 2009. Début 2014 on comptabilisait 194 LEZ au travers de 9 pays (Autriche, République tchèque, Danemark, Allemagne, Italie, Pays-Bas, Suède, Royaume-Unis, Portugal). Pour garantir le respect des LEZ, Londres a misé sur la vidéosurveillance. Des caméras fixes et mobiles lisent les plaques et vérifient que le véhicule répond bien aux exigences de la LEZ. En cas d’infraction l’automobiliste encoure une amende particulièrement dissuasive, comprise entre 600 et 1200€ selon le véhicule concerné. Du coup, près de 98% des véhicules respectent la règle. En Allemagne, une vignette est apposée sur le pare-brise des véhicules dont la couleur dépend de son niveau d’émission de polluants. Le contrôle des véhicules se fait visuellement par les policiers, sachant que seules certaines couleurs ont le droit de pénétrer dans les LEZ. Contrairement à la LEZ londonienne, l’amende encourue est faible, seulement 40€. Toutefois, le taux d’observance de la loi reste bon, entre 95 et 99% pour les particuliers mais entre 85 et 93% pour les professionnels. Ainsi, quel que soit le système de contrôle, le respect des LEZ est élevé.

Mais est-ce que ça marche au moins ? L’impact sur la pollution de l’air est mitigé. En Suède, le taux d’émission de dioxyde d’azote a baissé de 10% et celui des particules fines PM10 a chuté de 40%. En Allemagne, la mise en place des LEZ a globalement permis de diminuer de 10% le taux de PM10. A Berlin, les concentrations de NO2 ont baissé de 6 à 10%. A Londres, les bénéfices concernent principalement les zones proches des stations de trafic  avec des concentrations en carbone suie qui ont baissé de 15% et un taux de particules PM2.5 en recul lui aussi de 15%. Enfin, la mise en place des LEZ permet de diminuer le nombre de jour pendant lesquels la valeur limite journalière est dépassée.

Dans son rapport sur les zones à faibles émissions à travers l’Europe, l’Ademe conclue que la création des LEZ permet d’améliorer la qualité de l’air, mais qu’elles ne peuvent seules résoudre le problème de pollution. Elles doivent faire partie d’un plan comprenant d’autres leviers d’action. Cela tombe bien, le plan anti-pollution prévois d’autres mesures comme la mise en place de camions bennes électrique, le déploiement de 180 nouveaux points de recharge pour véhicule électrique, la fin des véhicules diesel dès 2020, l’extension des zones limitées à 30km/h, un centre-ville semi-piéton… Paris passe au vert.

Par Audrey Loubens, journaliste scientifique

L’indemnité kilométrique vélo bientôt généralisée ?

Cette expérimentation s’est déroulée du 1er juin au 1er novembre 2014 avec plus de 10 000 salariés mobilisés dans 18 entreprises volontaires. Financée par l’ADEME et copilotée par la coordination interministérielle pour le développement de l’usage du vélo (CIDUV), elle a été réalisée par le bureau d’études Inddigo. En fin d’expérimentation, les adhérents au système déclarent des distances d’environ 5 km par trajet, soit plus que la moyenne nationale, évaluée à 3,4 km en 2008.

Les règles de l’expérience étaient simples : les cyclistes se voyaient octroyer une indemnité kilométrique de 25 centimes/km dans le cadre de leurs déplacements domicile-travail. Cette indemnité n’était pas cumulable avec le remboursement des abonnements de transports en commun sur le même trajet, sauf en cas de déplacement intermodal « vélo + transport en commun ». Les vélos devaient être la propriété des usagers, les systèmes de libre-service étant déjà remboursables à hauteur de 50 % au même titre que l’abonnement transports en commun. Enfin, la plupart des entreprises ont défini un plafond mensuel compris entre 30 € et 55 € par mois.

En raison de réponses incomplètes aux différents questionnaires, sur les 18 entreprises, seules les expériences de 14 entreprises, soit 8 210 salariés, ont été comptabilisées pour obtenir les résultats. En moyenne, 380 adhérents au système de l’indemnité kilométrique (IK) ont perçu une indemnité au moins une fois au cours des 6 mois de l’expérimentation. Mais 39 cyclistes supplémentaires ont également décidé de pas participer à l’expérience, certainement pour garder le remboursement mensuel de leur carte de transports.

Y a-t-il beaucoup plus de cyclistes ?

Au total, 419 salariés ont utilisé leur vélo à un moment donné de l’expérience, contre 200 auparavant. Leur nombre a donc été multiplié par deux. Néanmoins, la période ayant été propice à l’usage du vélo en raison de la période estivale et 13 % ayant décidé d’arrêté l’expérimentation au moins provisoirement, l’ADEME table sur une augmentation de la part modale (proportion des déplacements effectués en vélo par les salariés) du vélo de l’ordre de 50 %. Ainsi, projetés sur l’année, cette part est passée de 2 % avant l’expérimentation à 3 % après. La part modale du vélo reste malgré tout relativement faible, comparée à observée dans d’autres pays tels que les Pays-Bas ou encore la Belgique. Le seul levier de l’indemnité kilométrique ne semble donc pas suffisant pour booster l’usage du vélo en France.

Le rapport note 3 grands types d’usagers, avec des niveaux de pratiques différents. Ainsi, les cyclistes déjà réguliers avant l’expérience, mais ayant adhéré à l’IK utilisent leur vélo pour leur trajet domicile-travail environ 18 jours par mois. Les cyclistes déjà réguliers, mais n’ayant pas adhéré à l’IK, continuent d’avoir une pratique régulière, avec une moyenne de 16 jours de vélo par mois. Enfin, les nouveaux cyclistes propulsés par l’expérience pratiquent moins que les autres : environ 11 jours de vélo par mois, mais sur des distances plus longues.

Malgré tout, l’IK semble avoir un effet bénéfique, plus largement, sur la pratique du vélo au quotidien. En effet, 30 % des nouveaux cyclistes et 15 % des anciens déclarent avoir augmenté leur pratique du vélo pour leurs autres motifs de déplacement.

Qui a décidé de prendre son vélo ?

Les expérimentateurs étaient principalement des hommes (60 %), âgés entre 35 et 55 ans. 54 % des nouveaux cyclistes utilisaient auparavant les transports collectifs. Ce bilan dépend néanmoins fortement du maillage et de l’attractivité du réseau de transports collectif dans la zone considérée. Le report modal est faible là où les réseaux sont les plus attractifs, comme en Ile-de-France (5 %).

19 % des nouveaux cyclistes se déplaçaient avant en voiture, principalement en covoiturage et 9 % en 2 roues motorisées. Seulement 5 % de usagers qui prenaient seuls leur voiture ont décidé de la laisser au garage. L’expérience aurait donc un faible effet pour diminuer le nombre d’automobiles en circulation, contrairement à ce qui était espéré. La courte durée d’expérimentation et l’intérêt financier insuffisant sont les deux principales raisons avancées par le rapport pour l’expliquer.

Des dispositions à améliorer pour pérenniser le système

La possibilité pour les employeurs d’instaurer une IK est une disposition inscrite au projet de loi sur la transition énergétique pour la croissance verte. Votée en première lecture à l’Assemblée nationale en octobre dernier, la commission des finances du Sénat a voté le 21 janvier un amendement pour supprimer cette disposition. Mais le Gouvernement reste favorable à sa mise en place et, ce sera à l’Assemblée Nationale d’avoir le dernier mot.

Les entreprises volontaires demandent une exonération des cotisations sociales et fiscales et un versement au même titre que pour le soutien à l’abonnement transport. Car de 25 centimes / km, la dépense pour l’entreprise atteint 40 à 43 centimes/km en intégrant les charges. Le décret d’application, si le projet est maintenu, devra trancher sur la question de l’exonération des charges et sur le montant de l’indemnité à proposer aux salariés.

  • Aller plus loin

Synthèse de l’expérimentation « Indemnité kilométrique vélo »

Par Matthieu Combe, journaliste scientifique

La chasse aux ondes est ouverte

Pour la première, une loi française reconnait implicitement les dangers éventuels des ondes électromagnétiques sur la santé de l’homme. Le 29 janvier, après 2 ans de tergiversations et de modifications, la « loi Abeille », du nom de la députée écologiste Laurence Abeille, rapporteure du texte, prévoit ainsi plusieurs mesures censées mieux maîtriser l’impact des ondes.

 Aucune révolution toutefois, le texte contient surtout quelques mesures qui relèvent plus du symbolique que de l’action.

  • 1. Contrôle des publicités

Ainsi, plus aucune publicité ne pourra montrer un individu le téléphone collé à l’oreille et devra systématiquement faire une mention explicite au kit mains-libres.

  • 2. Indication du DAS

Le débit d’absorption spécifique (DAS), qui indique la quantité d’énergie transmise par les radiofréquences vers l’utilisateur à pleine puissance, devra être apparent sur tous les terminaux radioélectriques, comme les tablettes.

  • 3. Wifi interdit en crèche

La loi prévoit l’interdiction du Wifi en halte-garderie et en crèche de façon à protéger les moins de 3 ans. Cette interdiction devait initialement concerner les écoles primaires (maternelles et élémentaires) mais finalement elle se limite aux tout-petits.

  • 4. Surveillance des zones de trop forte émission

En France, l’exposition moyenne est de 1V/m, mais localement, ce taux peut atteindre 10 V/m. Désormais, ces secteurs seront identifiés et recensés chaque année par l’Agence nationale des fréquences (ANFR). De plus, le niveau d’exposition devra être abaissé dans un délai de 6 mois, sous réserve de faisabilité technique.

  • 5. Déploiement des antennes-relai

En cas de désaccord entre les opérateurs et la municipalité sur l’installation d’antenne-relai, ces derniers pourront désormais solliciter une instance de concertation. En attendant d’en préciser les modalités de fonctionnement, l’ANFR pourra agir via son comité de dialogue.

  • 6. L’hypersensibilité à l’étude

Le gouvernement est chargé de remettre un rapport au Parlement sur les hypersensibles dans l’année qui suit la promulgation de la loi.

Voilà donc un ensemble de mesurettes qui ne bouleverseront la vie ni des usagers ni des professionnels. Seul réelle nouveauté, la reconnaissance de l’électro-hypersensibilité dont le terme est utilisé pour la première fois dans la loi.

Par Audrey Loubens, journaliste scientifique

Le secret de l’odeur du sol mouillé enfin révélé

Pourquoi la terre exhale-t-elle ce parfum si caractéristique après la pluie ? Une équipe du MIT s’est penché sur la question en braquant à la surface du sol une caméra. Pour mener à bien leur enquête, ces nouveaux experts des gouttes de pluie se sont intéressés à différentes sortes de pluies, plus ou moins violentes, avec une vitesse de chute plus ou moins importante. De même, différentes surface de contact ont été étudiées, à la porosité variable. Les résultats parus dans Nature Communications font état de 600 gouttes d’eau filmées pendant leur chute sur 28 terrains différents, dont 12 superficiels et 16 naturels. A y regarder de si près, les scientifiques ont découvert un mécanisme de nature purement mécanique. En effet, lorsque la goutte heurte le sol, elle emprisonne de minuscules bulles d’air entre elle et le sol. Cet air traverse la goutte de pluie, remonte à la surface et éclate, libérant les aérosols responsables de l’odeur bien connue de la pluie.

Toutefois, les chercheurs ont aussi mis en évidence une modulation du phénomène selon l’intensité de la colère du ciel. Ainsi, l’odeur sera plus forte dans le cas d’une pluie fine tombant sur un sol poreux de type terre battue. A contrario, le phénomène reste limité si un terrible orage s’abat sur un sol non poreux. Dans ce cas les gouttes d’eau frappent le sol si vite que les bulles d’air n’ont pas le temps de se former. Il faudra alors inspirer à plein poumons pour détecter la délicate odeur de terre humide.

La découverte de ce phénomène de bulle d’air capturée sous la goutte de pluie et venant éclater à sa surface pose la question de la transmission de certaines maladies dont les agents pathogènes sont contenus dans le sol. Une faible pluie sur un sol argileux favoriserait alors la diffusion de tels agents et donc d’éventuelles épidémies.

Découvrez comment se diffuse l’odeur de la pluie :

Par Audrey Loubens, journaliste scientifique

Revue du web #75 : les vidéos les plus étonnantes de février 2015 (1/2)

Cette semaine dans la revue du Web :

  • Le retour de Nobumichi Asai et du « face hacking » ;
  • Bill Gates sur tous les fronts, mais du bout des lèvres ;
  • De bien beaux aimants permanents… oui mais « Will it blend ? »
  • « Blooms », les très élégantes sculptures zootropes inspirées par Fibonacci ;
  • Le gadget (inutile ?) de la semaine : la machine de Rube Goldberg virtuelle ;
  • Et en bonus : des marshmallows en toute décontraction, au bord du cratère d’un volcan.

Le retour de Nobumichi Asai et du « face hacking » :

A l’avant-garde du mapping vidéo depuis quelques années – une technologie permettant de projeter de la lumière ou du contenu vidéo sur des volumes et des structures en relief – Nobumichi Asai finit par se lasser des commandes habituelles, les sempiternelles projections d’images sur des bâtiments ou dans une pièce pour les animer de manière digitale. Brillant et novateur, l’artiste numérique japonais s’était illustré il y a quelques mois déjà avec un premier projet de mapping vidéo dynamique, baptisé Omote, système alliant les techniques de détection de mouvement les plus novatrices aux dernières techniques de mapping vidéo. On avait pu admirer Omote à l’œuvre sur un support d’un nouveau genre : la toile n’était autre que le visage d’une mannequin japonaise (qui avait d’ailleurs dû se débarrasser de ses sourcils pour l’occasion). La vidéo, avait fait sensation, et nous vous en parlions ici.

C’est aux visages de deux acteurs qu’il s’attaque cette fois-ci, lors d’un show télévisé, accompagné de son équipe de designers, d’experts en images de synthèse et de maquilleurs professionnels. Une fois de plus, le résultat est absolument somptueux, et le public bluffé par le maquillage dynamique, sorte de seconde peau digitale. Peu de détails techniques du « face-hacking » ont pu filtrer, mis à part la nécessité de scanner le visage des deux acteurs au préalable, étape nécessaire pour la modélisation du moindre de leurs contours, et pouvoir réaliser la projection en temps réel.

Asai n’est pas un novice en la matière – il a déjà effectué des projections pour le constructeur automobile Subaru – et c’est désormais la seconde fois qu’il travaille sur un support non stationnaire. Il ne compte d’ailleurs pas s’arrêter en si bon chemin… Prochaine étape en vue, le mapping vidéo sur tout le corps.

Bill Gates sur tous les fronts, mais du bout des lèvres :

Depuis qu’il se consacre à sa fondation, Bill Gates multiplie les combats, dans des domaines aussi variés que la santé ou l’acquisition de connaissances. Présent sur tous les fronts, le multimilliardaire américain donne de sérieux coups de pouce aux projets qui lui semblent plus que prometteurs. Parmi ceux-ci, l’« Omniprocessor » semble tenir le haut du pavé. Cette machine imposante, mise au point par Janicki Bioenergy, a pour délicate mission de transformer les boues d’épuration en cendres, en électricité et… en eau potable.

Les grandes lignes du processus sont assez simples : un tapis roulant emmène les boues d’épuration à travers un séchoir géant, dont la mission est de séparer l’eau des solides secs ; l’incinération de ces solides secs ne laisse que des cendres et alimente un moteur à vapeur, produisant l’électricité nécessaire au processus et envoie le surplus d’électricité vers le réseau, tandis que l’eau est filtrée pour être rendue potable.

Bill Gates y met tellement du sien qu’il va jusqu’à boire – il est vrai, du bout des lèvres – l’eau devenue potable. Bonne nouvelle, un programme pilote devrait être lancé courant 2015 au Sénégal, afin d’en faire profiter le plus grand nombre.

De bien beaux aimants permanents… oui mais « Will it blend ? » :

La franchise « Will it blend ? » reprend du service ! La série de petites vidéos old-school faisant l’apologie de la destruction des objets de notre quotidien, campagne de pub virale assez réussie pour le compte du fabricant américain Blendtec, a tant et si bien marché que cette petite phrase est devenue le mantra de toute une génération d’internautes turbulents. Replongeons tout entier dans le plaisir jouissif et enfantin du saccage pur et dur avec cette vidéo, démontrant (si toutefois il en était besoin) qu’une grappe d’aimants permanents en alliage néodyme ne fait pas long feu lorsqu’elle croise la route d’un blender. Leur chant du cygne ? Un joli feu d’artifices dans le récipient en verre, avant de finir pulvérisés, au sens propre du terme.

Pour rappel, un aimant permanent est souvent constitué d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B). L’alliage de néodyme fer bore est celui qui est le plus souvent utilisé pour les aimants en terres rares, car le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

« Blooms », les très élégantes sculptures zootropes inspirées par Fibonacci :

L’artiste et inventeur américain John Edmark a un petit faible pour Leonardo Fibonacci, passé à la postérité grâce à la suite qui porte son nom. Reprenant à son compte les travaux du mathématicien italien concernant l’angle d’or, le designer californien a conçu d’élégantes sculptures appelées « blooms », créations organiques sorties tout droit d’une imprimante 3D, et pièces centrales de zootropes de son cru – ces jouets optiques d’antan utilisant la persistance rétinienne pour donner une illusion de mouvement.

Placées sur une plate-forme rotative, ces « blooms » subissent les assauts synchrones d’une caméra réglée sur une très courte vitesse d’obturation, pour donner un effet stroboscopique, de telle manière qu’une image est capturée chaque fois que la sculpture effectue une rotation d’environ 137,5° – le fameux angle d’or, que l’on retrouve dans la nature, de la pomme de pin aux fleurons du tournesol. Le résultat : une vidéo absolument sublime, aux accents hypnotiques.

Le gadget (inutile?) de la semaine : la machine de Rube Goldberg virtuelle

Pour venir conclure cette soixante-quinzième Revue du Web, invoquons une fois de plus le génie de Rube Goldberg et l’une des fantastiques « machines » qu’il a inspirée, abonnées aux coups de pubs et aux gadgets (inutiles?) de la semaine. Cette fois-ci, c’est une jeune Hollandaise qui utilise cette figure imposée pour se faire un nom, avec une installation qui a le chic de passer du réel au virtuel, en s’invitant sur un bureau de type Windows.

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

Bonus : des marshmallows en toute décontraction, au bord du cratère d’un volcan

Pour le bonus de cette semaine, rien de tel que de partager un petit moment de douceur virile entre amis, à conter des histoires maintes fois ressassées dans la chaleur humble et conviviale d’un petit feu de camp, avec son cortège – attendu – de marshmallows à la braise. L’homme qui se met en scène dans la vidéo qui suit n’en a que faire de ces histoires, il n’a d’ailleurs plus d’amis. Mais ne vous en faites pas pour lui, rien ne l’empêche pourtant de profiter des mêmes petits riens que tout un chacun, en solitaire. Pour dynamiter son quotidien, notre héros vient se fourrer au plus près du cratère d’un volcan, afin de réchauffer ses marshmallows au dessus de la fournaise, tout en savourant sa bière. Comme à la maison.

Par Moonzur Rahman

Sécurité de vos comptes : un seul mot de passe pour les protéger tous

L’été dernier, un piratage de comptes iCloud a créé le buzz. Un hacker avait réussi à pirater les comptes de célébrités, puis il avait diffusé en ligne des photos intimes. Une attaque sûrement menée via une attaque par force brute, qui permet, en testant à la volée des milliers de combinaisons possible, de trouver les mots de passe des utilisateurs.

Régulièrement, des internautes se font voler leurs données. Un mot de passe trouvé, et c’est, bien souvent, l’ensemble des comptes de l’internautes qui est percé à jour – puisque la plupart des utilisateurs utilisent le même mot de passe pour tous leurs comptes (Facebook, Twitter, Gmail, iCloud, etc.).

Construisez des phrases de passe sûres

Face à ce constat, comment faire ? Vos mots de passe sont-ils suffisamment complexes pour ne pas être trouvés par un hacker ? Aussi incroyable que cela puisse paraître, beaucoup d’internautes utilisent encore des mots de passe comme “123456”. Plus un mot de passe sera complexe et long, plus il sera difficile à un hacker de le “craquer” grâce à un dictionnaire de mots. Le changer régulièrement est en outre indispensable.

Pour créer un mot de passe complexe, rendez-vous sur notre article dédié aux phrases de passe, qui explique comment utiliser des phrases de passe, plutôt que de simples mots de passe. Pour rappel, les phrases de passe sont une succession de mots, qui placés côte à côte n’ont aucun sens, et qui seront très difficiles à craquer. Il est aussi impératif d’utiliser des phrases de passe différentes pour chaque compte, et jamais un mot de passe unique, pour les raisons citées plus haut.

Une fois que vous aurez réussi à bien verrouiller vos comptes grâce aux clés adéquates, encore faut-il que vous ne les perdiez pas, sinon, impossible d’accéder à vos comptes. Autrement dit, il est impératif de ne jamais perdre vos multiples phrases de passe. Seulement, la mémoire nous joue parfois des tours, et pas question d’écrire vos identifiants quelque part dans un coin de votre ordinateur, ou même sur un bout de papier, car dans le cas où quelqu’un de malintentionné viendrait à y accéder, gare aux dégâts…

Une seule “master key” pour tout protéger

Pour conjuguer au mieux la diversité de vos phrases de passe et leur complexité, une solution consiste à utiliser un “coffre fort”, ou “portefeuille” de phrases de passe.

Ainsi, KeePass, Dashlane, LastPass et 1Password vous permettent de stocker vos phrases de passe, et de les protéger dans un fichier unique, lui même protégé par une clé. En somme, une unique phrase de passe permet d’accéder à toutes les autres, dans une base de données sécurisées. Ces données sont chiffrées, et votre phrase de passe “maîtresse”, ou “master key”, est à considérer comme une clé de chiffrement – sans elle, vos données sont inutilisables, y compris par un pirate informatique.

Dashlane vous permet de vous connecter directement à vos comptes sans jamais plus saisir vos mots de passe, grâce à une fonction de connexion automatique – vos phrases de passe sont mémorisées par le logiciel. Ce logiciel possède aussi un générateur de mots de passe complexes, difficiles à percer, ainsi qu’un système d’alerte, qui vous prévient automatiquement dès qu’un site web où vous disposez d’un compte à été piraté.

Bien sûr, vous devrez faire attention à changer régulièrement votre “master key”, et à ne jamais l’oublier. Mais retenir une seule phrase plutôt qu’une dizaine, voilà qui est tout de même plus simple. A noter que KeePass est le seul parmi les logiciels listés ici a avoir été évalué et certifié par l’Agence nationale de sécurité des systèmes d’information (ANSSI).

Comme le conseille la CNIL (Commission Nationale Informatique et Libertés), il est enfin “indispensable de disposer d’une copie de cette base de mots de passe”, qui est “une ressource critique pour pouvoir accéder à vos comptes”. Ainsi, nous ne saurions vous conseiller de disposer d’une copie de votre base de phrases de passe sur une clé USB, ou sur un autre support, à garder sur vous ou dans un endroit (vraiment) sûr.

Par Fabien Soyez

La Nasa a lancé avec succès le premier satellite de mesure de l’humidité des sols

La fusée Delta 2 de la société United Launch Alliance transportant le satellite SMAP (Soil Moisture Active Passive Mission) s’est arrachée de son pas de tir de la base militaire Vandenberg en Californie à 14H22 GMT, avant le lever du soleil.

SMAP s’est séparé du second étage du lanceur 57 minutes plus tard, à 15h18 GMT, pour se placer, avant de déployer ses antennes solaires, sur une orbite provisoire de 661 à 683 km. Il se mettra ensuite sur une orbite polaire définitive à 685 km d’altitude et effectuera une rotation de la Terre toutes les 98,5 minutes.

Le satellite, qui est doté de deux instruments, un radiomètre et un radar, doit effectuer des mesures très précises de l’eau et de la glace contenue dans les sols.

Cette mission permettra d’établir une carte d’une résolution sans précédent de l’humidité à la surface de la Terre au moins tous les deux à trois jours, ce qui permettra de mieux prédire les sécheresses et les risques d’inondation.

Le degré hygrométrique des sols, comme celui de l’air, joue un rôle important dans les prévisions météorologiques et dans la compréhension des cycles de l’eau ainsi que dans la dynamique du changement climatique, expliquent les scientifiques de la Nasa.

Tous les sols émettent des micro-ondes, dont l’intensité varie en fonction de la quantité d’humidité qu’ils contiennent.

Ainsi, plus le sol est sec, plus les émissions de micro-ondes sont grandes. Inversement, plus il est humide, moins il contient d’énergie.

Le radiomètre mesure ces radiations de micro-ondes, ce qui permet aux scientifiques de calculer le degré hydrique des sols.

« Le récepteur à bord du satellite est extrêmement sensible », explique Jeff Piepmeier, responsable du radiomètre au centre des vols spatiaux Goddard de la Nasa à Greenbelt dans le Maryland (est).

« Si on pouvait mettre un téléphone portable sur la Lune fonctionnant sur la même fréquence que le récepteur du satellite –une grande antenne– nous pourrions voir le portable s’allumer et s’éteindre », précise-t-il.

SMAP est une mission de 916 millions de dollars qui devrait durer trois ans ou plus. Il s’inscrit dans un programme plus large de projets de sciences de la Terre dans l’espace pour mieux comprendre le changement climatique et la montée du niveau des océans ainsi que l’état des réserves d’eau douce de la planète, avait expliqué avant le lancement Christine Bonniksen, responsable de cette mission à la Nasa.

« Nos satellites sur orbite ainsi que les observations effectuées depuis le sol ou aériennes traquent les signes vitaux de la Terre », a-t-elle dit.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Automobile : +5,9% en janvier pour le marché français du neuf

Les constructeurs français ont connu des parcours contrastés pendant le mois de janvier, PSA Peugeot Citroën progressant de 2,6% grâce à une envolée de Peugeot, tandis que le groupe Renault reculait de 3,3%, a indiqué le Comité des constructeurs français d’automobiles (CCFA) dans sa livraison mensuelle de chiffres.

Les Français, qui avaient gagné des parts de marché pendant toute l’année 2014, voient leurs ventes s’effriter de 0,1% en janvier par rapport au même mois de l’année dernière, tandis que les étrangers ont profité à plein de cette baisse de régime et enregistrent des immatriculations en hausse de 14,5%.

Côté groupes généralistes, Nissan, partenaire de Renault, progresse ainsi de 26,6%, son concurrent japonais Toyota est à 10,4%, tandis que Ford bondit de 18,2%, Fiat de 9,7% et Volkswagen de 6,8%. Seul General Motors fait la grimace avec -7,7%, dépassé en volume par le sud-coréen Hyundai (+26,8%).

Le champion toutes catégories de la croissance en janvier est toutefois le spécialiste allemand du luxe Mercedes (avec Smart), à +58,1%, alors que son concurrent direct BMW (qui comprend Mini) progresse de 18,4% mais bat encore largement le groupe à l’étoile en volumes de vente.

tq/cb/jag

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Spartan : la future alternative à Internet Explorer, by Microsoft

Ce n’est pas un secret, face à Google Chrome et Mozilla Firefox, Internet Explorer souffre d’un certain désamour de la part des internautes. Alors que “IE” est tout aussi performant que ses concurrents, il apparaît comme trop “rétro”, trop lent, trop rigide aux yeux des utilisateurs. 

Pour pallier ce déficit d’image, Microsoft développe un nouveau navigateur web (destiné à accompagner le futur Windows 10). Il ne s’agit pas d’un énième Internet Explorer (le douzième), mais d’un tout nouveau logiciel.

Le nom (provisoire) de ce navigateur, qui s’adaptera à toutes les versions de Windows 10 (mobiles ou PC) : Spartan. Dévoilée par le site Neowin, son interface se révèle particulièrement “allégée”, épurée. Proche de Google Chrome et de Firefox dans le style, elle a été conçue à partir des moteurs de rendu HTML Trident et JavaScript Chakra, déjà utilisés pour IE.

De nouvelles fonctionnalités

Selon The Verge, Spartan devrait intégrer de nouvelles fonctions, comme l’assistant vocal Cortana, conçu par Microsoft lors d’une mise à jour de Windows Phone 8.1, ce qui permettra à l’utilisateur de rechercher, vocalement, des réservations d’hôtel ou des horaires de vols d’avions, sans passer par Bing, le moteur de recherche de Microsoft.

Autre fonction annoncée, inédite, et qui devrait permettre à Spartan de se démarquer de ses concurrents : l’encrage numérique. L’utilisateur pourra annoter des pages web avec un stylet, prendre des notes et des annotations, puis les partager, rapidement, via OneDrive (le service de stockage en ligne de Microsoft), avec leurs contacts. 

“Les notes seront ensuite accessibles depuis n’importe quel navigateur, sur de multiples plateformes”, indique The Verge. Ainsi, plusieurs utilisateurs pourraient éditer et partager des notes sur la même page, dans une optique de travail collaboratif.

Spartan devrait aussi permettre de regrouper librement des onglets ensemble (une fonction que proposait autrefois le navigateur concurrent Opera). Cela devrait permettre à l’internaute de dissocier les onglets liés au travail de ceux liés à sa vie personnelle.

Spartan acceptera également les extensions, permettant ainsi à l’utilisateur d’ajouter nombre de fonctions supplémentaires, comme c’est déjà le cas avec les navigateurs concurrents de Microsoft.

D’autres fonctionnalités sont toujours en cours de développement, comme la possiblité d’installer des thèmes.

Pas (encore) la fin d’Internet Explorer, mais une alternative

Alors, est-ce la fin d’Internet Explorer ? Non, du moins pas encore. Spartan sera une alternative, pas un remplaçant de IE (bien que celui-ci semble condamné, à terme, à se faire supplanter).

Microsoft continuera ainsi à proposer son ancien navigateur (Internet Explorer 11) aux utilisateurs de Windows, y compris sur Windows 10 (pour éviter les problèmes de rétrocompatibilité, notamment). En revanche, pour Windows 8, Spartan devrait remplacer l’interface graphique Modern UI d’Internet Explorer – sur PC, tablettes et smartphones.

A noter que Spartan ne sera pas installé par défaut dans le système d’exploitation Windows, comme c’est le cas avec Internet Explorer actuellement : le navigateur sera disponible en téléchargement, sur le Windows Store, ce qui permettra à Microsoft d’effectuer des mises à jours beaucoup plus rapidement.

Et peut être, pourquoi pas, de proposer Spartan aux utilisateurs d’autres systèmes d’exploitation ? “L’équipe de IE a expliqué il y a quelques mois que Microsoft n’avait pas l’intention de le proposer à tous les OS. Mais Spartan n’est pas IE”, indique une journaliste de ZDNet.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Le groupe OK Go a encodé sa musique dans des brins d’ADN

Ce sera donc un album collector. Le dernier opus du groupe OK Go sort sous forme de brins d’ADN et ne pourra pas être écouté sans un arsenal technologique digne des plus grands laboratoires de recherche. Peu importe, il s’agit d’une démarche artistique. Pour fabriquer ce tout nouveau produit musical, les scientifiques ont converti le code binaire d’origine en séquence ADN composée des 4 éléments de base que sont les nucléotides adénine, cytosine, thymine et guanine. Une fois les brins d’ADN réordonnés, l’album est prêt.

Il sera vendu sous la forme d’une petite fiole contenant elle-même environ 100 000 exemplaires de l’album. 

Le groupe est un habitué des performances mêlant musique et nouvelles technologies. En 2011 le quatuor s’était associé à Google pour tourner un clip faisant la promotion du html 5.

Les Ok Go ne sont pas les premiers à utiliser de l’ADN pour stocker de la musique. Il ya  deux ans déjà paraissaient dans Nature les travaux des chercheurs de LEBM-Institut européen de bio-informatique.

Ceux-ci avaient réussi à stocker dans de l’ADN de l’information sonore et textuelle : 26 secondes du discours de Martin Luther King et 154 sonnets de Shakespeare.

Le codage de l’information repose sur le même principe de transcrire le code binaire en système à base de 4 briques unitaires. Pour cela, les scientifiques sont passés par une étape intermédiaire de codage ternaire avec des 0, des 1 et des 2. Surtout, ils ont envoyés l’ADN des USA à des scientifiques allemands qui ont réussit à lire l’information sans aucune erreur. 

Un premier succès qui a ouvert la voie de l’ADN comme système de stockage. L’avantage étant que l’ADN se conserve des milliers d’années contre seulement quelques centaines au mieux pour des supports comme le CD, le DVD ou une clé USB.

En attendant, si vous voulez écouter Hungry Ghost, des OK Go,  il va falloir investir dans un séquenceur ADN. 

Par Audrey Loubens

La composition exacte de l’orichalque, un alliage antique, enfin connu !

Ils étaient enfouis au cœur d’une épave échouée à 300 mètres de profondeur au large de la Sicile. Les 39 lingots rapportés par des archéologues ne sont pas d’or, mais pourrait bien faire la bonne fortune de leurs découvreurs.

Car ces lingots sont composés d’un alliage encore jamais trouvé, un mélange de cuivre et de zinc. De l’orichalque ? Ce métal précieux, presque autant que l’or, est mentionné dans plusieurs  textes antiques, notamment par Platon. Les descriptions évoquent un métal brillant, doré, ayant servi à bâtir l’enceinte de l’acropole de l’Atlandide, l’île légendaire. L’orichalque était extrait exclusivement des mines de l’île des Atlantes.

Mais lors de sa disparation, l’île aurait engloutie avec elle tout l’orichalque existant sur Terre. Impossible donc d’avoir un échantillon de ce métal, à moins de retrouver l’Atlantide…

Dès lors, la communauté scientifique ne peut que s’appuyer sur les descriptions existantes dans les textes anciens. Ces derniers permettent de s’accorder sur le fait que l’orichalque serait un alliage possédant l’apparence du laiton fabriqué à partir de zinc, de charbon et de cuivre.

Les lingots découverts à bord du navire vieux de 2600 ans ont été analysé. Leur composition est de 75 % de cuivre, environ 15% de zinc, avec des traces de nickel, de plomb et de fer. Ces mesures correspondent aux descriptions de l’orichalque, d’où l’euphorie des scientifiques persuadés d’avoir mis la main sur ce métal précieux à la composition jusqu’ici inconnue avec précision.

Toutefois, en l’absence de la formule précise de l’orichalque décrit dans les textes antiques, même si de nombreux éléments concordent avec ce que l’on en sait, impossible de conclure avec certitude que les lingots sont bien de l’orichalque. 

Le navire provenait sans doute de Grèce à destination du port de Gela au sud de la Sicile. Les archéologues à l’origine de cette découverte vont désormais extraire de l’épave l’intégralité de sa cargaison.

Par Audrey Loubens

Energie et big-data, une double-compétence recherchée

« Dans le domaine de l’énergie, le choc numérique va être plus qu’une révolution », insiste André Joffre, Président de Qualit’EnR. Les systèmes de production centralisés vont en partie être remplacés par des productions renouvelables décentralisées sur l’ensemble du territoire, les offres d’effacement ou d’aggrégation de flexibilité vont se multiplier, les petits producteurs pourront autoconsommer ou vendre leur électricité. Les conclusions du groupe de travail sur l’auto-consommation seront publiées d’ailleurs rendues publiques avant la fin du mois. La ministre précisera alors les 5 chantiers de mise en œuvre pour développer l’auto-consomation de l’électricité par les petits producteurs, plutôt que sa vente obligatoire à EDF. Dès lors, il faudra développer des infrastructures numériques solides et trouver des ingénieurs en mégadonnées qui comprendront ces nouveaux systèmes énergétiques.

Lorsque le Big data s’associe à l’énergie

Les ingénieurs en informatique sont devenus les professionnels les plus recherchés par les entreprises françaises en 2014. Le Saint-Graal recherché : l’ingénieur en big-data, ce professionnel qui transformera vos mégadonnées en or. Si le Big data se développe notamment dans les secteurs financiers, la vente, les services de santé, les télécom et le secteur public, mais il a aussi un avenir luisant dans le secteur de l’énergie. Car en parallèle du déploiement du compteur communicant Linky pour l’électricité et Gazpar pour le gaz, le réseau électrique intelligent (aussi appelé « smart grid ») se met en place. Ce réseau moderne, pierre angulaire de la transition énergétique,  permettra de suivre et de piloter en temps réel la production, la consommation, et le stockage de l’électricité. Linky va notamment permettre de collecter un flux colossal de données sur les consommations d’énergie.

En contrepartie, les usagers pourront s’abonner à de nouveaux services : effacement lors des pics de consommation sur le réseau (interruption du chauffage électrique pendant quelques minutes, par exemple), développement d’heures creuses solairesquand les panneaux photovoltaïques de la région produisent à plein régime, etc. Les géants de l’énergie cherchent de nouvelles offres basées sur l’exploitation de ces données. Etre ingénieur en big data avec une spécialisation en énergie fera donc de vous la perle rare. Plus généralement, le secteur de l’énergie recrute. EDF, GDF Suez, Total, Areva et les sociétés d’ingénierie et de conseil prévoient de recruter plusieurs milliers d’ingénieurs dans les prochaines années.

Par Matthieu Combe, journaliste scientifique

Les écoles d’ingénieurs en mutation

Alors que la concurrence internationale n’a jamais été aussi rude, les écoles d’ingénieurs françaises tentent de rester attractives. Leur nouvel objectif est de favoriser la création d’entreprises et de transmettre l’envie d’innover à leurs élèves. Ainsi, elles sensibilisent ou forment de plus en plus leurs élèves à l’entrepreneuriat, et les accompagnent dans leurs projets. Même si 1,4% des ingénieurs diplômés se lancent dans l’entrepreneuriat (selon le palmarès de l’Etudiant), ils sont de plus en plus nombreux.

C’est par exemple le cas de cet étudiant de l’Isat (Institut supérieur de l’automobile et des transports). A tout juste 20 ans, il a inventé un système innovant de simulation automobile. Pour protéger son idée, son école lui a mis à disposition un local chez Welience, son centre d’activités de recherche technologique et de développement. Selon le directeur de l’Isat, interviewé par Le Journal du Centre, “l’école est une usine à entrepreneurs… Mais peu d’ingénieurs créent des entreprises en France. Les bonnes idées sont rares. Notre mission est aussi d’offrir à l’idée la capacité d’émerger.”

Des cursus réorganisés

Alors que la formation en alternance, qui commençait à peine à se développer dans les écoles d’ingénieurs, est menacée par la réforme de la taxe d’apprentissage, l’idée est donc désormais de pousser les élèves à créer eux-mêmes leurs entreprises. 

Comment inspirer, dès le départ, les aspirants ingénieurs ? En les sensibilisant. La plupart des écoles d’ingénieurs organisent, souvent en début de cursus, des conférences et des rencontres avec d’anciens diplômés devenus porteurs de projets. 

Elles participent aussi à des concours d’innovation, comme Créa’Campus, qui permet à des équipes étudiantes de créer un projet (au départ fictif) d’entreprise, ou à des compétitions étudiantes, comme le challenge “Projet d’entreprendre”, organisé par Télécom Lille, pendant lequel s’affrontent des écoles d’ingénieurs. 

“Le frein est trop souvent dans la tête. Les élèves ont besoin de voir que leurs pairs ont réussi”, indique Joël Courtois, le directeur de l’Epita, à l’Etudiant.

Pour mieux former les élèves à l’entrepreneuriat, trois écoles d’ingénieurs sur quatre ont réorganisé leurs cursus. Nombre d’entre elles proposent ainsi des unités d’enseignement (UE) ou des modules dédiés à l’entrepreneuriat, comme le parcours “valorisation de projets” de l’ECE Paris (ex-École centrale d’électronique). 

Pour “former” les élèves à l’entrepreneuriat, des écoles privilégient “l’apprentissage par l’action”, à travers le travail sur des projets (création de start-up, plan de développement d’un produit ou d’une activité nouvelle). Certaines vont plus loin, en permettant aux élèves de concevoir des projets pouvant être portés tout au long de la scolarité – avec un parcours aménagé permettant, par exemple, d’effectuer son stage dans sa propre structure.

En 2014, l’Institut National Polytechnique (INP) de Toulouse a créé le statut “étudiant-entrepreneur”, destiné aux étudiants voulant développer leur projet de création d’entreprise. Les élèves sélectionnés suivent leurs études classiques, tout en avançant sur leur projet d’entreprise. Leur emploi du temps est aménagé, et ils peuvent bénéficier d’un an supplémentaire pour effectuer leur cursus et pour obtenir leur diplôme.

Une poignée d’écoles (10%) propose aussi des filières entièrement consacrées à ce domaine. C’est par exemple le cas de l’École polytechnique, qui en plus d’avoir créé un Master d’innovation et de recherche, a mis en place trois formations en entrepreneuriat, attirant 130 étudiants. Ces formations conjuguent des cours théoriques, des stages en entreprises et la poursuite d’un projet de start-up.

A titre d’exemple, dans le cadre du Master Innovation & Entrepreneuriat, des élèves de l’X ont créé la start-up FeetMe, dédiée à la fabrication d’un nouveau type de semelles visant à prévenir les ulcères du pied pour les diabétiques de type 2.

La vague des incubateurs

Une fois que les projets ont germé dans l’esprit des élèves ingénieurs, au delà de la formation, l’objectif des écoles reste de les accompagner dans la création de leurs start-ups. Dans le cas de l’École polytechnique, un incubateur, “X-entrepreneuriat”, a par exemple été créé pour accompagner les jeunes inventeurs et entrepreneurs. Ce lieu, qui met aussi un “Fab Lab” à disposition des élèves, est partenaire de l’incubateur ParisTech Entrepreneurs, qui structure et accompagne “les projets numériques innovants en France”.

Nombre d’écoles suivent ce modèle, comme Centrale Paris ou l’Ensam (Ecole nationale supérieure des arts et métiers), qui ont mis en place des incubateurs mettant à la disposition des jeunes entrepreneurs, les locaux et le matériel de l’école, ainsi qu’un réseau d’experts. “La présence d’un incubateur leur montre que nous pouvons les accompagner tout au long de leur démarche », explique Laurent Champaney, directeur général adjoint de la formation, au quotidien Le Monde.

Le soutien de l’école peut aussi être financier. Ainsi, l’École polytechnique propose-t-elle un programme d’accompagnement au développement de start-up, après le Master Innovation & Entrepreneuriat. Géré par des “anciens” élèves de l’école installés aux Etats-Unis, le programme Silicon Valley Fellowship comprend une bourse de 20 000 dollars par participants, 6 mois de “coaching” et la possibilité d’effectuer des stages dans des start-ups de la Silicon Valley.

Par Fabien Soyez

Dans quels pays peut-il être intéressant de s’expatrier ?

Les raisons d’un départ sont plus que la recherche d’un meilleur salaire – variable selon le secteur – et de plus grandes responsabilités, ce sont aussi la découverte d’un pays offrant un cadre de vie différent et la quête de nouvelles expériences de vie.

Cela concerne en grande partie les jeunes ingénieurs comme le montrent les statistiques : 15% des jeunes ingénieurs trouvent leur premier emploi à l’étranger. L’envie de rejoindre ces pays, pour certains considérés comme des eldorados, vient du fait que ces lieux au développement dynamique représentent des tremplins pouvant servir d’accélérateur dans leur carrière. Qui plus est, cette initiative est perçue positivement par les entreprises à leur retour qui saluent la prise de risque. Voici quelques destinations choisies par nos ingénieurs :

Les Pays en forte croissance

La Chine

Commençons par un acteur inévitable, que l’on ne peut évidemment pas ne pas mentionner : la Chine. Aujourd’hui, le pourcentage d’ingénieurs résidant en Asie est à égalité avec celui États-Unis. Preuve de son attrait. Cependant les modes de recrutement sont en train de changer. Si par le passé, être français était un pass valable à l’embauche, il ne l’est plus tout à fait. L’expérience rentre davantage en compte qu’auparavant et le visa de travail est délivré moins facilement. Parler le Mandarin est sans conteste un atout de poids. À noter que les entreprises chinoises ont tendance à s’installer de plus en plus en marge des métropoles.

Brésil

Des mots-clés tels que soleil, croissance, coupe du monde reviennent lorsque l’on songe au Brésil. En 2011, on a même dit de lui qu’il était une terre d’avenir pour les ingénieurs. Et de fait, le Brésil brigue les profils tels que les ingénieurs pétro-chimique, les ingénieurs automobiles, les ingénieurs BTP et tous les profils issus de secteurs de pointe.

Cependant des facteurs comme le manque de parité entre les salaires, la hausse importante du prix des loyers, un système bureaucratique laborieux, la pollution grimpante ainsi qu’une acclimatation difficile pouvant demander entre 6 à 12 mois peuvent en décourager certains.

Les pays européens

L’Allemagne

L’Allemagne fait partie de ces destinations courues par les ingénieurs français. La population vieillissante et le manque de main-d’oeuvre qualifiée font que les entreprises allemandes se tournent vers l’étranger et recrutent de plus en plus de jeunes diplômés dans les secteurs de la chimie et des sciences. Mais si elles embauchent, elles sont aussi exigeantes. Elles recherchent des ingénieurs expérimentés, maîtrisant entre autres l’anglais et l’allemand ou les techniques de communication. En revanche, le salaire est plus élevé et les heures supplémentaires rémunérées. La vie y est – dit-on – très plaisante et confortable. 

La Suisse

Le besoin en ingénieurs dans les secteurs industriels (notamment pharmaceutique), des biotechnologies, de la chimie ou encore de l’agroalimentaire en ont fait venir plus d’un. Ils auraient tort de s’en priver, surtout que les jeunes ingénieurs français – au même titre que les ingénieurs allemands – sont plutôt appréciés. Le système éducatif français étant très bien considéré. Attention toutefois, il y a tout de même une sélection et parler plusieurs langues et faire preuve de pugnacité seront toujours des atouts.

L’autre argument de taille, celui qui entraîne ces ingénieurs en Suisse, est sans conteste le salaire, bien plus élevé qu’en France. Le coût de la vie et surtout des loyers est certes plus élevé lui aussi, mais malgré cela, vivre et travailler en Suisse lorsque l’on est un ingénieur qualifié reste très lucratif.

La Belgique

Ce pays proche de la France dispose de plusieurs avantages (qui ne sont évidemment pas la bière et les frites). Les ingénieurs sont une denrée rare et précieuse, la qualité de vie y est fort agréable et les salaires sont plus élevés. Toutefois, les différences culturelles entre les deux pays peuvent frapper la sensibilité de certains salariés, notamment au niveau des remarques données sans prendre de gants. 

Les pays anglo-saxons 

L’Angleterre

De l’autre côté de la Manche, nos voisins anglais exercent eux aussi un fort pouvoir d’attraction sur nos ingénieurs. Le mode de vie, une culture de la gagne et une grande place laissée à l’initiative semblent être des motifs appréciés par certains profils. Pour gagner ses galons, il faut avoir les crocs. Mais si tel est le cas, l’ascension est rapide et proportionnelle au travail abattu.

Canada

Il s’agit clairement d’un eldorado, lieu des possibles, dans la tête des français. Nombreux sont ceux qui tentent leur chance au Québec chaque année. Mais pourquoi cet engouement ? Le climat est extrêmement fluctuant selon les saisons. Les hivers sont réputés très rigoureux. Pourtant il y a un cadre de vie que l’on retrouve nulle part ailleurs et qui semble sourire aux audacieux. Il n’est pas impossible de trouver un travail juste après sa rencontre avec un recruteur. Et les habitants sont détendus.

Cela dit, tout n’est pas rose. L’obtention d’un visa n’est pas si simple. Pour le programme vacances travail (PVT) par exemple, considéré comme le plus facile à décrocher, il faut se lever tôt. Son nombre étant limité, il peut s’envoler en une semaine. Une autre solution, pas moins évidente, consiste à trouver en amont un employeur pour obtenir un visa temporaire de deux ans. Et ne parlons pas des démarches pour la résidence permanente, elles sont encore plus fastidieuses.

Les États-Unis

Autre incontournable de ces destinations privilégiées par nos ingénieurs, les États-Unis demeurent un fabuleux terrain riche en opportunités. Pas sûr que la reconnaissance récente du diplôme français d’ingénieur au grade de « master of science » – équivalent d’un bac +5 – y soit pour quelque chose puisque cet état de fait existait bien avant. 

Les expatriés français sont de plus en plus nombreux là-bas. Ils s’installent dans les grands centres urbains. La Silicon Valey, Los Angeles et Boston, pour ne citer qu’eux, font figure de piliers. Boston est à l’affût de profils orientés high-tech et santé. La Californie recrute toujours en cherchant la crème des ingénieurs de la planète. 

C’est pour cette raison, bien que le visa de travail soit relativement difficile à obtenir, qu’abondent ces ingénieurs souhaitant rejoindre les start-ups de la Silicon Valley ou les grands groupes que sont Google, Amazon, la Nasa, car ils se savent au coeur d’un vivier favorable à la création et aux opportunités. Les français sauraient se dépêtrer de conditions d’embauches rebutantes (jusqu’à une douzaine d’entretiens), montrer leur motivation et témoigner d’un savoir-faire réel.

Par Sébastien Tribot

La France aime-t-elle encore les ingénieurs ?

Si l’on en croit la 25e enquête de l’Observatoire des ingénieurs et scientifiques de France (IESF), la France ne boude pas les ingénieurs, bien au contraire. Moins de 4% d’entre eux seraient au chômage alors que la quantité d’ingénieurs sortant des écoles croît. En tout, ce sont 33 000 jeunes diplômés qui ont été recrutés en 2013 tandis qu’une faible partie poursuit ses études et qu’une autre est en recherche. Non, leur sort est plutôt enviable. Le salaire moyen annuel de 55 200 euros d’un ingénieur est 2,5 fois supérieur à celui de ses compatriotes. Il a même un peu augmenté. Et un bon nombre occupent des postes à responsabilités. D’après l’enquête, 82% s’estiment d’ailleurs satisfait de leur travail. Ce qui, plus que la rémunération, prime plus que tout. Seule ombre au tableau, l’inégalité des salaires entre hommes et femmes a tendance à s’intensifier avec l’âge. Alors qu’au début de carrière, l’écart n’est que de 6%, il passe par la suite à 20% autour de 60-64 ans. Cela est d’autant plus regrettable que la part d’ingénieurs féminins est en hausse.

Qu’en est-il de l’insertion des jeunes diplômés ? Environ 15% d’entre eux, six mois après leur sortie du système scolaire, n’auraient pas de travail. Le pourcentage est faible mais cela signifie qu’à un moment donné, l’employeur et le jeune diplômé ne se sont pas trouvés. Différents facteurs peuvent l’expliquer comme le décalage entre la réalité du marché et l’ambition d’un jeune qui ne sont pas toujours compatibles dans un premier temps, l’importance aussi d’avoir choisi une école de qualité ou encore d’avoir effectué un bon stage. Il y a beaucoup de paramètres à prendre en compte.

La France a besoin d’ingénieurs. Preuve en est avec trois secteurs qui sont en demande. « Les sociétés de services et logiciels informatiques sont devenues les premiers recruteurs d’ingénieurs en France », indiquait dans son enquête Gérard Duwat, président de l’Observatoire des ingénieurs et scientifiques de France. Le secteur du numérique recherche. Malgré cela, pas assez d’ingénieurs en informatique sont formés.

Les entreprises de l’industrie des transports recrutent beaucoup elles aussi, notamment le Groupement des industries françaises aéronautiques et spatiales (GIFAS), le constructeur automobile Renault ou encore le constructeur aéronautique Airbus. 

Enfin, le troisième secteur est celui de l’ingénierie. Les sociétés d’ingénierie comptabilisent 47 000 ingénieurs et continuent d’embaucher. En 2014, les acteurs importants s’appellent Altran, une entreprise de conseil en innovation et ingénierie avancée et Ségula Technologies, groupe international de conseil en innovation et d’ingénierie.

Alors bien sûr, la pénurie d’ingénieurs dans certains pays entraîne une part toujours plus importante des jeunes diplômés (et pas que) à s’expatrier. Cela ne veut pas dire que la France n’aime plus les ingénieurs. Plutôt que leurs profils sont appréciés à l’étranger et que la formation française est reconnue de par le monde.

Or le contexte socio-économique fait qu’il est plus dur de les garder. Comment concurrencer avec des entreprises comme Google par exemple, qui offrent de gros chèques. C’est difficile à gérer. En d’autres termes, la fuite des cerveaux est un phénomène impossible à enrayer. Cela ne s’explique pas par une relation déficit de postes à pourvoir face à un débordement d’ingénieurs. Les jeunes ingénieurs sont enclins à partir vers de nouveaux horizons parce qu’ils savent qu’ils toucheront bien souvent un meilleur salaire, qu’ils auront l’opportunité de décrocher un premier emploi qu’ils n’auraient pas pu trouver en France et que s’ils reviennent, cette expérience leur servira comme un accélérateur de carrière. Et puis c’est aussi et surtout l’appel du large, incontrôlable, l’envie de découvrir un pays avec toutes les facettes culturelles qui vont avec, et le besoin de vivre de nouvelles expériences.

Par Sébastien Tribot

Les grands groupes toujours aussi séduits par les ingénieurs

Avec de nombreux jours de congés, plus de RTT qu’une PME, des salaires attractifs, des perspectives d’évolution en France et à l’international, des projets prestigieux et la sécurité de l’emploi, les grands groupes jouissent d’une excellente attractivité et trustent chaque année les premières places du classement des sociétés les plus convoitées par les étudiants. Elles pourraient donc en rester là et profiter de leur réputation pour appâter les ingénieurs. Au contraire ! Très friandes de ces profils, ces grands groupes n’hésitent pas à développer des partenariats et des plans marketing très efficaces.

Le premier endroit où trouver un ingénieur, c’est encore dans une école d’ingénieur. Mieux, en s’associant aux formateurs, les grands groupes peuvent commencer à façonner l’étudiant à la culture du groupe tout en ayant la garantie qu’il possède les connaissances théoriques et techniques dont il aura besoin s’il est recruté. C’est pourquoi beaucoup de grands groupes proposent des stages, l’idéal pour parfaire l’apprentissage et tester le futur ingénieur en situation réelle. Dans cet esprit, Vinci Park est partenaire de l’Ecole des ingénieurs de la Ville de Paris et encadre des étudiants sur des projets de 6 mois menés sous le tutorat d’un employé du groupe.

Huawei, géant chinois des télécoms, a mis sur pied un programme baptisé Talents numériques. Il s’agit de faire venir sur son campus chinois des étudiants étrangers. Initialement lancé en 2011 au Royaume-Uni et en France, ce programme concerne désormais les étudiants du monde entier. C’est donc dans ce cadre que 15 français, sélectionnés suite à un concours,  ont pu découvrir au mois d’aout dernier la culture chinoise et les équipements derniers cris en termes de réseaux optique, 4G…

Grâce aux stages, au tutorat, en s’investissant dès l’enseignement prodigué dans les écoles ou encore grâce à des programmes découvertes, les grands groupes s’assurent l’embauche de forces humaines qui s’intégreront parfaitement en son sein, et qui sauront par leurs aptitudes techniques, managériales et stratégiques leur apporter une réelle valeur ajoutée.

Par Audrey Loubens, journaliste scientifique

Les ingénieurs restent épargnés par la crise, mais jusqu’à quand ?

François Hollande a été très clair. Si les résultats concernant le chômage ne sont pas satisfaisants, l’actuel locataire de l’Elysée ne se représentera pas aux élections présidentielles. Alors que le chômage ne cesse de progresser, atteignant le taux historique de 10,5%, un secteur résiste encore et toujours à la crise, que pourra toujours mettre en avant le président de la République. Il s’agit de l’ingénierie. Avec un taux de chômage inférieur à 4%, les ingénieurs sont bien loin de la dure réalité de nombreuses autres professions. En effet, avec leur diplôme en poche, les ingénieurs sont quasiment assurés de trouver un emploi. D’après l’enquête de l’Association pour l’emploi des cadres (APEC) menée auprès de 4500 ingénieurs, en 2013 63% d’entre eux avaient un travail, soit autant qu’en 2012. De façon générale, en 2014, le taux d’emploi est de 69%, une situation confortable mais qui subit un léger recul de 1%. De plus, l’étude pointe du doigt une différence entre les ingénieurs issues d’une école classique de ceux ayant suivi le cursus d’une école rattachée à une université. Ainsi, les premiers présentent un taux d’emploi de 73%, taux qui tombe à 62% pour les autres.

L’année dernière, l’Observatoire des ingénieurs a publié les résultats d’une vaste étude portant sur 50 000 ingénieurs. On y apprend que non seulement les ingénieurs sont épargnés par le chômage, mais en plus leur salaire est correct. Ainsi, le salaire annuel médian brut est en progression à 55,2k€. Pour les moins de 30 ans ce salaire médian est de 38k€ contre 90k€ chez les plus de 50 ans. Les mieux lotis sont les ingénieurs travaillant dans le secteur des industries extractives avec un salaire médian de 90k€, tandis que celui des ingénieurs évoluant dans l’enseignement est de « seulement » 42,7k€. Des chiffres bien supérieurs au salaire net médian des français de 1730€ mensuels. En moyenne, les ingénieurs touchent un salaire brut de 66,3k€.

Autre atout du diplôme d’ingénieur, le premier job décroché leur procure dans 84% des cas un statut cadre. Enfin, pour 78% des ingénieurs issus d’une école classique (73% pour ceux ayant étudié dans une école rattachée à une université), le contrat signé est un CDI, le saint graal des contrats de travail. Ce qui est bien supérieur aux 59% de CDI signés par les Bac +5.

On comprend que bien que jeune diplômé, l’ingénieur n’abaisse pas beaucoup ses prétentions salariales. Ainsi, en 2014, le jeune ingénieur espère un salaire brut annuel de 34,4k€, ce qui est supérieur de 2k€ par rapport à 2013. Toutefois, ces exigences restent inférieurs à celles des années 2011 et 2012 avec respectivement 36,1k€ et 35,1 k€.

Les titulaires d’un diplôme d’ingénieur sont donc dans une position plutôt confortable face à l‘emploi, notamment en comparaison des autres catégories professionnelles.  Mais attention, cette situation privilégiée est fragile. La dernière enquête conduire par la Conférence des Grandes Ecole alerte sur la baisse du taux d’insertion des nouveaux diplômés. Ce taux passe de 65,4% en 2012 à 62,4% en 2013. Une tendance confirmée par le nombre d’anciens élèves en recherche d’emploi qui grimpe de 13,3% en 2013 à 15,9% en 2014.

En 2015, suivre une formation d’ingénieur reste un excellent investissement professionnel.

Par Audrey Loubens, journaliste scientifique

Les surfaces OGM mondiales en hausse de 6 millions d’ha en 2014

« Avec l’arrivée du Bangladesh, un total de 28 pays ont cultivé des OGM au cours de l’année 2014 », dont « 20 pays en développement (en comptant le Brésil et l’Argentine) et six pays industrialisés, représentant plus de 60% de la population mondiale » affirme l’Isaaaa (International service for the acquisition of agri-biotech applications).

« Le nombre total d’hectares (OGM) a été multiplié par plus de cent depuis les premières plantations d’OGM » en 1996 relève l’auteur du rapport et fondateur de l’Isaaa, Clive James, cité sur le site de l’association .

Les Etats-Unis restent largement en tête avec 73,1 millions d’ha dédiés aux OGM, en hausse de 4% sur l’année, devançant le Brésil qui comptait 42,2 millions d’ha (+5%) et l’Argentine, 3e avec 24,3 millions d’ha.

Aux Etats-Unis comme au Brésil, c’est le soja qui a justifié ce développement. Avec l’Argentine et le Canada, ils représentent près de 84% des surfaces plantés en OGM dans le monde.

En Asie, l’Inde a connu la plus forte croissance et compte désormais 11,6 millions d’ha (autant que le Canada); en revanche l’Union européenne reste à l’écart avec moins de 0,1% de ses surfaces agricoles utiles.

Depuis 1996, plus d’une dizaine de cultures génétiquement modifiées, alimentaires et fibres, ont été approuvées et commercialisées dans le monde – maïs, soja ou coton, et fruits ou légumes comme la papaye, l’aubergine ou la pomme de terre.

Les partisans des OGM font valoir leurs qualités de résistance à la sécheresse, aux insectes et aux maladies.

Le rapport complet est disponible en ligne sur le site www.isaaa.org.

Pour le site Inf’OGM, hostile aux cultures génétiquement modifiées, « le nombre des pays qui cultivent des OGM stagne (29 pays en 2010 contre 28 en 2014) » indique-t-il.

« La Suède, la Pologne, l’Allemagne et l’Égypte ont quitté le navire ; tandis que Cuba, le Soudan et le Bangladesh l’ont rejoint » poursuit-il en notant que « 120 agriculteurs bangladais ont cultivé 12 hectares avec une aubergine GM bt (génétiquement modifiée, NDLR) soit 0,1 ha par agriculteur ».

« L’aubergine Bt est d’ailleurs la seule nouvelle espèce qui a passé le stade de la culture en 2014 : soja, maïs, coton et colza restant très largement majoritaires », note Inf’Ogm pour qui « l’analyse de ce rapport prouve que l’engouement pour les OGM ne redémarre pas. Si les maïs et soja transgéniques ont été adoptés rapidement sur le continent américain, les autres plantes stagnent et les autres continents restent globalement prudents, pour ne pas dire hostiles, à cette technologie ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »