Le groupe OK Go a encodé sa musique dans des brins d’ADN

Ce sera donc un album collector. Le dernier opus du groupe OK Go sort sous forme de brins d’ADN et ne pourra pas être écouté sans un arsenal technologique digne des plus grands laboratoires de recherche. Peu importe, il s’agit d’une démarche artistique. Pour fabriquer ce tout nouveau produit musical, les scientifiques ont converti le code binaire d’origine en séquence ADN composée des 4 éléments de base que sont les nucléotides adénine, cytosine, thymine et guanine. Une fois les brins d’ADN réordonnés, l’album est prêt.

Il sera vendu sous la forme d’une petite fiole contenant elle-même environ 100 000 exemplaires de l’album. 

Le groupe est un habitué des performances mêlant musique et nouvelles technologies. En 2011 le quatuor s’était associé à Google pour tourner un clip faisant la promotion du html 5.

Les Ok Go ne sont pas les premiers à utiliser de l’ADN pour stocker de la musique. Il ya  deux ans déjà paraissaient dans Nature les travaux des chercheurs de LEBM-Institut européen de bio-informatique.

Ceux-ci avaient réussi à stocker dans de l’ADN de l’information sonore et textuelle : 26 secondes du discours de Martin Luther King et 154 sonnets de Shakespeare.

Le codage de l’information repose sur le même principe de transcrire le code binaire en système à base de 4 briques unitaires. Pour cela, les scientifiques sont passés par une étape intermédiaire de codage ternaire avec des 0, des 1 et des 2. Surtout, ils ont envoyés l’ADN des USA à des scientifiques allemands qui ont réussit à lire l’information sans aucune erreur. 

Un premier succès qui a ouvert la voie de l’ADN comme système de stockage. L’avantage étant que l’ADN se conserve des milliers d’années contre seulement quelques centaines au mieux pour des supports comme le CD, le DVD ou une clé USB.

En attendant, si vous voulez écouter Hungry Ghost, des OK Go,  il va falloir investir dans un séquenceur ADN. 

Par Audrey Loubens

La composition exacte de l’orichalque, un alliage antique, enfin connu !

Ils étaient enfouis au cœur d’une épave échouée à 300 mètres de profondeur au large de la Sicile. Les 39 lingots rapportés par des archéologues ne sont pas d’or, mais pourrait bien faire la bonne fortune de leurs découvreurs.

Car ces lingots sont composés d’un alliage encore jamais trouvé, un mélange de cuivre et de zinc. De l’orichalque ? Ce métal précieux, presque autant que l’or, est mentionné dans plusieurs  textes antiques, notamment par Platon. Les descriptions évoquent un métal brillant, doré, ayant servi à bâtir l’enceinte de l’acropole de l’Atlandide, l’île légendaire. L’orichalque était extrait exclusivement des mines de l’île des Atlantes.

Mais lors de sa disparation, l’île aurait engloutie avec elle tout l’orichalque existant sur Terre. Impossible donc d’avoir un échantillon de ce métal, à moins de retrouver l’Atlantide…

Dès lors, la communauté scientifique ne peut que s’appuyer sur les descriptions existantes dans les textes anciens. Ces derniers permettent de s’accorder sur le fait que l’orichalque serait un alliage possédant l’apparence du laiton fabriqué à partir de zinc, de charbon et de cuivre.

Les lingots découverts à bord du navire vieux de 2600 ans ont été analysé. Leur composition est de 75 % de cuivre, environ 15% de zinc, avec des traces de nickel, de plomb et de fer. Ces mesures correspondent aux descriptions de l’orichalque, d’où l’euphorie des scientifiques persuadés d’avoir mis la main sur ce métal précieux à la composition jusqu’ici inconnue avec précision.

Toutefois, en l’absence de la formule précise de l’orichalque décrit dans les textes antiques, même si de nombreux éléments concordent avec ce que l’on en sait, impossible de conclure avec certitude que les lingots sont bien de l’orichalque. 

Le navire provenait sans doute de Grèce à destination du port de Gela au sud de la Sicile. Les archéologues à l’origine de cette découverte vont désormais extraire de l’épave l’intégralité de sa cargaison.

Par Audrey Loubens

Portrait-robot de l’ingénieur en 2030

Les réalités sociales, économiques et environnementales de notre société évoluent. Pour y faire face, les ingénieurs de demain devront s’armer de nouvelles compétences. Il s’agira notamment de répondre à la mutation technologique due au numérique, à la transition énergétique et à la santé connective. L’ingénieur retrouvera alors sa place centrale dans la société, place ombragée pendant un temps par le « business man ».

L’institut Mines-Télécom identifie 5 territoires de compétences transverses prioritaires. Au coeur, on retrouve l’expertise qui fait la force de l’ingénieur. Mais cet expert devra aussi cultiver son influence, son agilité, sa responsabilité et son ingéniosité. Car l’ingénieur de demain n’est pas un savant isolé.

En plus de nouvelles compétences techniques de pointe, l’ingénieur devra convaindre, oser, être réactif, pluridisciplinaire, adaptable au travail collaboratif avec des experts de plusieurs domaines et agile pour créer des inventions de rupture. Plus qu’un simple ingénieur, il devra aussi être entrepreneur. « L’ingénieur entrepreneur n’est plus l’homme de laboratoire qui a fait la découverte magique et déposé un brevet, mais celui qui est capable de transférer à son client tout le pouvoir que peut donner l’avance technologique, celui qui a « l’empathie » client », note le rapport d’étude « Portrait de l’ingénieur en 2030 ».

« Il ne faut pas que de la maîtrise technique, il faudra surtout une grande ouverture d’esprit sur des nouveaux sujets (environnement, biodiversité, éco-mobilité, sécurité…) », note Sylvia Godret, Directrice de Vincy Academy. Responsable, l’ingénieur saura s’affranchir de la dictature du court terme pour penser avec sérénité et justesse le long terme.

Un ingénieur plein de ressources et influent

L’ingénieur devra être influent pour sécuriser ses ressources. « A l’heure du crowdfunding, du crowdsourcing et autres démarches collaboratives bottom-up générées par l’horizontalisation de la société, l’influence est plus puissante que l’autorité. C’est pourquoi, améliorer sa capacité à faire venir à soi les ressources sera plus efficace que demander de l’autorité pour les garder », estime le rapport.

Face à cette horizontalisation de la société, la hiérarchie est bousculée. L’ingénieur de demain devra s’entourer d’un important réseau de professionnels. « Chez Google, on ne construit pas son réseau avec les collègues de son département, mais avec ceux avec qui on a échangé pour résoudre son problème, et qui peuvent se trouver n’iimporte où, et à n’importe quel niveau hiérarchique », confie Léo Sei, ingénieur Solutions Client chez Google.

L’influence et l’horizontalisation, c’est aussi savoir redistribuer son pouvoir à son réseau relationnel. « C’est savoir utiliser les talents des autres, en dépit des différences de culture, de discipline, de niveau de compétence », précise le rapport.

L’évolution du secteur du design en pionnier

S’il est un secteur qui a su se réinventer ces dernières années, c’est bien celui du design. Ayant déjà pris le virage du numérique, le métier d’ingénieur designer a considérablement évolué. « L’immersion préalable dans les usages fait partie de l’hygiène mentale de l’ingénieur designer », reporte l’étude. Demain, tout ingénieur de recherche devra savoir se mettre à la place de l’usager final pour développer des produits innovants qui se vendent.

L’ingénieur de 2030 sera donc un expert de très haut niveau. La réalité augmentée pourrait l’aider dans sa tâche. « L’ingénieur « augmenté » est à inventer », estiment les experts.

  • En 2030 : cinq domaines de compétences seront incontournables à tout ingénieur, figure tirée du rapport « Portrait de l’ingénieur 2030 »

  • Présentation des compétences de l’ingénieur de demain en vidéo

  • Aller plus loin

Télécharger le document « Portrait de l’ingénieur 2030 », réalisé par le cabinet Sociovision pour l’Observatoire des métiers de l’Institut Mines-Télécom. Il s’appuie sur l’Observatoire historique de Sociovision, une analyse documentaire internationale et des interview d’experts du secteur.

Par Matthieu Combe, journaliste scientifique

Energie et big-data, une double-compétence recherchée

« Dans le domaine de l’énergie, le choc numérique va être plus qu’une révolution », insiste André Joffre, Président de Qualit’EnR. Les systèmes de production centralisés vont en partie être remplacés par des productions renouvelables décentralisées sur l’ensemble du territoire, les offres d’effacement ou d’aggrégation de flexibilité vont se multiplier, les petits producteurs pourront autoconsommer ou vendre leur électricité. Les conclusions du groupe de travail sur l’auto-consommation seront publiées d’ailleurs rendues publiques avant la fin du mois. La ministre précisera alors les 5 chantiers de mise en œuvre pour développer l’auto-consomation de l’électricité par les petits producteurs, plutôt que sa vente obligatoire à EDF. Dès lors, il faudra développer des infrastructures numériques solides et trouver des ingénieurs en mégadonnées qui comprendront ces nouveaux systèmes énergétiques.

Lorsque le Big data s’associe à l’énergie

Les ingénieurs en informatique sont devenus les professionnels les plus recherchés par les entreprises françaises en 2014. Le Saint-Graal recherché : l’ingénieur en big-data, ce professionnel qui transformera vos mégadonnées en or. Si le Big data se développe notamment dans les secteurs financiers, la vente, les services de santé, les télécom et le secteur public, mais il a aussi un avenir luisant dans le secteur de l’énergie. Car en parallèle du déploiement du compteur communicant Linky pour l’électricité et Gazpar pour le gaz, le réseau électrique intelligent (aussi appelé « smart grid ») se met en place. Ce réseau moderne, pierre angulaire de la transition énergétique,  permettra de suivre et de piloter en temps réel la production, la consommation, et le stockage de l’électricité. Linky va notamment permettre de collecter un flux colossal de données sur les consommations d’énergie.

En contrepartie, les usagers pourront s’abonner à de nouveaux services : effacement lors des pics de consommation sur le réseau (interruption du chauffage électrique pendant quelques minutes, par exemple), développement d’heures creuses solairesquand les panneaux photovoltaïques de la région produisent à plein régime, etc. Les géants de l’énergie cherchent de nouvelles offres basées sur l’exploitation de ces données. Etre ingénieur en big data avec une spécialisation en énergie fera donc de vous la perle rare. Plus généralement, le secteur de l’énergie recrute. EDF, GDF Suez, Total, Areva et les sociétés d’ingénierie et de conseil prévoient de recruter plusieurs milliers d’ingénieurs dans les prochaines années.

Par Matthieu Combe, journaliste scientifique

Les écoles d’ingénieurs en mutation

Alors que la concurrence internationale n’a jamais été aussi rude, les écoles d’ingénieurs françaises tentent de rester attractives. Leur nouvel objectif est de favoriser la création d’entreprises et de transmettre l’envie d’innover à leurs élèves. Ainsi, elles sensibilisent ou forment de plus en plus leurs élèves à l’entrepreneuriat, et les accompagnent dans leurs projets. Même si 1,4% des ingénieurs diplômés se lancent dans l’entrepreneuriat (selon le palmarès de l’Etudiant), ils sont de plus en plus nombreux.

C’est par exemple le cas de cet étudiant de l’Isat (Institut supérieur de l’automobile et des transports). A tout juste 20 ans, il a inventé un système innovant de simulation automobile. Pour protéger son idée, son école lui a mis à disposition un local chez Welience, son centre d’activités de recherche technologique et de développement. Selon le directeur de l’Isat, interviewé par Le Journal du Centre, “l’école est une usine à entrepreneurs… Mais peu d’ingénieurs créent des entreprises en France. Les bonnes idées sont rares. Notre mission est aussi d’offrir à l’idée la capacité d’émerger.”

Des cursus réorganisés

Alors que la formation en alternance, qui commençait à peine à se développer dans les écoles d’ingénieurs, est menacée par la réforme de la taxe d’apprentissage, l’idée est donc désormais de pousser les élèves à créer eux-mêmes leurs entreprises. 

Comment inspirer, dès le départ, les aspirants ingénieurs ? En les sensibilisant. La plupart des écoles d’ingénieurs organisent, souvent en début de cursus, des conférences et des rencontres avec d’anciens diplômés devenus porteurs de projets. 

Elles participent aussi à des concours d’innovation, comme Créa’Campus, qui permet à des équipes étudiantes de créer un projet (au départ fictif) d’entreprise, ou à des compétitions étudiantes, comme le challenge “Projet d’entreprendre”, organisé par Télécom Lille, pendant lequel s’affrontent des écoles d’ingénieurs. 

“Le frein est trop souvent dans la tête. Les élèves ont besoin de voir que leurs pairs ont réussi”, indique Joël Courtois, le directeur de l’Epita, à l’Etudiant.

Pour mieux former les élèves à l’entrepreneuriat, trois écoles d’ingénieurs sur quatre ont réorganisé leurs cursus. Nombre d’entre elles proposent ainsi des unités d’enseignement (UE) ou des modules dédiés à l’entrepreneuriat, comme le parcours “valorisation de projets” de l’ECE Paris (ex-École centrale d’électronique). 

Pour “former” les élèves à l’entrepreneuriat, des écoles privilégient “l’apprentissage par l’action”, à travers le travail sur des projets (création de start-up, plan de développement d’un produit ou d’une activité nouvelle). Certaines vont plus loin, en permettant aux élèves de concevoir des projets pouvant être portés tout au long de la scolarité – avec un parcours aménagé permettant, par exemple, d’effectuer son stage dans sa propre structure.

En 2014, l’Institut National Polytechnique (INP) de Toulouse a créé le statut “étudiant-entrepreneur”, destiné aux étudiants voulant développer leur projet de création d’entreprise. Les élèves sélectionnés suivent leurs études classiques, tout en avançant sur leur projet d’entreprise. Leur emploi du temps est aménagé, et ils peuvent bénéficier d’un an supplémentaire pour effectuer leur cursus et pour obtenir leur diplôme.

Une poignée d’écoles (10%) propose aussi des filières entièrement consacrées à ce domaine. C’est par exemple le cas de l’École polytechnique, qui en plus d’avoir créé un Master d’innovation et de recherche, a mis en place trois formations en entrepreneuriat, attirant 130 étudiants. Ces formations conjuguent des cours théoriques, des stages en entreprises et la poursuite d’un projet de start-up.

A titre d’exemple, dans le cadre du Master Innovation & Entrepreneuriat, des élèves de l’X ont créé la start-up FeetMe, dédiée à la fabrication d’un nouveau type de semelles visant à prévenir les ulcères du pied pour les diabétiques de type 2.

La vague des incubateurs

Une fois que les projets ont germé dans l’esprit des élèves ingénieurs, au delà de la formation, l’objectif des écoles reste de les accompagner dans la création de leurs start-ups. Dans le cas de l’École polytechnique, un incubateur, “X-entrepreneuriat”, a par exemple été créé pour accompagner les jeunes inventeurs et entrepreneurs. Ce lieu, qui met aussi un “Fab Lab” à disposition des élèves, est partenaire de l’incubateur ParisTech Entrepreneurs, qui structure et accompagne “les projets numériques innovants en France”.

Nombre d’écoles suivent ce modèle, comme Centrale Paris ou l’Ensam (Ecole nationale supérieure des arts et métiers), qui ont mis en place des incubateurs mettant à la disposition des jeunes entrepreneurs, les locaux et le matériel de l’école, ainsi qu’un réseau d’experts. “La présence d’un incubateur leur montre que nous pouvons les accompagner tout au long de leur démarche », explique Laurent Champaney, directeur général adjoint de la formation, au quotidien Le Monde.

Le soutien de l’école peut aussi être financier. Ainsi, l’École polytechnique propose-t-elle un programme d’accompagnement au développement de start-up, après le Master Innovation & Entrepreneuriat. Géré par des “anciens” élèves de l’école installés aux Etats-Unis, le programme Silicon Valley Fellowship comprend une bourse de 20 000 dollars par participants, 6 mois de “coaching” et la possibilité d’effectuer des stages dans des start-ups de la Silicon Valley.

Par Fabien Soyez

Dans quels pays peut-il être intéressant de s’expatrier ?

Les raisons d’un départ sont plus que la recherche d’un meilleur salaire – variable selon le secteur – et de plus grandes responsabilités, ce sont aussi la découverte d’un pays offrant un cadre de vie différent et la quête de nouvelles expériences de vie.

Cela concerne en grande partie les jeunes ingénieurs comme le montrent les statistiques : 15% des jeunes ingénieurs trouvent leur premier emploi à l’étranger. L’envie de rejoindre ces pays, pour certains considérés comme des eldorados, vient du fait que ces lieux au développement dynamique représentent des tremplins pouvant servir d’accélérateur dans leur carrière. Qui plus est, cette initiative est perçue positivement par les entreprises à leur retour qui saluent la prise de risque. Voici quelques destinations choisies par nos ingénieurs :

Les Pays en forte croissance

La Chine

Commençons par un acteur inévitable, que l’on ne peut évidemment pas ne pas mentionner : la Chine. Aujourd’hui, le pourcentage d’ingénieurs résidant en Asie est à égalité avec celui États-Unis. Preuve de son attrait. Cependant les modes de recrutement sont en train de changer. Si par le passé, être français était un pass valable à l’embauche, il ne l’est plus tout à fait. L’expérience rentre davantage en compte qu’auparavant et le visa de travail est délivré moins facilement. Parler le Mandarin est sans conteste un atout de poids. À noter que les entreprises chinoises ont tendance à s’installer de plus en plus en marge des métropoles.

Brésil

Des mots-clés tels que soleil, croissance, coupe du monde reviennent lorsque l’on songe au Brésil. En 2011, on a même dit de lui qu’il était une terre d’avenir pour les ingénieurs. Et de fait, le Brésil brigue les profils tels que les ingénieurs pétro-chimique, les ingénieurs automobiles, les ingénieurs BTP et tous les profils issus de secteurs de pointe.

Cependant des facteurs comme le manque de parité entre les salaires, la hausse importante du prix des loyers, un système bureaucratique laborieux, la pollution grimpante ainsi qu’une acclimatation difficile pouvant demander entre 6 à 12 mois peuvent en décourager certains.

Les pays européens

L’Allemagne

L’Allemagne fait partie de ces destinations courues par les ingénieurs français. La population vieillissante et le manque de main-d’oeuvre qualifiée font que les entreprises allemandes se tournent vers l’étranger et recrutent de plus en plus de jeunes diplômés dans les secteurs de la chimie et des sciences. Mais si elles embauchent, elles sont aussi exigeantes. Elles recherchent des ingénieurs expérimentés, maîtrisant entre autres l’anglais et l’allemand ou les techniques de communication. En revanche, le salaire est plus élevé et les heures supplémentaires rémunérées. La vie y est – dit-on – très plaisante et confortable. 

La Suisse

Le besoin en ingénieurs dans les secteurs industriels (notamment pharmaceutique), des biotechnologies, de la chimie ou encore de l’agroalimentaire en ont fait venir plus d’un. Ils auraient tort de s’en priver, surtout que les jeunes ingénieurs français – au même titre que les ingénieurs allemands – sont plutôt appréciés. Le système éducatif français étant très bien considéré. Attention toutefois, il y a tout de même une sélection et parler plusieurs langues et faire preuve de pugnacité seront toujours des atouts.

L’autre argument de taille, celui qui entraîne ces ingénieurs en Suisse, est sans conteste le salaire, bien plus élevé qu’en France. Le coût de la vie et surtout des loyers est certes plus élevé lui aussi, mais malgré cela, vivre et travailler en Suisse lorsque l’on est un ingénieur qualifié reste très lucratif.

La Belgique

Ce pays proche de la France dispose de plusieurs avantages (qui ne sont évidemment pas la bière et les frites). Les ingénieurs sont une denrée rare et précieuse, la qualité de vie y est fort agréable et les salaires sont plus élevés. Toutefois, les différences culturelles entre les deux pays peuvent frapper la sensibilité de certains salariés, notamment au niveau des remarques données sans prendre de gants. 

Les pays anglo-saxons 

L’Angleterre

De l’autre côté de la Manche, nos voisins anglais exercent eux aussi un fort pouvoir d’attraction sur nos ingénieurs. Le mode de vie, une culture de la gagne et une grande place laissée à l’initiative semblent être des motifs appréciés par certains profils. Pour gagner ses galons, il faut avoir les crocs. Mais si tel est le cas, l’ascension est rapide et proportionnelle au travail abattu.

Canada

Il s’agit clairement d’un eldorado, lieu des possibles, dans la tête des français. Nombreux sont ceux qui tentent leur chance au Québec chaque année. Mais pourquoi cet engouement ? Le climat est extrêmement fluctuant selon les saisons. Les hivers sont réputés très rigoureux. Pourtant il y a un cadre de vie que l’on retrouve nulle part ailleurs et qui semble sourire aux audacieux. Il n’est pas impossible de trouver un travail juste après sa rencontre avec un recruteur. Et les habitants sont détendus.

Cela dit, tout n’est pas rose. L’obtention d’un visa n’est pas si simple. Pour le programme vacances travail (PVT) par exemple, considéré comme le plus facile à décrocher, il faut se lever tôt. Son nombre étant limité, il peut s’envoler en une semaine. Une autre solution, pas moins évidente, consiste à trouver en amont un employeur pour obtenir un visa temporaire de deux ans. Et ne parlons pas des démarches pour la résidence permanente, elles sont encore plus fastidieuses.

Les États-Unis

Autre incontournable de ces destinations privilégiées par nos ingénieurs, les États-Unis demeurent un fabuleux terrain riche en opportunités. Pas sûr que la reconnaissance récente du diplôme français d’ingénieur au grade de « master of science » – équivalent d’un bac +5 – y soit pour quelque chose puisque cet état de fait existait bien avant. 

Les expatriés français sont de plus en plus nombreux là-bas. Ils s’installent dans les grands centres urbains. La Silicon Valey, Los Angeles et Boston, pour ne citer qu’eux, font figure de piliers. Boston est à l’affût de profils orientés high-tech et santé. La Californie recrute toujours en cherchant la crème des ingénieurs de la planète. 

C’est pour cette raison, bien que le visa de travail soit relativement difficile à obtenir, qu’abondent ces ingénieurs souhaitant rejoindre les start-ups de la Silicon Valley ou les grands groupes que sont Google, Amazon, la Nasa, car ils se savent au coeur d’un vivier favorable à la création et aux opportunités. Les français sauraient se dépêtrer de conditions d’embauches rebutantes (jusqu’à une douzaine d’entretiens), montrer leur motivation et témoigner d’un savoir-faire réel.

Par Sébastien Tribot

La France aime-t-elle encore les ingénieurs ?

Si l’on en croit la 25e enquête de l’Observatoire des ingénieurs et scientifiques de France (IESF), la France ne boude pas les ingénieurs, bien au contraire. Moins de 4% d’entre eux seraient au chômage alors que la quantité d’ingénieurs sortant des écoles croît. En tout, ce sont 33 000 jeunes diplômés qui ont été recrutés en 2013 tandis qu’une faible partie poursuit ses études et qu’une autre est en recherche. Non, leur sort est plutôt enviable. Le salaire moyen annuel de 55 200 euros d’un ingénieur est 2,5 fois supérieur à celui de ses compatriotes. Il a même un peu augmenté. Et un bon nombre occupent des postes à responsabilités. D’après l’enquête, 82% s’estiment d’ailleurs satisfait de leur travail. Ce qui, plus que la rémunération, prime plus que tout. Seule ombre au tableau, l’inégalité des salaires entre hommes et femmes a tendance à s’intensifier avec l’âge. Alors qu’au début de carrière, l’écart n’est que de 6%, il passe par la suite à 20% autour de 60-64 ans. Cela est d’autant plus regrettable que la part d’ingénieurs féminins est en hausse.

Qu’en est-il de l’insertion des jeunes diplômés ? Environ 15% d’entre eux, six mois après leur sortie du système scolaire, n’auraient pas de travail. Le pourcentage est faible mais cela signifie qu’à un moment donné, l’employeur et le jeune diplômé ne se sont pas trouvés. Différents facteurs peuvent l’expliquer comme le décalage entre la réalité du marché et l’ambition d’un jeune qui ne sont pas toujours compatibles dans un premier temps, l’importance aussi d’avoir choisi une école de qualité ou encore d’avoir effectué un bon stage. Il y a beaucoup de paramètres à prendre en compte.

La France a besoin d’ingénieurs. Preuve en est avec trois secteurs qui sont en demande. « Les sociétés de services et logiciels informatiques sont devenues les premiers recruteurs d’ingénieurs en France », indiquait dans son enquête Gérard Duwat, président de l’Observatoire des ingénieurs et scientifiques de France. Le secteur du numérique recherche. Malgré cela, pas assez d’ingénieurs en informatique sont formés.

Les entreprises de l’industrie des transports recrutent beaucoup elles aussi, notamment le Groupement des industries françaises aéronautiques et spatiales (GIFAS), le constructeur automobile Renault ou encore le constructeur aéronautique Airbus. 

Enfin, le troisième secteur est celui de l’ingénierie. Les sociétés d’ingénierie comptabilisent 47 000 ingénieurs et continuent d’embaucher. En 2014, les acteurs importants s’appellent Altran, une entreprise de conseil en innovation et ingénierie avancée et Ségula Technologies, groupe international de conseil en innovation et d’ingénierie.

Alors bien sûr, la pénurie d’ingénieurs dans certains pays entraîne une part toujours plus importante des jeunes diplômés (et pas que) à s’expatrier. Cela ne veut pas dire que la France n’aime plus les ingénieurs. Plutôt que leurs profils sont appréciés à l’étranger et que la formation française est reconnue de par le monde.

Or le contexte socio-économique fait qu’il est plus dur de les garder. Comment concurrencer avec des entreprises comme Google par exemple, qui offrent de gros chèques. C’est difficile à gérer. En d’autres termes, la fuite des cerveaux est un phénomène impossible à enrayer. Cela ne s’explique pas par une relation déficit de postes à pourvoir face à un débordement d’ingénieurs. Les jeunes ingénieurs sont enclins à partir vers de nouveaux horizons parce qu’ils savent qu’ils toucheront bien souvent un meilleur salaire, qu’ils auront l’opportunité de décrocher un premier emploi qu’ils n’auraient pas pu trouver en France et que s’ils reviennent, cette expérience leur servira comme un accélérateur de carrière. Et puis c’est aussi et surtout l’appel du large, incontrôlable, l’envie de découvrir un pays avec toutes les facettes culturelles qui vont avec, et le besoin de vivre de nouvelles expériences.

Par Sébastien Tribot

Les grands groupes toujours aussi séduits par les ingénieurs

Avec de nombreux jours de congés, plus de RTT qu’une PME, des salaires attractifs, des perspectives d’évolution en France et à l’international, des projets prestigieux et la sécurité de l’emploi, les grands groupes jouissent d’une excellente attractivité et trustent chaque année les premières places du classement des sociétés les plus convoitées par les étudiants. Elles pourraient donc en rester là et profiter de leur réputation pour appâter les ingénieurs. Au contraire ! Très friandes de ces profils, ces grands groupes n’hésitent pas à développer des partenariats et des plans marketing très efficaces.

Le premier endroit où trouver un ingénieur, c’est encore dans une école d’ingénieur. Mieux, en s’associant aux formateurs, les grands groupes peuvent commencer à façonner l’étudiant à la culture du groupe tout en ayant la garantie qu’il possède les connaissances théoriques et techniques dont il aura besoin s’il est recruté. C’est pourquoi beaucoup de grands groupes proposent des stages, l’idéal pour parfaire l’apprentissage et tester le futur ingénieur en situation réelle. Dans cet esprit, Vinci Park est partenaire de l’Ecole des ingénieurs de la Ville de Paris et encadre des étudiants sur des projets de 6 mois menés sous le tutorat d’un employé du groupe.

Huawei, géant chinois des télécoms, a mis sur pied un programme baptisé Talents numériques. Il s’agit de faire venir sur son campus chinois des étudiants étrangers. Initialement lancé en 2011 au Royaume-Uni et en France, ce programme concerne désormais les étudiants du monde entier. C’est donc dans ce cadre que 15 français, sélectionnés suite à un concours,  ont pu découvrir au mois d’aout dernier la culture chinoise et les équipements derniers cris en termes de réseaux optique, 4G…

Grâce aux stages, au tutorat, en s’investissant dès l’enseignement prodigué dans les écoles ou encore grâce à des programmes découvertes, les grands groupes s’assurent l’embauche de forces humaines qui s’intégreront parfaitement en son sein, et qui sauront par leurs aptitudes techniques, managériales et stratégiques leur apporter une réelle valeur ajoutée.

Par Audrey Loubens, journaliste scientifique

Les ingénieurs restent épargnés par la crise, mais jusqu’à quand ?

François Hollande a été très clair. Si les résultats concernant le chômage ne sont pas satisfaisants, l’actuel locataire de l’Elysée ne se représentera pas aux élections présidentielles. Alors que le chômage ne cesse de progresser, atteignant le taux historique de 10,5%, un secteur résiste encore et toujours à la crise, que pourra toujours mettre en avant le président de la République. Il s’agit de l’ingénierie. Avec un taux de chômage inférieur à 4%, les ingénieurs sont bien loin de la dure réalité de nombreuses autres professions. En effet, avec leur diplôme en poche, les ingénieurs sont quasiment assurés de trouver un emploi. D’après l’enquête de l’Association pour l’emploi des cadres (APEC) menée auprès de 4500 ingénieurs, en 2013 63% d’entre eux avaient un travail, soit autant qu’en 2012. De façon générale, en 2014, le taux d’emploi est de 69%, une situation confortable mais qui subit un léger recul de 1%. De plus, l’étude pointe du doigt une différence entre les ingénieurs issues d’une école classique de ceux ayant suivi le cursus d’une école rattachée à une université. Ainsi, les premiers présentent un taux d’emploi de 73%, taux qui tombe à 62% pour les autres.

L’année dernière, l’Observatoire des ingénieurs a publié les résultats d’une vaste étude portant sur 50 000 ingénieurs. On y apprend que non seulement les ingénieurs sont épargnés par le chômage, mais en plus leur salaire est correct. Ainsi, le salaire annuel médian brut est en progression à 55,2k€. Pour les moins de 30 ans ce salaire médian est de 38k€ contre 90k€ chez les plus de 50 ans. Les mieux lotis sont les ingénieurs travaillant dans le secteur des industries extractives avec un salaire médian de 90k€, tandis que celui des ingénieurs évoluant dans l’enseignement est de « seulement » 42,7k€. Des chiffres bien supérieurs au salaire net médian des français de 1730€ mensuels. En moyenne, les ingénieurs touchent un salaire brut de 66,3k€.

Autre atout du diplôme d’ingénieur, le premier job décroché leur procure dans 84% des cas un statut cadre. Enfin, pour 78% des ingénieurs issus d’une école classique (73% pour ceux ayant étudié dans une école rattachée à une université), le contrat signé est un CDI, le saint graal des contrats de travail. Ce qui est bien supérieur aux 59% de CDI signés par les Bac +5.

On comprend que bien que jeune diplômé, l’ingénieur n’abaisse pas beaucoup ses prétentions salariales. Ainsi, en 2014, le jeune ingénieur espère un salaire brut annuel de 34,4k€, ce qui est supérieur de 2k€ par rapport à 2013. Toutefois, ces exigences restent inférieurs à celles des années 2011 et 2012 avec respectivement 36,1k€ et 35,1 k€.

Les titulaires d’un diplôme d’ingénieur sont donc dans une position plutôt confortable face à l‘emploi, notamment en comparaison des autres catégories professionnelles.  Mais attention, cette situation privilégiée est fragile. La dernière enquête conduire par la Conférence des Grandes Ecole alerte sur la baisse du taux d’insertion des nouveaux diplômés. Ce taux passe de 65,4% en 2012 à 62,4% en 2013. Une tendance confirmée par le nombre d’anciens élèves en recherche d’emploi qui grimpe de 13,3% en 2013 à 15,9% en 2014.

En 2015, suivre une formation d’ingénieur reste un excellent investissement professionnel.

Par Audrey Loubens, journaliste scientifique

Les surfaces OGM mondiales en hausse de 6 millions d’ha en 2014

« Avec l’arrivée du Bangladesh, un total de 28 pays ont cultivé des OGM au cours de l’année 2014 », dont « 20 pays en développement (en comptant le Brésil et l’Argentine) et six pays industrialisés, représentant plus de 60% de la population mondiale » affirme l’Isaaaa (International service for the acquisition of agri-biotech applications).

« Le nombre total d’hectares (OGM) a été multiplié par plus de cent depuis les premières plantations d’OGM » en 1996 relève l’auteur du rapport et fondateur de l’Isaaa, Clive James, cité sur le site de l’association .

Les Etats-Unis restent largement en tête avec 73,1 millions d’ha dédiés aux OGM, en hausse de 4% sur l’année, devançant le Brésil qui comptait 42,2 millions d’ha (+5%) et l’Argentine, 3e avec 24,3 millions d’ha.

Aux Etats-Unis comme au Brésil, c’est le soja qui a justifié ce développement. Avec l’Argentine et le Canada, ils représentent près de 84% des surfaces plantés en OGM dans le monde.

En Asie, l’Inde a connu la plus forte croissance et compte désormais 11,6 millions d’ha (autant que le Canada); en revanche l’Union européenne reste à l’écart avec moins de 0,1% de ses surfaces agricoles utiles.

Depuis 1996, plus d’une dizaine de cultures génétiquement modifiées, alimentaires et fibres, ont été approuvées et commercialisées dans le monde – maïs, soja ou coton, et fruits ou légumes comme la papaye, l’aubergine ou la pomme de terre.

Les partisans des OGM font valoir leurs qualités de résistance à la sécheresse, aux insectes et aux maladies.

Le rapport complet est disponible en ligne sur le site www.isaaa.org.

Pour le site Inf’OGM, hostile aux cultures génétiquement modifiées, « le nombre des pays qui cultivent des OGM stagne (29 pays en 2010 contre 28 en 2014) » indique-t-il.

« La Suède, la Pologne, l’Allemagne et l’Égypte ont quitté le navire ; tandis que Cuba, le Soudan et le Bangladesh l’ont rejoint » poursuit-il en notant que « 120 agriculteurs bangladais ont cultivé 12 hectares avec une aubergine GM bt (génétiquement modifiée, NDLR) soit 0,1 ha par agriculteur ».

« L’aubergine Bt est d’ailleurs la seule nouvelle espèce qui a passé le stade de la culture en 2014 : soja, maïs, coton et colza restant très largement majoritaires », note Inf’Ogm pour qui « l’analyse de ce rapport prouve que l’engouement pour les OGM ne redémarre pas. Si les maïs et soja transgéniques ont été adoptés rapidement sur le continent américain, les autres plantes stagnent et les autres continents restent globalement prudents, pour ne pas dire hostiles, à cette technologie ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des substances chimiques dans les plastiques liées à une ménopause précoce

Des femmes qui présentent des niveaux élevés de substances chimiques contenues dans des plastiques, produits de beauté et d’entretien sont ménopausées deux à quatre ans plus tôt que celles présentant des niveaux plus faibles de ces éléments, selon une étude américaine publiée mercredi.

Ces chercheurs ont examiné les niveaux dans le sang et dans l’urine de 111 produits chimiques soupçonnés d’interférer avec la production naturelle et la distribution d’hormones dans l’organisme.

Plusieurs études beaucoup plus limitées avaient déjà mis en lumière la relation entre des perturbateurs endocriniens et la ménopause.

Mais cette étude conduite entre 1999 à 2008 sur 1.442 Américaines ménopausées est la première d’une telle ampleur à explorer la corrélation entre la ménopause et chacune de ces 111 substances chimiques. Aucune de ces femmes ne suivait d’hormonothérapie et n’avait subi une ablation des ovaires. Leur âge moyen était de 61 ans.

L’étude est publiée en ligne dans la revue scientifique américaine PLOS ONE.

Quelque 15 produits ont été associés de manière significative à une ménopause précoce et à un déclin de l’activité ovarienne.

Parmi eux on trouve 9 polychlorobiphényles (PCB), trois pesticides, deux phtalates: autant de produits utilisés dans les plastiques, détergents, produits pharmaceutiques, lotions, parfums, maquillage, vernis à ongles, savons liquide ou encore laques à cheveux.

« Nos résultats suggèrent que la société devrait s’en inquiéter », met en garde le Dr Amber Cooper, professeur adjointe de gynécologie à la faculté de médecine de l’Université Washington à St Louis (Missouri), principal co-auteur.

Un déclin de l’activité de l’ovaire peut non seulement affecter la fertilité mais aussi conduire notamment au développement précoce de maladies cardiovasculaires, d’ostéoporose, soulignent ces chercheurs.

Ces derniers citent également d’autres études qui ont établi une corrélation entre ces substances chimiques et certains cancers, des dysfonctionnements du métabolisme et la puberté précoce chez les filles.

« Il est souvent difficile d’éviter d’être exposé à ces produits chimiques car ils sont dans le sol, l’eau et l’air », relève le Dr Cooper. Si la plupart de ces produits sont interdits aux Etats-Unis, ils sont encore utilisés ailleurs et ont toujours des effets néfastes sur l’environnement.

Elle recommande de préférer les récipients en verre ou en papier pour réchauffer des plats au micro-ondes plutôt qu’en plastique et de s’informer sur la composition des produits cosmétiques et ménagers.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Tesla Motors rentable en 2020 ?

Cette annonce a eu son petit effet sur l’action de l’entreprise. Frustrés à l’idée de ne pas recevoir de dividendes jusqu’en 2020, les investisseurs ont quelque peu boudé l’action. Encore côtée à 204 dollars le 13 janvier  après avoir bondi de 48 % en 2014, l’action a atteint 190 dollars le 14, avant de remonter à 196,5 dollars au 22 janvier. 

Mais pour le milliardaire, cette rentabilité attendue pour 2020 n’est pas un problème. En effet, il se défend de rechercher la rentabilité sur le court terme. Selon lui, son entreprise investit dans de nouveaux modèles et ne peut donc espérer une rentabilité immédiate. Si les ventes devraient atteindre 500 000 véhicules en 2020, Elon Musk pense que Tesla Motors devrait produire « quelques millions de voitures » à l’horizon 2025. Le marché du véhicule électrique devrait exploser entre 2020 et 2025, les bornes de recharge étant alors bien déployées dans les différents pays.

Lors de cette soirée, Elon Musk a aussi annoncé que le marché des véhicules électriques avait ralenti en Chine au quatrième trimestre 2014. Faute d’un réseau d’infrastructure de recharge suffisant, les Chinois demeurent pour le moment frileux à l’idée d’investir dans les véhicules électriques. Il pense néanmoins que ce ralentissement sera temporaire, contrecarré par le développement des infrastructures en cours.

De l’électrique haut de gamme performant

Co-fondé en 2003 par Elon Musk, Tesla Motors conçoit et commercialise des véhicules électriques haut de gamme. Bien que ne totalisant que 0,02% de parts de marché, l’entreprise est valorisée à 25,5 milliards de dollars. Le modèle phare de la marque est la berline model S. L’entreprise projette de lancer sur le marché son crossover model X en 2016 et son modèle plus compact et moins cher, le Model 3, d’ici 2017. 

La particularité du modèle S de Tesla est d’être doté d’une autonomie allant de 390 à 502 km selon le nouveau cycle européen de conduite (NEDC) grâce à des batteries de 60 kWh à 85 kWh. Pour les véhicules purement électriques proposés par les autres constructeurs, les autonomies tournent plutôt entre 100 et 200 km. Mais pour s’offrir l’un de ces modèles S, il faudra tout de même dépenser entre 69 000 et 102 900 euros !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

 

Essai d’analyse des causes d’emballement, à la hausse comme à la baisse, des marchés pétroliers

Pour comprendre le caractère brutal et difficilement prévisible de ces mouvements de cours, il faut intégrer l’existence de deux marchés parallèles qui interagissent l’un sur l’autre et parfois poussent les cours dans la même direction et génèrent ainsi des bouffées sur les prix, à la baisse ou à la hausse.

Le marché fiduciaire du pétrole papier où se négocient des millions notes représentant chacune  un millier de barils. Les investisseurs (edge-fund et autres) viennent sur ce marché à terme, important en volume, pour se couvrir contre la baisse des monnaies et essentiellement contre la baisse du dollar.

La baisse prévisible du dollar pousse ces investisseurs à acheter du papier (position longue), inversement une hausse prévisible du dollar (Figure 1), justifiée comme aujourd’hui par une probable hausse des taux de la Réserve Fédérale, pousse les investisseurs à se positionner en vendeurs à terme de pétrole (position short).

Figure 1 : Variations depuis Août 2010 de l’US Dollar Index (USDX) sur l’ICE à Londres

 

La hausse des cours du dollar vis à vis des autres monnaies (Figure 1), observée depuis Août 2014, était un indicateur de tendance à la baisse des cours du baril de pétrole.

Mais ce paramètre, sur fond de troubles géopolitiques au Moyen-Orient ne pouvait pas, à lui seul, permettre de prévoir un effondrement des cours du baril.

Le marché physique du pétrole est pour sa part placé, de fait, sous le contrôle d’un cartel : l’OPEP, dont le rôle historique et reconnu était de maintenir les flux et donc les prix dans un intervalle raisonnable d’approvisionnement des marchés, à bon prix, autour des 100 dollars (plus ou moins 10 dollars) le baril. La lassitude de l’Arabie Saoudite de tenir ce rôle ingrat de régulateur de marché, la conquête, à ses dépens, de parts de marché par les produits canadiens ou américains plus onéreux, ont persuadé ce grand producteur et exportateur de baisser les prix en Asie puis aux États-Unis pour préserver ses parts de marché.

Alors qu’on attendait l’inverse, une réduction de l’offre de pétrole, de la part de l’OPEP, Il n’en fallait pas plus pour voir plonger les cours du baril (Figure 2).

A fin 2013, les importations nettes de pétrole et de produits pétroliers de la France représentaient sur les douze derniers mois dans les 51 milliards d’euros.

Une baisse des prix de 40% sur ces produits en année pleine représenterait dans les 20 milliards d’euros d’économies pour la facture pétrolière de notre pays.

Mais il semble réaliste de prévoir un retour progressif à la hausse des marchés pétroliers grâce à une stabilisation des cours du dollar, à une baisse des investissements des Groupes pétroliers et à un accroissement continu de la demande de pétrole peu onéreux tiré par les transports en Asie et la progression du niveau de vie moyen.

Par Raymond Bonnaterre

À vos agendas ! 18ème rendez-vous annuel des ingénieurs, scientifiques et enseignants

La 18ème édition de NIDays France aura lieu le 3 février 2015 au CNIT, à La Défense, avec l’objectif d’accueillir 1200 visiteurs, et un invité de renom : Christophe Galfard qui viendra nous parler du Big Bang.

 

La journée s’articulera autour d’une exposition permanente de produits et solutions proposés par les partenaires de NI (60 stands), avec des sessions de conférences et de travaux pratiques en parallèle.

  • 50 conférences dédiées aux techniques de développement, à la surveillance et au contrôle embarqué, à l’instrumentation et au test automatique, aux mesures par capteurs, aux radiofréquences, à l’aéronautique et la défense, à l’automobile et au ferroviaire, à l’enseignement… avec de nombreuses présentations d’applications.
  • 18 sessions de TP dédiées à la programmation graphique LabVIEW, à l’acquisition de données, à la conception de systèmes de contrôle/commande, aux systèmes embarqués myRIO…

 

Coupes de robotique

Les Coupes de robotique viendront animer l’édition 2015, avec 24 équipes en lice s’affrontant pour la Coupe NXT (basée sur le kit LEGO MINDSTORMS NXT) ou pour la Coupe RIO (basée sur le Starter Kit Robotics de NI).

La journée se terminera par un cocktail qui sera l’occasion pour les participants d’échanger leurs expériences dans une ambiance festive.

Programme et inscriptions sur www.nidays.fr

Les Français et les ENR, une histoire d’amour en péril ?

Selon ce nouveau baromètre de Qualit’ENR, 89 % des français estiment que les énergies renouvelables (ENR) doivent être encouragées pour le développement de la chaleur et de l’électricité. Le gaz garde également une place importante dans les esprits avec 68 % d’avis favorable. Le nucléaire continue de faire débat, situé aux alentours de 45 % d’intérêt. En queue de peloton, on trouve le gaz de schiste (27 %), le charbon (25 %) et le fioul (25 %). Sur la question du nucléaire, il y a un fort écart générationnel. « 66 % des plus de 65 ans soutiennent le nucléaire contre 26 % des plus jeunes », précise Frédéric Micheau, Directeur des Etudes d’opinion chez OpinionWay.

Si les ENR et le gaz restent fortement plébiscités, il faut remarquer qu’entre 2013 et 2015, les ENR ont perdu près de 7 % d’avis favorable, le gaz 12 %. Pendant ce temps, les énergies fossiles ont quant à elles suscité un regain d’intérêt. Le gaz de schiste a gagné 3 % d’intérêt, le fioul et le charbon tous deux 4 %.

Si encore 86 % des Français pensent que les énergies renouvelables sont respectueuses de l’environnement, 82 % qu’elles favorisent l’indépendance énergique et 71 % qu’elles permettent de faire des économies, là encore, les énergies renouvelables perdent du terrain. En un an, par exemple, les Français sont 10% en moins à estimer que les énergies renouvelables permettent de faire des économies. Le contexte économique actuel semble faire naître un doute quant à l’intérêt de s’équiper. 

Le prix du pétrole a baissé, la crise est passée par là

Deux raisons peuvent être avancées pour justifier des baisses aussi marquées pour l’attrait des ENR par rapport à 2014, selon les auteurs de l’étude. Tout d’abord, le prix du pétrole brut a chuté de 60 % depuis juin 2014. Il s’en est suivi une baisse conséquente du prix de l’essence à la pompe, ce qui a participé à ralentir le sentiment d’urgence à s’équiper en énergies renouvelables. Parallèlement, la hausse du prix de l’électricité a été limitée par le Gouvernement (+1,6% hors rattrapage tarifaire au lieu de 6,7% demandés) et le prix du gaz a quelque peu baissé en 2014, baisse qui devrait se poursuivre en 2015. Le climat est donc quelque peu différent en 2015 ! Cela est perceptible au niveau de notre facture : 86% de nos concitoyens estiment que le montant total de la facture énergétique est élevé, contre 91 % en 2014. 

Mais en y regardant de plus près, ce contexte énergétique peut constituer une aubaine pour la filière des énergies renouvelables. Comme l’a souligné Laurent Fabius le 21 janvier sur RTL, « Il y a deux interprétations : la pessimiste, qui dit que comme le prix baisse, il n’est pas nécessaire de développer d’autres énergies, explique le ministre des Affaires étrangères. Mais on peut aussi penser qu’avec les économies réalisées, on va pouvoir aller vers des énergies nouvelles ». En somme, investir les économies réalisées dans le développement des énergies renouvelables. Cette baisse du prix du pétrole pourrait être momentanée ou durer quelques années, mais cette évolution devrait avoir un impact important sur le développement des énergies renouvelables chez les ménages. 

Quelles sont les ENR chez les français ?

Pour le moment, la conséquence de cette baisse relative d’attrait pour les énergies renouvelables est que le désir de travaux perd du terrain. Les équipements utilisant des énergies renouvelables demeurent stables chez les Français : 27 % sont équipés d’un appareil de chauffage au bois (insert, poêle et/ou chaudière), 12 % d’une pompe à chaleur, 7 % de panneaux photovoltaïques et 6 % de solaire thermique (chauffe-eau et/ou système combiné). 35 % des Français disposent d’au moins un de ces équipements dans leur résidence principale, mais 21 % des Français envisagent de s’équiper d’au moins un de ces dispositifs à l’avenir.

Il est intéressant de noter que parmi ceux qui montrent leur désir d’investir dans un équipement, 21 % à 42 % ont l’intention de s’équiper d’au moins appareil dans moins d’un an. Mais entre 22 % et 38 % ont l’intention de le faire dans environ 1 à 2 ans et entre 30 % et 38 % dans plus de 2 ans. Cette latence s’expliquerait par l’investissement important que ces travaux représentent. Dans un contexte de baisse de prix du pétrole et du fioul, ces travaux semblent moins rentables. Ainsi, les Français préfèrent en partie repousser les travaux, ce qui leur permettra d’étudier plus en détail l’évolution de leur facture énergétique dans les années à venir. Ils pourront ainsi se convaincre de l’intérêt ou non d’investir dans les énergies renouvelables. S’il y a une forme d’attente, « cela n’attaque pas la dynamique de fond de l’intérêt pour les énergies renouvelables », insiste Frédéric Micheau.

Cette dynamique pourrait encore s’amplifier. En effet, seulement un Français sur deux sait qu’il peut bénéficier de certaines aides publiques (éco-prêt à taux zéro, crédit d’impôt pour la transition énergétique de 30% …) si les travaux sont réalisés par des professionnels qualifiés de RGE (Reconnu Garant de l’Environnement). De plus, des aides de l’Agence nationale de l’habitat (Anah) pour les ménages modestes (46 % des Français) permettent aujourd’hui de financer jusqu’à 50 % du montant total des travaux. Il s’agit là d’aides non négligeables qui sauront certainement attirer l’intérêt des Français ! 

Aller plus loin : 

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Automobile: la première station-service d’hydrogène de France inaugurée à Saint-Lô

« Alors que la transition énergétique est en marche (…) nous sommes intimement persuadés que l’hydrogène va prendre de plus en plus de place. A terme, ce sera très certainement une énergie de substitution aux énergies fossiles (…). Nous avons décidé d’être en avance », a déclaré le président du conseil général, l’ancien sénateur UMP Jean-François Le Grand.

L’hydrogène produit une énergie qui alimente le moteur en électricité, sans produire ni particules ni gaz à effet de serre, a précisé le directeur général « nouveaux marchés » d’Air liquide, Xavier Pontone.

Selon lui, jusqu’alors seuls quatre véhicules fonctionnaient à l’hydrogène en France avec des stations situées dans le Territoire de Belfort, à Sassenage près de Grenoble et à Loges-en-Josas en région parisienne. Un parc de 25 véhicules est en projet entre Lyon et Grenoble.

Quant au coût du km, « l’hydrogène est un peu plus cher » qu’un véhicule classique, soit 50 euros les 600 km selon Air Liquide.

Le conseil général de la Manche compte porter sa flotte à 10 véhicules d’ici fin juin, et à 40 à terme.

A l’horizon 2016 une station doit ouvrir à Cherbourg afin d’alimenter 5 bus à hydrogène. D’autres projets sont en cours dans le cadre de partenariats avec La Poste, des laiteries pour la collecte de lait ou DCNS pour un bateau de pêche à hydrogène.

En attendant, « c’est génial » de conduire ces véhicules, assure Ralph Lucas, responsable du parc routier départemental qui conduit une voiture à hydrogène depuis plus d’une semaine. « C’est comme une voiture avec une boîte automatique sauf que ça fait pas de bruit. Ca permet une conduite linéaire », explique M. Lucas.

Et pour faire le plein c’est aussi simple qu’avec une voiture classique, assure-t-il démonstration à l’appui, alors que pour un véhicule tout électrique il faut plusieurs heures pour recharger la pile, ajoute M. Pontone.

Les véhicules de la Manche ont près de 200 km d’autonomie. « Vous pouvez aller à Caen avec (à 60 km de Saint-Lô) à condition de rester à 90 km/h sur l’autoroute. Il faut garder une vitesse régulière sinon la pile se décharge trop vite », a précisé M. Lucas.

La station a coûté 400.000 euros et chaque véhicule 30.000 euros au conseil général qui négocie actuellement le montant de ses aides avec Bruxelles.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’élaboration d’une stratégie pour être récompensé repérée dans le cerveau

Chez tous les primates, dont les humains, les fonctions de planifications sont traditionnellement imputées au lobe frontal, rappellent les chercheurs.

L’amygdale cérébrale, située dans le lobe temporal, est pour sa part une zone du cerveau jouant un rôle dans les émotions, comme l’anxiété et la colère. Son rôle dans la réaction aux récompenses est également connu.

Cette étude, menée par des chercheurs en Grande-Bretagne et en Hongrie et publiée sur le site Nature Neuroscience, montre qu’au-delà des réactions primaires, l’amygdale est également impliquée dans la démarche de planification à long terme pour recevoir une récompense.

Pour mener cette étude, Fabian Grabenhorst, de l’Université de Cambridge, et ses collègues, ont fait passer des épreuves à deux singes avec, à chaque étape, pour gratification un jus de fruit.

A chaque tour, les animaux pouvaient soit consommer de suite leur récompense, soit choisir de la garder pour plus tard, avec la possibilité d’y ajouter en prime des intérêts, c’est à dire plus de jus de fruit, au fur et à mesure de l’avancée du test.

Quand les singes choisissaient d’épargner, l’enregistrement de l’activité des neurones de l’amygdale a montré des schémas reflétant le nombre d’étapes durant lesquels les primates comptaient épargner pour augmenter leur récompense, avant même qu’ils aient mis leur plan en action.

« Nous parlons +d’activité planifiée+ car cette activité précédait l’issue de la séquence d’épargne de plusieurs étapes et car elle se réfère à un événement futur déterminé personnellement par l’animal et qui n’existait encore qu’intérieurement », souligne l’étude.

Avant l’expérience, les deux animaux ont été entraînés durant 3 à 4 mois pour savoir répondre aux tests, et on a implanté des électrodes dans leur cerveau pour observer les neurones de l’amygdale. A l’issue des tests ils ont été euthanasiés et disséqués.

Les scientifiques soulignent que cette étude mêlant la neurophysiologie et le contrôle interne pourrait aider à découvrir les autres zones du cerveau dédiées à la planification d’une stratégie pour obtenir une récompense dans le cerveau.

« Ces schémas d’activité pourraient être utilisés par le lobe frontal pour traduire le but envisagé en plan d’action concret », indique M. Grabenhorst, interrogé par l’AFP.

Les fonctions de l’amygdale étant similaires à travers les espèces, « cela suggère que nos découvertes peuvent faire avancer notre compréhension de la fonction de l’amygdale dans l’activité de planification chez l’humain ».

Cela permettrait « d’ouvrir de nouvelles voies pour comprendre la fonction de l’amygdale dans les maladies comme la dépression, l’addiction et autres dérèglements de la poursuite de récompenses », ajoute-t-il.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le potentiel des énergies renouvelables est sous-utilisé en Europe

Les chefs de groupe sont parmi les moins actifs au Parlement européen L’Europe est passée à côté d’économie substantielles en ne développant pas assez les énergies renouvelables adaptées à chaque pays. Selon un rapport de la plateforme « Avenir de l’électricité » du Forum économique mondial, ce sont 86 milliards d’euros que le continent a laissé filer, faute d’avoir davantage misé intelligemment sur les énergies renouvelables.

Le rapport, écrit avec le cabinet de conseil Bain, précise que 34,5 milliards d’euros supplémentaires auraient pu être économisés grâce à une meilleure coordination transfrontalière et de plus importants câbles d’alimentation entre les États.

Déploiement sous-optimal

Selon ses auteurs, même si l’Espagne reçoit environ 65 % d’énergie photovoltaïque de plus que l’Allemagne (1750 kWh/m2 par an en Espagne, comparé aux 1050 kWh/m2 de l’Allemagne), cette dernière a installé environ 600 %  plus d’installations photovoltaïques solaires que l’Espagne (33 gigawatts en Allemagne, 5 en Espagne).

Pourtant, alors qu’il y a moins de vent en Espagne que dans les pays du nord du continent, l’Espagne a mis sur pied des installations éoliennes permettant de produire 23 GW.

« Ce genre de déploiement sous-optimal des ressources a coûté environ 86 milliards d’euros de plus que si chaque pays de l’UE avait investi dans les installations les plus efficaces et adaptées à ses sources d’énergies renouvelables », peut-on lire dans le rapport.

Création d’une surcapacité

En revanche, l’investissement massif dans les énergies renouvelables a créé une très importante surcapacité de production en Europe, ce qui réduit la rentabilité de ces installations.

En cinq ans, 130 GW de capacité de production d’énergies renouvelables et 78 GW de capacité de production conventionnelle ont été ajoutés au réseau européen. Seuls 44 GW de capacité de production conventionnelle ont été éliminés.

Dans le même temps, la croissance de la demande d’électricité en Europe s’est écroulée à 0 % sur la période 2007-2012. Depuis les années 1970, le taux de croissance annuel de la demande était de 2,7 %.

La rentabilité économique de ces installations a dégringolé, perdant 4,8 points pour se stabiliser aux environs de 6 %. Si les États-Unis ont vécu la même baisse de la demande, la suppression de vieilles centrales a été davantage calquée sur l’émergence des renouvelables. Les installations américaines ont donc su préserver leurs marges de profits.

Marché de capacité

Le rapport va dans le sens des industries, qui souhaitent voir l’instauration d’un système rémunérant les installations qui gèlent les capacités de production, tout en admettant qu’« un consensus fort n’existait pas encore quant aux meilleurs mécanismes en termes de fiabilité et de flexibilité ».

En Allemagne, les entreprises, comme RWE ou E.ON veulent absolument que le gouvernement les aide à créer un « marché de capacité » afin de financer la production des centrales au gaz et au charbon, qui ne sont plus rentables. Selon elles, un marché de capacité permettrait d’améliorer la sécurité d’approvisionnement. La chancelière allemande, Angela Merkel, a cependant déclaré en janvier ne pas être favorable à cette idée.

 

Source : EurActiv.com / Reuters (traduit de l’anglais parManon Flausch)

La ratatouille, plus cancérigène que la cigarette ?

La ratatouille, plus cancérigène que la cigarette : voilà une affirmation qui pourrait faire bondir – à juste titre – l’ensemble du corps médical. C’est pourtant le même type de contre vérité qui a enflammé le Web ces derniers jours à propos du caractère cancérigène de la cigarette électronique.

Fin novembre, une dépêche inquiétante de l’AFP est reprise de manière encore plus alarmiste par de grands médias : la cigarette électronique serait dix fois plus cancérigène que la cigarette. TV, radios et grands journaux s’emballent, comme ce fut déjà le cas pour une étude décriée de l’Institut national de la consommation à la rentrée 2013.

L’information passée en boucle et jetant un lourd discrédit sur la cigarette électronique est en réalité totalement erronée car l’étude japonaise en question démontre au contraire que les cigarettes électroniques ont des taux de formol entre six et cinquante fois moins importants que ceux retrouvés dans la fumée du tabac excepté pour un cas – repris dans la dépêche – que le docteur Konstantinos Farsalinos, auteur de l’étude, ne s’explique toujours pas à ce stade des travaux.

En outre, les cigarettes traditionnelles contiennent de nombreux autres composants très cancérigènes comme les nitrosamines. Si on en trouve des traces insignifiantes dans les cigarettes électroniques, les quantités sont très importantes dans les cigarettes conventionnelles, de 13 nano-grammes par millilitre pour les premières à près de 6 300 pour les secondes.

Le traitement de cette actualité dans les médias est inquiétant et pose question sur la pente dangereuse prise par une presse à la recherche incessante du « buzz » au mépris de l’investigation et de la vérification de la véracité des informations. Cette course à l’actualité est d’autant plus grave qu’il s’agit de grands journaux, radios et télévisions.

Dans cet épisode médiatique, c’est paradoxalement un quotidien gratuit (Metronews) qui a mené dès le lendemain un travail d’investigation plus poussé permettant de nuancer largement l’information de la veille.

Le retentissement médiatique sur cette étude n’est pas sans rappeler les actions de Big Tobacco qui a parfaitement su orchestrer depuis les années 50 des campagnes de désinformation sur la cigarette. Si on ne peut rien affirmer sur ce buzz, il est clair que la cigarette classique ressort gagnante de cette campagne, tout particulièrement chez les jeunes.

Dans les années 90 déjà, certains cigarettiers prétendaient que côtoyer un fumeur n’était pas plus dangereux que de boire un verre de lait et avaient réussi auparavant à discréditer des études scientifiques qui avaient dès les années 50 clairement prouvé le lien entre cigarette et cancer du poumon.

Alors, la ratatouille est-elle plus cancérigène que la cigarette ? Un chercheur n’aurait aucune difficulté à trouver des particules cancérigènes dans la ratatouille car certains ingrédients comme le thym et le romarin en contiennent et que toute cuisson engendre nécessairement la formation de particules cancérigènes. Il pourrait même avoir le vice de trouver une substance cancérigène plus présente dans la ratatouille que dans la cigarette. Big Tobacco à bien réussi a prouver que la cigarette jouait un rôle préventif contre la maladie de Parkinson.

Bien évidemment, les taux seraient insignifiants mais suffisants pour faire une désinformation orchestrée et largement médiatisée dans un contexte de recherche du sensationnel. Pourtant, la ratatouille n’a jamais tué personne alors que la cigarette, elle, en tue 70 000 par an, rien qu’en France…

Par Pierre-Marie Chapon

Le débat s’ouvre sur la qualité de l’air au Parlement européen

La directive sur les plafonds d’émission nationaux (PEN) fixe des limites d’émissions de certains polluants par États. Elle faisait partie de la série de projets que Frans Timmermans comptait abandonner afin de resserrer le programme de travail de la Commission pour l’année 2015 autour d’un nombre réduit de priorités.

Frans Timmermans a finalement décidé de ne pas supprimer la directive PEN. La directive sur le plafond d’émission national sera néanmoins modifiée afin d’avoir plus de chances d’être approuvée par le Conseil des ministres et le Parlement, a déclaré Frans Timmermans en décembre.  Il a également promis que le calendrier législatif serait respecté.

Le débat de la commission de l’industrie, de la recherche et de l’énergie du 21 janvier est le premier signe de la reprise normale du calendrier législatif. Adam Gierek, eurodéputé S&D, se fondera sur ce débat pour rédiger une opinion, que l’eurodéputée en responsable du dossier, Julie Girling (CRE), pourra suivre ou non librement.

Une indication de la position du Parlement

Pour l’heure, les différents groupes politiques restent très divisés sur la proposition de directive. Henna Virkkunen, eurodéputée finlandaise du PPE, estime qu’il n’était pas nécessaire de garder le texte. « Je trouve que l’idée de départ de la Commission était meilleure. La directive aurait dû être abandonnée et nous nous serions penchés ensemble sur la manière d’harmoniser 23 textes législatifs [environnementaux] différents. Nous devons nous assurer que cette directive ne crée pas davantage d’entraves pour l’industrie, elle en a déjà assez comme ça », ajoute-t-elle.

Adam Gierek a supprimé un plafond d’émissions non-contraignant pour 2025 de son projet d’opinion. Ce plafond avait plusieurs niveaux, en fonction du polluant et de l’État membre.

La proposition de la Commission comprenait, elle, des objectifs pour 2030 et des objectifs intermédiaires contraignants à mi-parcours. Ces délais étaient une version allégée de la proposition initiale, qui prévoyait la réalisation des objectifs pour 2025, une date déjà reportée par l’ancienne Commission.

Pour Louise Duprez, responsable de politiques liées à la pollution atmosphérique au Bureau européen de l’environnement, « puisque l’engagement environnemental de la nouvelle Commission est pour le moins discutable, il revient aux eurodéputés et aux États membres de montrer leur détermination et leur volonté d’offrir de l’air propre aux citoyens européens. Il est essentiel de fixer des objectifs contraignants pour 2020 ou 2025 si l’on veut atteindre notre objectif pour 2030. »

Michèle Rivasi, eurodéputée française des Verts, soutient également une obligation à mi-parcours. « Cette directive doit être plus ambitieuse », tranche-t-elle. « 2030, c’est bien trop tard. Nous devrions viser des plafonds irréalisables aujourd’hui [parce que la technologie de 2020 nous permettra de les atteindre]. »

Un avis que tous ne partagent pas : des objectifs contraignants pour 2025 pourraient pousser le Conseil à rejeter la proposition, prévient pour sa part Henna Virkkunen.

Inclusion de l’agriculture

L’opinion d’Adam Gierek souligne également que les émissions d’ammoniac et de méthane, générées par l’agriculture, ne devraient pas être comprises dans les règles sur la pollution de l’air.

« Nous devons inclure l’agriculture, et non l’exclure », contredit Michèle Rivasi, rejointe sur ce point par Dario Tamburrano : « laissez-moi vous rappeler que les vaches polluent plus que les Range Rovers, nous ne devrions pas l’oublier », a-t-il déclaré.

C’est la première fois que la Commission propose de limiter les émissions d’ammoniac et de méthane. Les défenseurs de la directive PEN s’attendent à voir le secteur agricole user de tout son poids pour tenter de supprimer cette partie du paquet.

Adam Gierek estime que l’instauration de plafond des émissions est obsolète, par exemple parce qu’il y a trop de voitures au diesel en Europe. Les représentants de la Commission ont affirmé qu’une proposition distincte sur le diesel était en préparation et serait « probablement bientôt présentée ».

Le rapport de Julie Girling, qui s’est battue pour sauver le projet de directive, est attendu pour mi-février. Frans Timmermans lui a annoncé que la directive PEN serait adaptée aux objectifs climat et énergie pour 2030 sur lesquels les dirigeants européens se sont mis d’accord en octobre.

Économie circulaire

Autre texte à l’agenda parlementaire, le paquet sur l’économie circulaire, que Frans Timmermans a décidé d’abandonner afin que la Commission fasse une nouvelle proposition sur les mêmes sujets d’ici fin 2015.

Le vice-président a promis que cette nouvelle proposition serait « plus ambitieuse », sans convaincre ses détracteurs, qui le soupçonnent d’utiliser l’excuse d’une « meilleure législation » pour défendre les intérêts des grandes entreprises.

Ces soupçons se sont cristallisés après les révélations d’EurActiv concernant une liste de projets à supprimer envoyée à Frans Timmermans par le lobby des entreprises, BusinessEurope. Les projets de loi visés concernaient avant tout l’environnement et l’égalité des sexes.

Comme le Parlement, le Conseil des ministres a indiqué son soutien au paquet sur l’économie circulaire.

Les parlementaires européens de la commission de l’environnement devraient d’ailleurs tenir dès le 22 janvier une audition sur l’abandon très controversé du paquet sur l’économie circulaire par la Commission européenne. Ce paquet législatif comprenait des lois sur les déchets, l’incinération et le recyclage.

Lors d’une réunion de la commission de l’environnement, le 21 janvier, il est apparu que nombre d’eurodéputés déploraient cette décision. Cette constatation ne suffira toutefois pas à faire changer d’avis Frans Timmermans, vice-président de la Commission européenne, surtout après que le Parlement a échoué à faire passer une résolution censée sauver le paquet sur l’économie circulaire la semaine dernière.

PROCHAINES ÉTAPES: 

  • 21 janvier 2015 : Réunion de la commission de l’environnement.

  • Février 2015 : Date prévue pour la publication du rapport de l’eurodéputée Julie Girling sur la directive PEN.

 

Source : EurActiv.com / James Crisp (traduit de l’anglais parManon Flausch)
 

 

Et aussi dans les
ressources documentaires :

Visualiser les champs magnétiques, en temps réel

Les capteurs magnétiques se font discrets, mais ils se retrouvent absolument partout – de la machine à laver pour détecter la position relative du tambour, aux phares d’une voiture, afin d’ajuster l’angle de ces derniers. Pour s’assurer que ces capteurs soient fiables et fonctionnent correctement, la procédure de contrôle était jusqu’ici assez fastidieuse et relativement onéreuse. C’est dans ce contexte qu’une équipe de chercheurs du prestigieux institut Fraunhofer pour les circuits intégrés a mis au point une caméra capable de mesurer et de visualiser les champs magnétiques en temps réel, permettant de repérer rapidement les aimants défectueux. Ce test magnétique peut-être facilement intégré à une chaîne de production industrielle, par exemple au niveau d’un tapis roulant.

« N’imaginer pas cet appareil comme une caméra, mais plutôt comme une assiette avec une rangée de capteurs magnétiques », explique Klaus Dieter, en charge du projet. Le cœur du dispositif est composé d’un capteur à effet Hall baptisé « HallinOne® », créé au sein même de l’institut allemand. Ce capteur permet de détecter tout champ magnétique présent sur les trois axes, résolvant ainsi certains problèmes de mesure liés aux capteurs angulaires ou aux capteurs de position.

Il devient alors possible de mesurer la force et la direction d’un champ magnétique sur 32 positions espacées de 2,5 millimètres, à huit centimètres de distance. Le dispositif vidéo haute-résolution effectue une mesure en un millième de seconde, ce qui, vous l’aurez compris, permet d’avoir 1000 images par seconde. Un prototype a été présenté en exclusivité au salon de l’électronique de Munich, qui a eu lieu du 11 au 14 novembre.

Par Moonzur Rahman

La réalité virtuelle révolutionne l’industrie

Les industriels présents en Pays de la Loire vont pouvoir profiter d’un tout nouvel espace de travail de réalité virtuelle. La réalité virtuelle, c’est l’association de technologies 3D avec de la capture de mouvements qui « permet d’immerger complètement un opérateur, de traquer son mouvement et son point de vue pour lui permettre d’interagir de l’intérieur », rappelle Sophie Levionnois, Directrice de ce nouveau centre Industriel de réalité virtuelle du Technocampus Smart Factory, intégré à la Jules Vernes Manufacturing Valley. 

Les usages de ce nouveau centre seront multiples. Il offrira aux industriels de la région  une solution innovante pour faire des présentations commerciales ou afin de mieux communiquer pour présenter leurs projets. Par exemple, STX pourra y présenter ses paquebots, Alstom ses éoliennes offshore, Airbus ses avions… Mais sur ce centre, les utilisations seront principalement techniques. Il s’agira de concevoir un produit ou un process de fabrication en réalité virtuelle. « Cela va nous permettre de tester l’ergonomie d’un poste de travail ou d’un produit, que cela soit dans l’automobile, dans le naval ou dans l’éolien », assure Sophie Levionnois.

La maintenance et l’usine du futur à l’épreuve

Les potentialités de la réalité virtuelle ne s’arrêtent pas à ces simples aspects. Cette autre réalité permet aussi de former, entraîner les opérateurs à faire des opérations dangereuses, complexes et coûteuses, en toute sécurité. Cela s’applique notamment à l’entretien maritime des éoliennes. « C’est l’un des plus gros usages que l’on va avoir ici », prévient Sophie Levionnois. 

Dans ce cadre, la réalité virtuelle pourra aussi servir lors des opérations sur le terrain, grâce à la collaboration distante. Ainsi, une personne immergée dans la maquette pourra aider les opérateurs en opération dans une situation difficile. « Si l’on est accroché à un filin d’hélicoptère pour faire une opération sur le rotor d’une éolienne offshore, cela est plus facile si l’on est guidé par quelqu’un qui fait la même opération dans le virtuel », analyse Sophie Levionnois. 

Cette plateforme est aussi une brique de l’usine du futur. «L’usine du futur, c’est l’idée que l’industrie comprendra des ateliers physiques et un clone virtuel qui contient toute l’intelligence industrielle qui va permettre de mieux faire fonctionner, plus rapidement, avec moins de défauts et moins de déchets cette usine réelle », prévoit la Directrice du centre virtuel. En plus de la réalité virtuelle, la réalité augmentée pourrait avoir toute sa place dans cette nouvelle définition de l’usine. « A travers la réalité augmentée, l’idée est d’amener aux opérateurs toute l’information nécessaire au bon endroit et au bon moment, de manière géolocalisée », précise-t-elle.

Ce centre de réalité virtuelle est intégré à la Jules Vernes Manufacturing Valley. Cette valée regroupe de grands industriels de 4 filières très développées dans la région : naval, aéronautique, énergie et automobile. Elle vise à regrouper des moyens et à les regrouper entre différents industriels pour optimiser les dépenses. Technocampus est un Groupement d’Intérêt Public (GIP) mandaté par la Région pour assurer la fréquentation des plateformes et mettre à disposition un outil « clés en main » aux industriels. La région Pays de la Loire est propriétaire et investisseur majoritaire des plateformes Technocampus. L’investissement complet pour ce site s’élève à 9 millions d’euros.Trois formules d’utilisation sont proposées aux industriels pour des tarifs compris entre 1 200 € et 1 680 € la demi-journée.

Par Matthieu Combe, journaliste scientifique

Prime à l’effacement électrique: le gouvernement cède sur le montant, pas sur les modalités

Le gouvernement a tranché jeudi sur les modalités de la prime versée pour l’effacement des consommations électriques, qui sera comme annoncé destinée aux seuls petits consommateurs, mais dont le montant sera inférieur à ce qui était envisagé, se rapprochant ainsi de l’avis du gendarme de l’énergie.

L’effacement consiste pour un consommateur (particulier ou entreprise) à réduire temporairement et volontairement sa consommation de courant lorsque cette baisse peut soulager les tensions du réseau électrique, notamment pendant les périodes de pointe.

Une prime sera versée aux opérateurs d’effacement pour les opérations réalisées sur les petits sites de consommation, soit essentiellement les particuliers et les petits commerces. Son montant est fixé à 16 euros par mégawattheure en heures pleines et à 2 euros en heures creuses, selon un arrêté du ministère de l’Ecologie et de l’Energie publié jeudi au Journal officiel.

Les effacements effectués sur des sites plus importants ne donneront pas droit à une prime pour l’opérateur qui les réalise.

L’arrêté précise également qu’au-delà d’un certain volume d’effacement, fixé à 250 gigawattheures, aucune prime ne sera versée à l’opérateur. Cette mesure vise à éviter que certains opérateurs effacent des consommations seulement pour toucher la prime à un moment où le réseau électrique n’en aurait pas forcément besoin.

Ce système sera en vigueur jusqu’au 31 décembre 2015.

Dans son projet d’arrêté, le gouvernement avait envisagé que la prime atteindrait 30 euros, une proposition qui avait suscité un avis défavorable de la Commission de régulation de l’énergie (CRE).

Ce montant avait été calculé en considérant que l’effacement correspond à une réduction pure et simple de la consommation d’électricité, et non à un décalage dans le temps par le consommateur de l’utilisation de ce courant.

« Si le niveau de l’effet report ne fait pas consensus entre l’ensemble des acteurs, plusieurs études montrent qu’il ne peut être considéré comme nul et qu’il pourrait même, au contraire, être conséquent », avait écrit la CRE dans sa délibération.

En revanche, le gouvernement a maintenu le principe d’une prime limitée aux petits sites, malgré les inquiétudes exprimées par certains acteurs du secteur.

L’Afieg, un groupement d’énergéticiens alternatifs, avait ainsi dénoncé le caractère « discriminatoire » d’une telle différenciation, qui risque selon eux de créer « une bulle spéculative ».

Marc Boudier, président de l’Afieg, a salué jeudi « l’évolution positive par rapport à la première mouture » concernant la réduction de moitié du montant de la prime, tout en affirmant que le système « reste discriminatoire ».

Surtout il juge pertinent le caractère « transitoire » de cet arrêté valable jusqu’à fin 2015, estimant que le gouvernement a « voulu un coup de pouce (…) pour le démarrage » de cette activité d’effacement et espérant « que cela restera un coup de pouce provisoire et qu’après le 31 décembre, il n’y aura plus de prime de ce type ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Climat : les mesures de températures atmosphériques par satellites en question

Plus que la technologie des mesures elle-même, ce sont les défauts de la couverture géographique et de la représentativité des mesures qui rendent problématique la détermination d’une température moyenne.

Une autre façon d’observer ces changements de température est l’utilisation de satellites, en particulier de satellites « défilants » (qui tournent autour de la Terre sur une orbite quasi circulaire passant près des pôles, à une altitude un peu inférieure à 1.000 km). Depuis la fin des années 1980 et le début de ces mesures par satellites, la précision des instruments et sondeurs embarqués s’est beaucoup améliorée. Pourtant, la validité des données recueillies est parfois mise en question, notamment du fait de l’écart observé entre les profils de températures relevés à la surface et ceux liés aux données satellites : les dernières études satellites font état de profils d’augmentation de température assez faible (par exemple sur la période 1987-2006 l’augmentation varie selon les estimations entre 0,086°C et 0,22°C par décennie dans la troposphère), alors que les températures relevées à la surface continuent à augmenter à des rythmes plus intenses. Ces divergences ouvrent tout naturellement un champ de recherche intéressant qui tente d’en expliquer l’origine.

Une étude sino-américaine récente, dont les résultats ont été publiés dans le journal Climate Dynamics mettent en cause l’impact des nuages sur les modèles de mesure actuels : le taux de réchauffement serait en fait, selon les auteurs de l’étude, 20 à 30% supérieur aux estimations faites sans prendre en considération les effets liés aux rayonnements émis par les gouttelettes d’eau par temps couvert.

Au coeur de ces travaux, le principe de la mesure par télédétection qui consiste à évaluer la luminance énergétique au sommet de l’atmosphère et qui est une moyenne pondérée des valeurs prises par la luminance du corps noir (exprimée par la fonction de Planck) dans les différentes couches émettrices (la surface de la Terre et les couches successives de l’atmosphère). Les profils de température sont ensuite calculés à partir des fonctions de poids (qui attribuent à chaque couche de l’atmosphère un poids en fonction de son opacité et de sa capacité à émettre du rayonnement). L’équipe menée par le Professeur Fuzhong WENG (responsable de l’unité Satellite Calibration & Data Assimilation à l’agence américaine responsable de l’étude de l’océan et de l’atmosphère, la NOAA) a distingué les mesures faites en conditions de « ciel clair » de celles faites en « ciel nuageux ». Selon les auteurs, « les résultats mettent en évidence que les tendances calculées en ciel nuageux ne sont pas seulement plus faibles, elles sont aussi moins fiables. Cela est largement dû à la dispersion d’une partie des rayonnement par les nuages ».

Cette publication est le fruit d’une collaboration entre la NOAA, l’université de Floride, et la Nanjing University of Information Science and Technology. Elle s’inscrit dans le cadre d’un projet du ministère chinois des sciences et technologies (MOST) sur « l’évaluation, l’exploitation et l’intégration de données relatives au changement climatique ». L’originalité de son approche est de proposer pour la première fois de quantifier l’effet de ce phénomène déjà connu de longue date.

Ces résultats ne convainquent pourtant pas tout le monde et le professeur Roy SPENCER, de l’université d’Alabama Huntsville (UAH), qui a travaillé sur les mêmes données parle sur son blog de chiffres surestimés. Ces débats ont en tout cas le mérite de montrer combien il reste difficile d’intégrer un certain nombre de phénomènes physiques fondamentaux à l’interprétation des données satellites : tout comme les nuages, les aérosols sont par exemple loin d’avoir révélé tous leurs secrets… Une chose est certaine : le réchauffement est bien là selon la NOAA, qui a annoncé le jeudi 20 novembre que les dix premiers mois de l’année 2014 ont chacun été les plus chauds enregistrés sur la planète depuis le début des relevés de température. Un enjeu environnemental majeur qui sera à l’ordre du jour des discussions de la Conférence mondiale sur le climat de décembre 2015 à Paris.

Source : Bulletins électroniques

La photo de la semaine #2

Tout d’abord, la rédaction félicite Sindy, qui a trouvé ce que représente La photo de la semaine #1 : Il s’agit effectivement du système visuel de la drosophile

Place donc à la photo de la semaine seconde édition !

Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

 

Durée de vie des centrales nucléaires: prolongation « pas acquise »

La prolongation du fonctionnement des centrales nucléaires françaises au delà de 40 ans « n’est nullement acquise à ce stade », a déclaré mardi le président de l’Autorité de sûreté nucléaire (ASN) Pierre-Franck Chevet, qui pense pouvoir rendre un avis en 2018.

Le nouveau PDG d’EDF Jean-Bernard Lévy s’est dit la semaine dernière « confiant » sur l’obtention par le groupe du droit de prolonger la durée de vie de ses centrales nucléaires « jusqu’à 50 ans, voire 60 ans ».

L’ASN sera « en charge d’instruire cette demande et de dire si oui ou non c’est possible et sous quelles conditions », a rappelé M. Chevet, en présentant ses voeux à la presse.

Le parc nucléaire a été mis en service entre la fin des années 1970 et la fin des années 1980. La durée de vie des 58 réacteurs nucléaires français est actuellement limitée à 40 ans.

« Nous sommes au tout début des discussions techniques sur le sujet ». Il devrait y avoir un « avis d’orientation de l’ASN à la fin de cette année ». « Si tout se passe bien, l’ASN pourra prendre une position générique a priori en 2018 », a-t-il indiqué.

L’ASN prendra ensuite position réacteur par réacteur à partir de 2020.

« L’exigence que nous portons, c’est que dans le cadre d’une éventuelle prolongation » de la durée de vie des réacteurs, « on en profite pour améliorer la sûreté des centrales », en essayant de se rapprocher des standards modernes de conception du type de ceux qui sont mis en oeuvre pour l’EPR de Flamanville (Manche), en cours de construction, a expliqué M. Chevet.

« L’exigence est très forte. C’est très compliqué techniquement. C’est pour ça que nous disons régulièrement que la possibilité d’aller au-delà de 40 ans n’est pas acquise à ce jour », a-t-il pointé.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La fermeture de la décharge Guy Dauphin Environnement (GDE) dans l’Orne annulée en appel

L’ouverture de ce site a fait l’objet de multiples recours et d’une forte mobilisation du monde du cheval car les opposants redoutent une pollution des terres environnantes de réputation internationale pour l’élevage équin.

La société GDE, un des leaders du recyclage industriel en France, avait été condamnée le 13 mai par le tribunal correctionnel d’Argentan à 10.000 euros d’amende et à la fermeture de son site pour y avoir entreposé 1.856 tonnes de déchets illégaux.

Mais « on ne peut pas condamner une personne morale sans avoir identifié son représentant légal », a déclaré mercredi Henri Ody le président de la cour d’appel, après avoir annoncé que la cour infirmait le jugement d’Argentan.

La jurisprudence de la Cour de cassation en la matière a en effet changé depuis le 13 mai 2014. Lors de l’audience en appel, le 3 novembre 2014, le parquet général avait pour cette raison requis la relaxe.

Mardi GDE a indiqué à l’AFP que le site ne pouvait en pratique rouvrir avant plusieurs semaines, « voire » plusieurs mois car des travaux sont en cours. Selon la société ces travaux visent à remettre le site en état car il ne l’était plus après près d’un an de blocage, entre octobre 2013 et octobre 2014.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Rapport européen Bisphénol A: Royal, « surprise », s’interroge sur « le poids des lobbies »

« Je suis très surprise par cet avis, curieusement lancé au moment où l’interdiction du Bisphénol A est entrée en application, le 1er janvier » en France », a réagi la ministre, interrogée par l’AFP.

« Cet avis va à l’encontre d’avis d’autres structures qui, depuis des années » pointent les risques liés à l’exposition au Bisphénol A, a-t-elle souligné, indiquant qu’elle allait demander à l’Agence française de sécurité sanitaire (Anses) de se pencher sur les conclusions de l’Efsa.

« Le ministère va faire expertiser cet avis, pour voir si le poids des lobbies n’est pas intervenu dans sa publication », a-t-elle ajouté, notant que lors de la dernière réunion des ministres européens de l’Environnement, où il avait pourtant été question des perturbateurs endocriniens, la sortie d’un tel rapport n’avait pas été évoquée.

Dans sa note publiée mercredi, l’Efsa estime que l’exposition au Bisphénol A « aux niveaux actuels » « ne présente pas de risque pour la santé des consommateurs », même si de nombreux doutes restent à éclaircir.

Aux avant-postes de la lutte contre cette substance considérée comme un perturbateur endocrinien, la France a généralisé depuis le 1er janvier l’interdiction à tous les contenants alimentaires de cet antioxydant et plastifiant, déjà banni des biberons européens depuis 2011.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Arctique: la Norvège redessine la banquise, facilitant les activités pétrolières

Un accord, conclu en 2013 entre le gouvernement – minoritaire – de droite et deux alliés de centre droit, interdit d’ouvrir les zones situées en bordure de la banquise, à l’écosystème très riche, à la prospection et à la production d’hydrocarbures.

Mais, réchauffement climatique oblige, la banquise recule toujours plus au nord et ses contours font aujourd’hui débat.

« Il est important de disposer de connaissances actualisées sur l’emplacement géographique des zones fragiles », a déclaré la ministre Tine Sundtoft dans un communiqué. « J’ai donc demandé à l’Institut polaire norvégien de mettre à jour ses calculs ».

Pour ce faire, l’Institut polaire norvégien va mettre à jour la carte de la banquise en s’appuyant sur les données satellite collectées entre 1984 et 2013, la définition actuelle s’appuyant sur des données recueillies entre 1967 et 1989.

Cette mise à jour permet au gouvernement de faire valoir que les concessions pétrolières qu’il ambitionne de proposer à l’industrie pétrolière en mer de Barents sont situées à bonne distance de la banquise.

Le 23e cycle de concessions, initialement prévu avant Noël, a dû être repoussé en raison du débat autour de cette question sensible.

Mardi, les partis de centre droit et plusieurs organisations de défense de l’environnement ont toutefois déclaré leur hostilité à l’initiative du gouvernement, accusé de faire le jeu du secteur pétrolier.

« Nous ne déplaçons pas la bordure de la banquise », s’est défendue le Premier ministre, Mme Erna Solberg, à la chaîne TV2 Nyhetskanalen. « C’est la nature qui déplace les limites de la banquise ».

Confrontées à l’amenuisement de leurs ressources dans les eaux largement exploitées de la mer du Nord, les compagnies pétrolières demandent avec insistance l’ouverture de nouvelles zones à la prospection.

Les défenseurs de l’environnement s’y opposent, faisant valoir les risques écologiques et arguant que l’exploitation pétrolière, très coûteuse dans l’Arctique, ne serait de toute façon probablement pas viable à la lumière de la chute du cours du baril.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Best of des IG Nobels… de physique

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de physique !

  • 2000 : prix décerné au Néerlandais Andre Geim (université de Nimègue, aux Pays-Bas) et au Britannique Sir Michael Berry (université de Bristol, au Royaume-Uni) pour avoir fait entrer une grenouille vivante en lévitation magnétique. Placée à l’intérieur d’un électroaimant de Bitter en position verticale, le batracien casse-cou est soumis à un champ magnétique de 16 teslas.

Le nom d’Andre Geim vous est quelque peu familier ? Le physicien d’origine russe est en effet connu et reconnu pour avoir reçu le prix Nobel de physique en 2010, Nobel qu’il partage avec Konstantin Novoselov pour avoir découvert l’un des matériaux stars de cette dernière décennie, le graphène. Andre Geim est à ce jour le seul lauréat d’un prix Nobel et d’un prix Ig Nobel.

 

  • 2001 : le prix d’astrophysique fut décerné à Jack et Rexella Van Impe, deux célèbres télévangélistes américains basés à Rochester Hills, dans le Michigan, pour avoir « découvert » que les trous noirs remplissent toutes les conditions techniques requises pour abriter… l’enfer. On n’en sait pas plus sur ces fameuses conditions.

 

  • 2005 : prix décerné à Thomas Parnell et à John Mainstone, pour leur rôle dans la célèbre « expérience de la goutte de poix », commencée en 1927 à l’université du Queensland de Brisbane, en Australie. Cette expérience – qui est l’expérience scientifique en cours la plus longue du monde, dont nous vous avions déjà parlé ici – a pour but de mesurer la viscosité de la poix, à l’aide de l’écoulement d’un de ses fragments. Démarrée en 1927 par le professeur Thomas Parnell, l’expérience a connu un nouveau rebondissement, en avril dernier… lorsque la neuvième goutte est enfin tombée, comme vous pouvez le voir ici.

John Mainstone, prêt de sa goutte, fier comme un Grand d’Espagne

 

  • A venir : le best of des IG Nobels… de psychologie

Par Rahman Moonzur