News Environnement : février 2013

Des textiles photovoltaïques

Des scientifiques du Centre de Recherche sur les Matériaux de l’Université technique de Brno [1] travaillent à l’élaboration de textiles photovoltaïques. Ces recherches s’inscrivent dans le cadre d’un projet pilote qui vise à développer, à l’échelle européenne, une industrie capable de produire des textiles générant de l’électricité.

A la base de l’idée : les matériaux intelligents. Ces matériaux sont capables de modifier leurs propriétés physiques en réponse à des stimuli extérieurs. Dans le cas des textiles photovoltaïques, il s’agit de polymères qui peuvent se comporter comme des semi-conducteurs et trouvent, de fait, de nombreuses applications en électronique.

Solubles dans les pâtes et les encres, ces polymères peuvent être appliqués aux textiles selon les techniques classiques d’impression. Des cellules photovoltaïques, des capteurs ou d’autres éléments électroniques peuvent être intégrés au tissu, sans qu’il ne perde ses caractéristiques. Pour l’heure, il n’est pas question de mettre de tels textiles au lave-linge mais les chercheurs espèrent, à terme, trouver un moyen de les rendre résistants à l’épreuve des lavages machine.

L’enjeu lié au développement de la technologie est majeur d’autant que le nombre d’applications que l’on peut y trouver n’a pour limite que la variété de tissus que l’on peut produire : une veste qui permettrait de recharger son téléphone portable, une sacoche à ordinateur portable qui ferait office de chargeur, des rideaux ou encore des tenues militaires qui permettrait de générer de l’électricité… Les constructeurs automobile se disent aussi très intéressés.

L’un des principaux inconvénients de ces textiles photovoltaïques reste leur durée due vie, qui ne dépasse pas deux ans. Mais les chercheurs ont bon espoir que les avancées technologiques en la matière permettront de rallonger considérablement celle-ci.

Source : www.bulletins-electroniques.com

Le projet EcoGrid à Bornholm désigné comme l’un des plus prometteurs au monde

L »île de Bornholm, a été choisie pour héberger le projet européen EcoGrid. Ce test grandeur nature est un prototype de réseau de distribution d’électricité « intelligent » basé sur les énergies renouvelables mais surtout capable de s’autoréguler en utilisant les logiques de marchés comme la loi de l’offre et de la demande.

Le but est à terme de créer un système à la fois fiable et durable basé sur les énergies renouvelables. Le projet est actuellement finalisé et la phase de démonstration, qui devrait durer de 2 à 3 ans, est en préparation. Celle-ci impliquera quelques 2000 utilisateurs, résidentiels et commerciaux (sur un total de 28000 habitants) qui testeront donc un système de demande flexible basé sur des indicateurs de prix variant en temps réel.

Le projet a récemment été selectionné pour faire partie de la liste des 10 nominés du Sustania Award [2] parmi une liste de 100 projets identifiés comme importants pour la promotion du développement durable mais a surtout reçu le label EEGI (European Electricity Grid Initiative) lui ouvrant la voie à de nouvelles aides européennes.

Source : www.bulletins-electroniques.com

90 % moins d’énergie pour produire du silicium ?

La société norvégienne DYNATEC et l’Institut de Technologie de l’Energie (IFE) développent depuis deux ans un concept de production de silicium qui pourrait révolutionner l’industrie du solaire photovoltaïque.

La production de silicium polycristallin utilise aujourd’hui majoritairement le procédé de dépôt chimique en phase vapeur (chemical vapor deposition – CVD). Ce type de réacteur, développé par Siemens dans les années 50 (et d’ailleurs également appelé « réacteur Siemens »), représente plus de 80 % de la production mondiale de silicium polycristallin aujourd’hui. Cette méthode consiste à évaporer un gaz contenant du silicium (silane), et donc à le surchauffer (650° – 1100°), pour précipiter le silicium sous forme solide. Il est également nécessaire de refroidir les parois du réacteur pour empêcher les dépôts indésirables. Tout cela engendre une consommation d’énergie très importante. « C’est comme mettre un chauffage chauffé à blanc dans un congélateur ! », dit Werner Filtvedt, qui coordonne le projet à l’IFE.

Le réacteur développé par DYNATEC et l’IFE permettrait de consommer 90% moins d’énergie pour produire la même quantité de silicium. La différence avec un réacteur classique est que le dépôt a lieu à l’intérieur d’une chambre chauffée de l’extérieur, et non sur une surface chauffée dans une chambre dont les parois sont refroidies à l’eau. Cela permet de limiter les pertes de chaleur. Les chercheurs semblent également avoir corrigé un problème avec les gaz dans le réacteur. Des gaz de centrifugation pressent le silane contre la paroi chaude du réacteur, où le silicium est précipité. Cela évite que la réaction se produise dans le volume du réacteur, ce qui produit beaucoup plus de poussière de silice, poussière qui n’est ensuite pas utilisée dans la production cellules solaires.

La prochaine étape du projet, supporté par le Conseil Norvégien de la Recherche (RCN) [6], est la construction d’un réacteur à pleine échelle, qui pourrait débuter cette année ou l’année prochaine.

Source : www.bulletins-electroniques.com

Publié par Pierre THOUVEREZ

News Informatique : février 2013

Le gouvernement japonais organise son premier concours de « Hacking »

Le 3 février, s’est tenu à Tokyo le premier concours de Hacking organisé par le gouvernement japonais.

Dans le but de renforcer les protections contre les cyberattaques, le Japon souhaite augmenter le nombre d’experts en sécurité informatique, nombre qui selon Masahiro Uemura (officiel du Ministère de l’Economie, du Commerce et de l’Industrie) interviewé par NHK, serait en déclin. M. Uemura a aussi expliqué que ce type de concours était très courant dans de nombreux pays et qu’ils permettraient de développer un pôle japonais d’experts en sécurité informatique.

En septembre 2012, le Japon avait subi de nombreuses attaques visant des sites web du gouvernement japonais ainsi que des universités, des banques et des hôpitaux. Ces attaques faisaient suite à un nouvel épisode du conflit politique entre la Chine et le Japon à propos des îles Senkaku/Diaoyu, revendiquées par les deux pays L’implication de la Chine dans ces attaques n’a cependant pas pu être prouvée. Il est important de rappeler qu’au 3ème trimestre 2012, selon un récent rapport d’Akamai Technologies, un tiers des cyberattaques dans le monde émanaient de Chine.

Les concours de Hacking sont une grande première au Japon. La peur que ces concours encouragent la cybercriminalité en avait fait, jusque récemment, un sujet tabou. Ce premier événement réunissait neuf équipes ayant remporté des concours régionaux du Japon. Les épreuves du concours consistaient à attaquer des entités pour en subtiliser des données et à déchiffrer des messages codés. L’équipe gagnante était constituée d’experts en sécurité travaillant à Tokyo.

L’organisation de cet événement inédit dans l’archipel devrait être le premier d’une longue série, le gouvernement japonais souhaitant renforcer sa résilience face à des attaques pouvant entraîner une paralysie partielle, voire totale des infrastructures publiques et privées du pays.

Sources : Bulletins électroniques

Quand les drônes menacent la vie privée des citoyens

Après avoir conquis le domaine militaire, les drones, ces aéronefs affranchis de toute présence humaine, sont en train de se populariser dans le secteur civil. Développés à l’origine pour remplacer les avions de combat classiques et ainsi limiter les pertes humaines, ces avions se sont démocratisés notamment lors de la guerre du Vietnam et se sont depuis diversifiés pour de multiples utilisations. Ils peuvent ainsi servir pour des missions d’attaque, de défense ou de surveillance. Rappelons que les drones peuvent être aussi bien guidés par une personne située au sol que par un programme de guidage automatique.

Ils peuvent embarquer de multiples équipements, bien au-delà des classiques missiles ou radars : caméras infrarouge, détecteurs de chaleurs, caméras vidéo en direct, dont des caméras haute résolution de plusieurs gigapixels pouvant traquer des personnes ou convois à plus de 6000 m d’altitude et capable de suivre jusqu’à 65 cibles simultanément. Nombres d’applications de ces caméras de surveillance sont déjà connues. Elles peuvent ainsi être utilisées en tant qu’outil de reconnaissance faciale ou d’identification de plaques d’immatriculation. Certains drônes peuvent également embarquer des brouilleurs de télécommunications, ou encore exploiter des réseaux Wi-Fi, des conversations téléphoniques ou des textos de communications personnelles sans nécessiter l’accord de l’opérateur. Jenifer Lynch, avocate et membre de l’EFF commente: « Les drônes sont des outils de surveillance puissants pouvant être utilisés pour accumuler de nombreuses données sur vous et vos activités. Le public a besoin d’en savoir plus sur les objectifs et la façon dont les drônes Predator sont utilisés pour surveiller les citoyens américains ». L’augmentation de l’utilisation des drônes aux Etats-Unis soulève donc d’importantes préoccupations sur le respect des libertés civiles et de la vie privée.

En effet, le 7 février 2013, la FAA, Administration Fédérale de l’Aviation, a communiqué une nouvelle liste d’autorisation de drônes aux Etats-Unis. Cette liste de vingt nouveaux agréments porte ainsi le nombre de structures publiques autorisées à utiliser des drônes à quatre vingt un. Une carte détaillée gérée par l’EFF est d’ailleurs disponible sur leur site, ce qui permet de se rendre compte de la densité de ces structures à travers le pays. Les structures possédant ces autorisations sont de multiples natures : du département d’Etat des Etats-Unis aux bureaux de shérifs de certains comtés, en passant par des agences gouvernementales ou des universités. Tandis que certaines organisations tentent de mettre à jour les lois pour éviter les abus, certains états tentent de limiter l’utilisation des drônes de surveillance afin d’éviter les abus. Dix-huits états se sont ainsi prononcés en faveur d’une limitation. Même histoire du côté de Charlottesville, une ville de l’Etat de Virginie qui a voté ce mois-ci une une loi anti-drone. Certains acteurs vont même jusqu’à faire machine arrière comme la ville de Seattle, dont le maire a ordonné à la police d’arrêter son programme expérimental de drônes. Même si certaines associations se montrent très proactives sur le sujet, notamment l’EFF et sa Loi sur la Liberté de l’Information, la législation reste encore très légère et l’utilisation de drônes à l’heure actuelle pourrait s’accompagner de multiples abus. En France, la CNIL s’est d’ailleurs lancé sur une réflexion autour de l’usage des drônes, de leurs enjeux ethiques et de la protection des données personnelles.

Sources : Bulletins électroniques

L’armée israélienne développe ses infrastructures de cyber-défense

Dans une base militaire proche de Tel-Aviv des soldats sont assis devant des écrans, les yeux rivés sur le code informatique qui défile, prêt à contrer les attaques. Ils font partie de l’équipe de cyber-défense israélienne et apprennent à traquer les pirates informatiques. Le Premier Ministre israélien Benjamin Netanyahu a pointé du doigt à plusieurs reprises l’Iran et ses alliés, mettant en garde contre la menace de cyber-attaques le mois dernier. L’Iran, à son tour, a accusé Israël et les Etats-Unis de vouloir saboter son programme nucléaire en 2011, alors que l’an dernier un virus fait des ravages dans les systèmes informatiques iraniens. Les réseaux gouvernementaux israéliens sont parmi les plus attaqués dans le monde, avec plusieurs dizaines de milliers d’attaques quotidiennes d’après un récent rapport du Groupe Soufan, une entreprise spécialisée dans la sécurité basée à New-York.

L’unité spécialisée israélienne a été créée alors que les menaces deviennent de plus en plus sophistiquées et fait suite à la création d’une division offensive dans les services de renseignement. Elle est comparable selon Soufan à la National Security Agency américaine en matière d’expertise technique. Le National Cyber Bureau a commencé à fonctionner au sein du cabinet du Premier ministre en Janvier 2012, le même mois où la bourse de Tel-Aviv et la société El Al Israel Airlines Ltd ont été paralysées par un hacker saoudien, qui a également publié sur le web les informations liées à des cartes de crédit de milliers d’israéliens.

Netanyahu, lors de l’inauguration le mois dernier d’un programme d’études secondaires civil dirigé par le bureau en coordination avec l’armée et un fonds privé, a félicité les élèves choisis comme participants. Il sont maintenant 150 en formation et leur nombre devrait encore augmenter. Les étudiants, de la seconde à la terminale, assistent à des cours dispensés par d’anciens soldats des services de renseignement et experts en cyber-sécurité. Comme exercice par exemple, les étudiants doivent créer un environnement virtuel dans lequel un virus est lâché. Les étudiants doivent ensuite piéger le virus, dans ce qu’on appelle un bac à sable, puis l’observer et apprendre comment il fonctionne. Seuls les meilleurs seront ensuite affectés à la cyber-défense d’Israël

Sources : Bulletins électroniques

Publié par Pierre Thouverez

Lancement en Inde du plus petit télescope spatial au monde

Lundi 25 février, centre spatial de Satish Dhawan, dans le sud-est du sous-continent indien : BRITE (BRIght Target Explorer), le plus petit télescope spatial au monde, a été lancé avec succès. BRITE, qui a vu le jour dans les cartons de l’université de Toronto, possède en effet des mensurations tout à fait surprenantes pour un satellite d’observation : c’est un cube de 20 centimètres de côté ne pesant pas plus de 7 kilos.

Ce télescope lilliputien aura pour mission principale d’observer et de mesurer les fluctuations de luminosité de certaines étoiles, la constellation d’Orion en tête. Mais il ne sera pas seul pour accomplir la tâche qui lui est assignée. BRITE sera accompagné par cinq autres nano-satellites équivalents – tous conçus par la même équipe de l’Institut des Etudes Aérospatiales de l’université de Toronto – évoluant ensemble selon un schéma de « constellation », qui pourront se focaliser simultanément sur un même groupe d’étoiles et l’observer sous différentes longueurs d’ondes.

Il ne faut pas s’attendre à des clichés incroyables de la part de ces observateurs de l’espace, car la résolution dépend avant tout du diamètre du miroir, qui est comme tout le reste… petit. Ces petits télescopes, de par leur position privilégiée dans l’espace, restent toutefois des atouts de poids comparés à leurs homologues terrestres. Ils n’auront en effet pas à se soucier des caprices de la météo, ni de l’effet obscurcissant de l’atmosphère.

Par Rahman Moonzur, journaliste scientifique

DESERTEC: utopie ou modèle d’énergie intermittente?

Il s’agit essentiellement des énergies solaires, éoliennes et hydroélectriques. Alors que le coût de production d’électricité fossile varie peu avec le site de production, le coût de production de chaque énergie électrique renouvelable peut varier de plus de 5 cents par KWh suivant la région de production alors que le transport de grandes puissances électriques à longue distance est réaliste pour un coût de l’ordre de 1 cent pour 1000 kilomètres.

Par ailleurs le stockage d’énergie électrique nécessaire pour bien utiliser les productions intermittentes telles que l’éolien et le solaire peut être assuré par Stations de Pompage (STEPs de montagne ou de bord de mer) pour un surcoût, pertes comprises, inférieur à 2 cents par KWh. On peut donc envisager des productions à coût minimal avec un stockage local de régularisation permettant une utilisation optimale de lignes de transport sur des milliers de kilomètres. Quelques exemples sont donnés ci-après.

Un des meilleurs sites de production a faible coût est l’ensemble de l’Afrique du Nord avec un potentiel très supérieur aux besoins locaux ; soit de solaire à concentration avec stockage intégré, photovoltaïque ou énergie éolienne avec stockage par STEPs (notamment en bord de mer). Le coût, stockage et bénéfice local inclus, devrait être de l’ordre de 5 cents/KWh dans une vingtaine d’années, permettant l’exportation vers l’Europe de 10 à 20 % de ses besoins d’électricité (Projet DESERTEC).

De même, plusieurs centaines de millions d’habitants du nord-ouest de l’Inde pourront être alimentés par du courant solaire du désert de Kutch à la frontière du Pakistan avec stockage par STEPs sur le Golfe de Kutch.

La production éolienne dans les zones désertes de Patagonie peut atteindre des centaines de TWh à un coût direct inférieur à 3 cents/KWh. Ce sera probablement dans 20 ou 30 ans la solution la moins coûteuse pour alimenter Buenos-Aires, et peut-être Sao Paulo. La Patagonie a aussi un potentiel marémoteur important.

La centrale hydroélectrique la plus puissante du monde sera celle d’Inga sur le Congo : elle peut produire 300 TWh/an (trois fois la production du barrage des Trois Gorges en Chine) à un coût direct inférieur à 2 cents/KWh et avec une production continue. Cette électricité exportée à 3000 kilomètres en Afrique du Sud y reviendrait à 5 cents/KWh, solution moins coûteuse que le nucléaire ou l’emploi du charbon local.
 
Beaucoup de sites de production hydroélectrique, peuvent stocker quelques jours et être ainsi associés à l’énergie solaire ou éolienne pour une production globale continue. Certains réservoirs peuvent être utilisés pour la production et comme réservoirs de STEPs.

Les centrales marémotrices peuvent avoir une production intermittente associée à une STEP ou avoir, grâce à plusieurs bassins, une production continue. La production peut être proche de la consommation (par exemple en France pour 100 TWh/an). De très bons sites d’énergie marémotrice peuvent aussi être excentrés comme au nord-ouest de l’Australie avec exportation possible vers Java, ou dans le nord est de la Sibérie (mer d’Okhotsk) avec possibilité d’exporter 200 TWh/an vers la Chine ou le Japon.

Stockage d’énergie et réseaux électriques représenteront une part importante du coût global de l’électricité d’origine renouvelable. Pour certains sites comme ci-dessus, cette part peut être supérieure à un faible coût direct de production.

Par François Lempérière
 

L’auteur

François Lempérière a participé à l’étude et/ou la réalisation de plus de 20 très grands ouvrages de Génie Civil : barrages (notamment pour le Rhône, le Rhin, le Nil et le Zambèze), centrales nucléaires, grands terrassements et ouvrages maritimes. Il a présidé pendant 15 ans les Comités Techniques sur le coût des barrages dans la Commission Internationale des Grands Barrages (C.I.G.B.).

Comprendre le débat sur la CSPE

La CSPE permet notamment de financer les installations des énergies renouvelables électriques et de la cogénération. Dans une moindre mesure, elle permet le financement de la péréquation tarifaire entre la métropole continentale et les départements d’Outre-Mer et la Corse, ainsi que le financement des tarifs sociaux de l’électricité.

La CSPE pour les énergies renouvelables est calculée par la Commission de Régulation de l’Energie (CRE) en faisant la différence entre le tarif d’achat et le prix du marché de gros de l’électricité européenne. Son prix augmente rapidement, en parallèle du développement de ces énergies. Si elle s’élevait à 750 millions en 2010, 1,1 milliards en 2011, 2,2 milliards en 2012, elle s’élève, pour 2013, à environ 3 milliards d’euros.

Le coût du marché de gros de l’électricité descend et se situe aujourd’hui à environ 50 euros le mégawattheure (€/MWh). Plus ce prix est bas et plus le prix des énergies renouvelables est important, plus le prix de la CSPE augmente.

Une dette accumulée par le photovoltaïque

À lui seul, le photovoltaïque représente 2,1 milliards de ces 3 milliards d’euros. La raison est simple : ces quatre dernières années, les professionnels du secteur ont fait des opérations à des prix extrêmement élevés, jusqu’à 600 €/MWh. En moyenne, le coût du photovoltaïque est donc de 459 €/MWh pour le photovoltaïque installé ! « Lorsque l’on parle du coût des énergies renouvelables, on parle essentiellement du coût du passé du photovoltaïque », note Philippe de la Doucette, Président de la Commission de Régulation de l’Energie.

Pour 2013, en comptabilisant les autres rôles de la CSPE, l’addition totale s’élève à 5 milliards et à environ 9,9 milliards lorsqu’on y ajoute la dette accumulée. D’ici 2018, l’Etat devra rembourser à EDF un montant total de 4,9 milliards d’eurospour cause de financement des énergies renouvelables à crédit ces dernières années.Pour étaler ce remboursement, la loi de Finances de 2011 plafonne l’augmentation de la CSPE à 3 €/MWh par an. Le montant est donc passé de 10,5 €/MWh en 2012 à 13,5 €/MWh en 2013. Pour cette année, l’augmentation représente une hausse de 2,5 % des factures, soit  environ 15 € par ménage en moyenne.

Comme le prix des énergies renouvelables baisse sensiblement, le montant de la CSPE devrait diminuer sensiblement une fois la dette remboursée. La CSPE est un sujet important du débat national sur la transition énergétique. Les professionnels essayeront de trouver un autre mode de financement des énergies renouvelables pour limiter cette hausse sur le court-terme.

Par Matthieu Combe, journaliste scientifique

Jouer par télépathie

Nostalgie quand tu nous tiens. Souvenez-vous de ce jeu mythique, Space Invaders, qui consistait à abattre des vaisseaux spatiaux. Et bien ce jeu a pris un sérieux coup de jeune. Les chercheurs du GIPSA-LAb ont réinventé le concept, baptisé Bain Invaders : la destruction des ennemis se fait par la simple pensée. Plus besoin de joystick, la seule volonté du joueur sonnera le glas de l’invasion extraterrestre. Tout ça grâce à un casque placé sur la tête qui analyse les réponses cérébrales pour interagir avec le jeu vidéo.

Interface Cerveau-Ordinateur

A l’origine de ce qui laisse entrevoir la façon de jouer de demain, il y a OpenVIBE (2005-2009), un projet ayant notamment abouti à la mise au point d’un logiciel en open-source permettant de concevoir, développer et tester facilement des interfaces cerveau-ordinateur (ICO) disponible sur http://openvibe.inria.fr. Devant les avancées technologiques de ce premier opus, la communauté scientifique n’a pas résisté à lancer une suite, OpenVIBE 2 (2009-2013). Cette fois, l’objectif était d’améliorer les capacités actuelles de ces ICO et de tester leur utilisation et leur potentiel dans le domaine des jeux vidéo.

En pratique, les ICO utilisent des dispositifs électroencéphalographiques (EEG), c’est-à-dire que des électrodes sont disposées à la surface du crâne de façon à enregistrer des signaux électriques correspondant aux échanges de courant électrique entre les neurones. L’activité électrique émise par le cerveau est analysée en temps-réel et traduite en commande pour un ordinateur. Il devient alors possible de piloter un curseur vers la droite ou la gauche simplement en imaginant les mouvements de sa main.

Mais alors, doit-on dire adieu à notre manette ? De nombreux gamers devraient être réticents à renoncer à leur pad préféré, surtout pour un casque qui, pour l’instant, n’a rien d’esthétique. Que les joueurs du monde entier se rassurent, une approche très originale proposée dans le projet a été de considérer les ICO non plus comme une technique de substitution des interfaces traditionnelles, mais plutôt comme un outil compléentaire. Ainsi, le joueur peut continuer à utiliser son joystick et en parallèle ou à quelques moments clé du jeu, il pourra mobiliser également son activité cérébrale pour jouer.

Meilleure interprétation des signaux électriques du cerveau

Le domaine du traitement du signal a aussi profité d’OpenVIBE2. Les chercheurs du CEA et du GIPSA-Lab ont trouvé de nouvelles techniques pour mieux filtrer et interpréter les signaux électriques du cerveau. Celles-ci permettent d’éliminer les bruits parasites liés aux activités musculaires (muscles faciaux, clignements des yeux, serrements de mâchoire), et d’extraire l’activité cérébrale la plus précise. Essentiel pendant le jeu car les joueurs peuvent être très mobiles.

Des innovations bluffantes, qui dépassent l’univers du jeu vidéo. En neurosciences tout d’abord, l’équipe Inserm « Dynamique Cérébrale et cognition », déjà participante d’OpenVibe, a réussi à utiliser les ICO en association avec le principe de réalité virtuelle à des fins thérapeutiques pour améliorer certains déficits neurologiques comme les troubles de l’attention : l’environnement virtuel ressemble à l’environnement réel et l’utilisateur doit se concentrer pour réaliser une tache qu’il connait dans la réalité. Pour  Jean Philippe Lachaux, directeur de recherche à l’Inserm, les bénéfices sont certains : « Associé à la réalité augmentée, le serious game a un effet rééducateur positif qui perdure au-delà de la séance d’entrainement dans l’environnement réel ».

Par Audrey Loubens

La gestion des licences logicielles, un casse-tête pour les entreprises

Selon une étude conduite par CA Technologies lors du récent sommet européen Gartner Procurement, Financial and Asset Management, 88% des entreprises européennes s’attendent à faire face à un audit de leurs licences logicielles au cours des 12 prochains mois. L’importance de ce phénomène semble en outre attestée, puisque 85% d’entre elles ont effectivement été auditées au cours de l’année passée. 

Selon cette étude, il apparaît également que les entreprises sont généralement peu rompues à la gestion de leurs licences logicielles : 76% des sondés reconnaissent rencontrer des difficultés pour identifier les logiciels inutilisés et en redistribuer les licences, et 77% pour gérer le reporting et les réponses d’audit. Cette enquête révèle également, que dans le cas où une pénalité financière de non-conformité serait avérée, 78% des entreprises interrogées craignent qu’elle ne soit élevée.

« Les pratiques actuelles d’administration des ressources informatiques sont clairement inadéquates – dans la mesure où elles exposent les entreprises à des conséquences potentiellement très désagréables, prévient Helge Scheil, Vice-Président, Service Portfolio Management EMEA, de CA Technologies. Cette enquête souligne la nécessité pour nos clients de s’équiper de technologies pour améliorer et automatiser leurs pratiques actuelles, pour simplifier leurs audits informatiques et pour optimiser la création de valeur de leurs investissements existants. ».

Cette étude démontre en outre que 43% des entreprises s’appuient sur des outils manuels ou départementaux pour suivre l’utilisation des logiciels – les exposant à des risques de surcoûts et de non conformité à leurs contrats de licence. Ces approches fragmentaires et fastidieuses handicapent la capacité des entreprises à mieux comprendre et à gérer proactivement le cycle de vie de leurs ressources technologiques, l’historique des relations avec leurs fournisseurs, les termes contractuels, les attributions de licences logicielles, les structures de coût de leurs ressources, etc.

Pour adresser ces problématiques de non conformité et de pénalités financières susceptibles d’en découler, les entreprises doivent s’équiper d’une solution globale de gestion du cycle de vie de leurs technologies de l’information, leur offrant la visibilité et le contrôle requis sur les paramètres financiers, les fournisseurs, les contrats et la gestion des licences.

Des solutions de gestion des systèmes d’information permettent aux entreprises de déterminer précisément et efficacement l’ensemble de leurs ressources disponibles et en utilisation ; d’optimiser leur distribution organisationnelle et de maximiser la productivité des activités de reporting et d’audit des licences. Une telle approche réduit notablement les risques de non conformité des licences et optimise le coût, la gestion et la distribution des ressources en évitant les achats redondants grâce à une adéquation idéale de l’offre à la demande.

Enquête conduite par CA Technologies

Publié par Pierre Thouverez

L’Europe touchée de plein fouet par l’affaire de la viande de cheval

Tout commence en Irlande du nord, où un inspecteur sanitaire détecte un problème d’étiquetage sur un stock de viandes surgelées. Une enquête est menée et établie trois mois plus tard que des steaks hachés, censés être du bœuf, contiennent en fait de la viande de cheval. Soit. La viande est tout à fait consommable, l’affaire aurait pu s’arrêter là. Mais l’invasion du cheval  ne se limite pas aux terres irlandaises.

Alertées, plusieurs usines agroalimentaires des autres pays européens procèdent à des tests ADN. C’est la stupeur. La viande de cheval est retrouvée en lieu et place de viande de bœuf dans des dizaines de plats surgelés. A ce jour, ce sont huit pays européens qui sont touchés, dont la France.
D’après l’enquête conduite par la répression des fraudes, la société Spanghero, elle-même approvisionnée par une filière roumaine, aurait revendu sciemment du cheval à la place de bœuf à la société Comigel, fabriquant de plats surgelés pour Findus. Spanghero aurait ainsi écoulé 750 tonnes de cheval, dont 550 vendues à Comigel pour la préparation de 4.5 millions de plats vendus au travers de 13 pays européens.

Hachis parmentiers, lasagnes, raviolis, pizzas, autant de plats retirés des rayons. Parmi les grands noms de l’agroalimentaire touchés aux côtés de Findus, on retrouve Picard et Nestlé.

A ce jour, trois filières ont été découvertes : la première en Irlande, la deuxième en France et la troisième au Royaume-Uni. Il se pourrait d’ailleurs que cela soit l’arbre qui cache la forêt, d’autres arnaques concernant la viande de cheval existent peut-être encore. En causes des conditions peu favorables aux chevaux. Avec la crise, de nombreux propriétaires ne peuvent plus supporter les coûts pour garder leurs animaux et doivent s’en séparer.

Or, les envoyer à l’abattoir rapporte quelques centaines d’euros alors qu’il faut payer pour les incinérer. Pas étonnant que les abattoirs s’occupent de plus en plus de chevaux, dont la viande coûte de moins en moins chère. D’après nos confrères du journal Le Monde, la viande chevaline serait vendue deux fois moins chères que celle de bœuf par un abattoir roumain. La tentation a été trop grande pour certains qui n’ont pas hésité à faire passer du cheval pour du bœuf.

Aujourd’hui encore, les autorités sanitaires roumaines viennent de découvrir un lot de 100kg de  viande de cheval étiquetée comme étant du bœuf !

Rappelons tout de même que la sécurité alimentaire n’est pas mise en cause et qu’il s’agit d’une fraude économique, non d’un scandale sanitaire. Même si la sensibilité des consommateurs européens a été ébranlée.

Par Audrey Loubens, journaliste scientifique

Revue du web #40 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • L’évènement de la semaine : une météorite se désintègre dans le ciel russe ;
  • Observer le fonctionnement d’un dispositif anti-incendie délivrant de la mousse en très grande quantité ;
  • « MarionetteBot », quelque part entre le robot, le mannequin et la marionnette ;
  • De l’eau, de l’impesanteur et un enthousiasme hors du commun : une expérience conduite par l’astronaute américain Donald Pettit ;
  • Le gadget (inutile ?) de la semaine : donner son sperme à l’aide d’un extracteur (de sperme) ;
  • Et en bonus, de l’encre au ralenti et au format 4K.

L’événement de la semaine : une météorite se désintègre dans le ciel russe

Peu de chances que vous ayez réussi à passer au travers des mailles du filet tant l’information a fait du bruit : pour débuter notre quarantième revue du web, retour sur l’événement qui a marqué l’actualité de ce week-end, à savoir la désintégration d’une météorite au-dessus de l’Oural vendredi dernier, dans la région de Tcheliabinsk, à 1500 kilomètres à l’est de Moscou. La météorite, qui s’est partiellement consumée dans les couches basses de notre atmosphère, est parvenue à atteindre la Terre sous forme de multiples fragments, heureusement tombés dans une zone à faible densité de population, proche de la frontière avec le Kazakhstan.

Le site de la NASA a rendu publiques de nouvelles informations, samedi dernier, après avoir centralisé les données enregistrées par un réseau mondial de capteurs, permettant d’estimer la taille de l’astéroïde géocroiseur ainsi que son poids avant la désintégration. D’un diamètre compris entre 15 et 17 mètres, pour une masse comprise entre 7000 et 10000 tonnes, l’objet céleste a libéré près de 500 kilotonnes d’énergie lors de son entrée dans l’atmosphère terrestre, créant une onde de choc responsable de nombreux dégâts minimes au sol – notamment des bris de verre – et blessant légèrement plus d’un millier de personnes. Les données infrasons permettent d’établir que 32,5 secondes se seraient écoulées entre l’entrée du météore dans l’atmosphère, à une vitesse de près de 18 kilomètres par seconde et sa désintégration presque totale. 

De nombreuses vidéos ont émergé sur le net, notamment en raison du grand nombre de « dash-cam » en Russie, ces caméras embarquées permettant de filmer ce qu’il se passe sur la route et de se prémunir contre les fraudes à l’assurance, pratique endémique de ce côté-ci du Caucase.

Cet événement exceptionnel n’a aucun rapport et ne doit pas être confondu avec « 2012DA14 », un astéroïde de 45 mètres de diamètre et de près de 135 000 tonnes ayant frôlé la Terre sans faire de dégâts, passant à moins de 27 000 kilomètres de notre planète. L’astéroïde avait été découvert en 2012 lors de son premier passage à plus de 2 600 000 kilomètres de la Terre.

Dispositif anti-incendie : de la mousse, et en quantité

La base aérienne américaine d’Ellsworth (dans le Dakota du sud) s’est dotée d’un dispositif anti-incendie qui n’a rien de nouveau, mais qui est particulièrement impressionnant à observer une fois déclenché. Pour faire face à l’éventualité d’un incendie, la base de l’US Air Force s’est équipée d’un système d’arrosage distribuant de la mousse, alternative souvent plus efficace que l’eau dans la lutte contre les incendies. Lors d’un incendie causé par des hydrocarbures, la mousse présente l’avantage de rester en surface, alors que l’eau – plus lourde que les hydrocarbures – finit sa course en dessous du combustible et aura donc un impact beaucoup plus limité.

Un agent émulseur et un générateur suffisent souvent à obtenir ce mélange hétérogène d’air et d’eau, parfois couplé avec d’autres produits. La quantité de mousse délivrée en deux minutes trente est saisissante, couvrant toute la surface du bâtiment d’une couche relativement épaisse, haute de plusieurs mètres.

D’autres ont opté, dans la lutte contre les incendies et pour ralentir la combustion de certains matériaux, pour les retardateurs de flammes, malgré le fait qu’ils puissent en parallèle augmenter la dangerosité, en raison de l’émanation de gaz toxiques, première cause de décès lors d’un incendie, comme nous vous en parlions déjà ici.

Mi-mannequin, mi-marionnette

United Arrows, un des nombreux magasins de prêt-à-porter présents dans la capitale japonaise, a décidé d’apporter une touche d’innovation en matière de communication directe avec le chaland. Son arme secrète : deux « MarionetteBot » (concaténation de marionnette et de robot) discrètement placées en devanture du magasin, dont la présence seule attise la curiosité des passants.

Ces « MarionetteBot » ne sont évidemment pas des mannequins ordinaires. Une caméra de type Kinect capture les mouvements d’un passant plus téméraire que les autres ; les informations sont alors traitées en temps réel de telle sorte que le mannequin puisse reproduire grossièrement les mouvements de ce dernier, à l’aide d’un réseau de seize fils entrainés par un moteur spécialement conçu pour l’occasion, comme on pourrait contrôler une marionnette.

Situé a Shibuya, l’un des quartiers les plus dynamiques de Tokyo et considéré comme le cœur de la mode de la mégalopole japonaise, nul doute que la présence des deux mannequins aura un impact direct… sur la densité de chalands présents sur le trottoir devant le magasin.

De l’eau dans l’espace

L’astronaute américain Donald Pettit, ingénieur en chimie au civil, est l’un des rares brillants chanceux s’étant retrouvé autour de la Terre à bord de la Station Spatiale Internationale (ISS). Revenu sur Terre au mois de juillet de l’année dernière, il avait pris la très bonne habitude de partager avec le grand public quelques-unes de ses expériences réalisées en orbite, lorsqu’il avait un peu de temps libre devant lui, à travers de nombreuses vidéos qu’il postait assez régulièrement en ligne (nous vous présentions déjà l’une de ses expériences ici.

Les expériences de physique conduites par Donald Pettit concernent le plus souvent le comportement des fluides en impesanteur, et prennent souvent l’allure de jeux tant l’enthousiasme de l’astronaute semble insatiable et sincère, enthousiasme d’ailleurs pour le moins communicatif. Dans la vidéo qui suit, notre ingénieur en chimie s’amuse à étudier le comportement d’un fluide en impesanteur (en l’occurrence, de l’eau) après lui avoir appliqué une force créée par une seringue remplie d’air. Il devient possible d’admirer, entre autres exemples, l’effet combiné des ondes de surface (qui se propagent en surface) avec les ondes de volume (qui elles, se propagent au cœur de la sphère).

Le gadget (inutile ?) de la semaine : donner son sperme à l’aide d’un extracteur (de sperme)

Pour conclure cette quarantième Revue du web, nous allons devoir aller jusqu’en Chine pour débusquer le gadget (inutile ?) de la semaine. Quelques hôpitaux chinois se sont lancés dans une aventure pour le moins surprenante, en ayant la bonne idée d’introduire un nouveau type de machine dans leur enceinte : un extracteur de sperme, pour aider les donneurs et pour effectuer la « récolte ».

Selon le réseau social Weibo, plateforme très populaire en Chine, l’un de ces extracteurs aurait été installé dans un hôpital de Nanjing (Nankin), capitale de la province du Jiangsu située à environ 300 kilomètres de Shanghai. La machine, aux couleurs « engageantes » – une savante combinaison de blanc, de gris et de rose – dispose d’un embout massant imprimant un mouvement de va et vient, ainsi qu’un mouvement de succion, pour faire grimper la température et faciliter la collecte. L’embout serait ajustable à la taille requise par l’utilisateur. Il est possible de modifier la rapidité, la fréquence, l’amplitude voire même la température du dispositif pour un confort optimal.

Le robot est également équipé d’un petit écran, placé sur le dessus de l’extracteur, dont le but est tout simplement de stimuler le donneur et de « l’aider » dans le long et difficile processus d’extraction. Ce robot extracteur aurait déjà été utilisé par des patients atteint de stérilité, ayant des difficultés à récolter leur sperme de manière plus traditionnelle, selon le directeur du service d’urologie de l’hôpital central de Zhengzhou, dans le Henan. Cette machine est disponible à la vente en ligne pour la modique somme de 2800 dollars, le site mettant en avant la « sensation de confort qu’elle procure au patient ».

Bonus : de l’encre au ralenti… et au format 4K

En bonus cette semaine, voici une vidéo mise en ligne sur Youtube par un internaute, vidéo vous offrant la possibilité d’être vue au format 4K. On peut y voir la valse hypnotique de différentes encres liquides, se mêlant et s’entremêlant en une danse des plus sensuelles. Le format 4K est un format d’image numérique, utilisé principalement dans le domaine du cinéma numérique, dont la définition est environ quatre fois supérieure à celle du HD 1080p (elle offre une résolution de 3840 par 2160 pixels, ce qui correspond à un ratio 16/9).

On compte près de 2033 % de pixels en plus qu’une télévision standard, et 326 % de pixels en plus qu’une télévision HD. Pour profiter de cette vidéo au format 4K, il suffit de modifier la qualité dans les paramètres du lecteur, et de passer au format « original ». Petite astuce : il vous faut aussi, bien évidemment, un écran 4K pour pouvoir regarder cette vidéo dans ce format, sinon vous devrez probablement vous contenter d’un « maigre » 1080p.

Par Rahman Moonzur, journaliste scientifique

 

Trop froid, trop chaud, les gaz ne savent plus où donner de l’atome

Cela valait bien un article dans Science. Après le jeune astrophysicien de 15 ans qui vient contrer Einstein en découvrant que les galaxies ne se déplacent pas comme prévu, c’est au tour de Boltzmann d’être malmené. Des chercheurs de l’université Ludwig-Maximilian et du Max Planck Institut ont réussi à créer un gaz à une température théoriquement en dessous du zéro absolu.

Pour rappel, il n’existe pas de température négative car par définition, la température reflète l’agitation des atomes. La plus faible agitation est l’immobilité totale, c’est le zéro absolu. Alors comment faire « plus froid » ? Là encore, petit rappel de physique. La distribution de Boltzmann permet de connaitre l’état d’une particule donnée et son énergie. Elle dépend de la température et de l’état des autres particules. Les chercheurs ont en fait créé un état contraire à ce qui existe habituellement, c’est-à-dire une majorité de particules avec une faible énergie et une minorité excitée. Les scientifiques munichois ont inversé ce ratio en faisant basculer brutalement les particules les plus immobiles dans un état très excité, rendant les particules les plus excités majoritaires. La distribution de Boltzmann ainsi inversée entraîne de facto une température absolue négative, en théorie.

Cette astuce pourrait bien être un début dans l’étude de l’énergie noire. Pour des températures inférieures au zéro absolu, la pression devient négative et les atomes s’attirent, sans pour autant s’effondrer sur eux-mêmes. Les chercheurs espèrent y voir une première explication au fait que notre univers lui non plus, ne s’effondre pas sur lui-même.

Par Audrey Loubens, journaliste scientifique

L’avenir du fil électrique : auto-cicatrisation et extensibilité

Une équipe de chercheurs américains s’est récemment échinée à améliorer l’un des éléments les plus essentiel de l’électronique moderne, composant électrotechnique servant au transport de l’électricité, à savoir, le fil électrique.

La trivialité supposée du fil électrique prend en effet du plomb dans l’aile avec les travaux de l’équipe dirigée par Michael Dickey, laissant ainsi entrevoir le futur du fil électrique : il sera extensible, et il aura surtout des propriétés auto-cicatrisantes.

Les chercheurs ont tout d’abord créé de minuscules canaux (appelés « canaux microfluides ») en passant à de nombreuses reprises un fil dans un polymère auto-cicatrisant, disponible sur le marché.

C’est en remplissant ces canaux par un alliage métallique de gallium et d’indium à l’état liquide qu’ils parvinrent à créer un fil électrique « liquide », lové dans une gaine de polymère extensible. Puisque le fil est liquide, il peut s’étirer aisément, de concert avec sa gaine.

Lorsque le fil est coupé, le métal liquide s’oxyde et forme alors, dans un premier temps, une pellicule suffisamment résistante pour prévenir tout risque de fuite de l’alliage hors de son couffin de polymère.

Une fois les deux extrémités du fil remises bout à bout, l’alliage liquide d’indium et de gallium se reconnecte et reforme le fil liquide, en même temps que la gaine polymère cicatrise, et ce à température ambiante.

Ces qualités laissent présager une utilisation de ce fil auto-cicatrisant dans des environnements difficiles et exposés à de très fortes contraintes.

Par Moonzur Rahman, journaliste scientifique

TEPCO publie plus de 2000 clichés inédits de Fukushima

Vendredi 11 mars, 14h46 (heure locale), la terre tremble au Japon. Un séisme de magnitude 9 vient de secouer l’archipel, séisme dont l’épicentre se trouve à 130 kilomètres au large de Sendai et à 370 kilomètres de la capitale Ce tremblement de terre est suivi d’un tsunami dévastateur (une vague allant jusqu’à 10 mètres de haut par endroit), et de son habituelle cohorte de répliques.

La suite des événements appartient désormais à l’histoire : plus de 18 000 morts (pour la plus grande partie à cause du tsunami), plusieurs centaines de milliers de Japonais déplacés, un accident nucléaire classé niveau 7, une catastrophe écologique et sanitaire sans précédents, une reconstruction au coût exorbitant et une prise de conscience mondiale sur les risques du nucléaire.

La gestion de la catastrophe par l’exploitant de la centrale, la Tokyo Electric Power Company (TEPCO) avait été sévèrement critiquée par les observateurs internationaux, ne laissant dans un premier temps filtrer que peu d’informations. La compagnie – désormais nationalisée en raison du coût vertigineux de l’accident nucléaire – s’est pourtant enfin décidée à publier plus de 2000 clichés saisissants, pris lors du premier mois ayant suivi le début de la catastrophe, laissant entrevoir des scènes apocalyptiques de bâtiments dévastés, de salles inondées…

Près de deux ans plus tard, de nombreuses inquiétudes subsistent encore, notamment concernant la piscine du réacteur numéro 4, qualifiée par certains spécialistes de véritable bombe à retardement.

Pour consulter toutes les photos :
http://photo.tepco.co.jp/en/date/2013/201302-e/130201-01e.html

Par Rahman Moonzur, journaliste scientifique

Des ondes ultrasonores pour tout savoir des combustibles nucléaires

« En une seule mesure, contre deux habituellement, nous sommes capables de déterminer la valeur du module d’élasticité  d’un combustible nucléaire irradié » explique Didier Laux, Maître de Conférences à  l’Institut d’Electronique du Sud, (CNRS/Université de Montpellier 2). Voilà l’enjeu, réussir à connaitre les propriétés mécaniques d’un matériau radioactif, de façon à prévoir l’évolution des ses propriétés tout au long de son utilisation dans un réacteur nucléaire, et ce à l’échelle micrométrique.

Pour réussir cette mesure, les chercheurs de l’équipe Micro et RhéoAcoustique de l’Institut d’Electronique du Sud ont adapté un microscope acoustique haute fréquence aux contraintes et difficultés de travailler sur un matériau hautement radioactif. Il a donc fallu modifier l’ensemble de l’instrument : l’électronique, le capteur, le traitement du signal ainsi que la mécanique. Tout d’abord, le capteur acoustique  a été blindé. Celui  utilisé est fait de silice de très grande pureté dans laquelle une petite cavité hémisphérique a été creusée pour servir de lentille. Un liquide placé à l’intérieur évite l’effet miroir induit par les différences d’indice.

Puis toute l’électronique a été déportée à plus de dix mètres de distance, au-delà du mur protecteur composé de quelques mètres de bétons ainsi que de  verre plombé,  séparant le combustible de l’opérateur. Evidemment, l’ensemble du dispositif est télécommandé. « Nous avons beaucoup travaillé sur le traitement du signal car les radiations génèrent énormément de parasites » précise Gilles Despaux Professeur à l’Institut d’Electronique du Sud.

Une fois l’ensemble du dispositif résistant à la radioactivité, les scientifiques peuvent réaliser leurs mesures. Celles-ci s’effectuent en deux temps : détermination de la position du capteur puis mesure du module d’élasticité. « Nous effectuons une image acoustique de la surface ou de la sous-surface. Cela nous permet de repérer la position des fissures et de placer le capteur à un endroit sans fissure, avec une précision d’une dizaine de micromètres. » détaille Gilles Despaux. L’utilisation de la haute fréquence (jusqu’à 200MHz) permet effectivement d’atteindre une telle résolution micrométrique.

Pour réaliser l’image, le capteur se déplace par rapport à l’objet, l’image est ensuite reconstituée point par point. La mesure du module élastique prend à peine quelques secondes, tandis que l’image demande quelques minutes.

Ainsi, grâce à ce microscope acoustique adapté à la radioactivité, il est désormais possible d’accéder aux propriétés mécaniques d’un matériau  hautement  radioactif en une seule mesure et en toute sécurité.

Par Audrey Loubens, journaliste scientifique

Barack Obama appelle au développement des énergies renouvelables et du gaz naturel

Barack Obama a invité le Congrès américain à encourager le développement de technologies permettant d’extraire et brûler le gaz naturel de manière optimale, technologies qui contribueront à « l’indépendance énergétique » des USA.

Il a proposé qu’une partie des revenus du secteur gazier et pétrolier puissent alimenter un fond de sécurité énergétique  dont le rôle sera d’encourager les technologies permettant que les voitures et les camions puissent rouler sans pétrole, c’est-à-dire les motorisations fonctionnant au gaz naturel ou avec de l’électricité.

Le Chef de l’état veut qu’émergent des solutions basées sur l’économie de marché, mais a souligné qu’un cadre réglementaire approprié était nécessaire pour paver le chemin, d’où son appel au Congrès.

Rhone Resch, le Président de l’Association américaine des Industries de l’énergie solaire (SEIA) a déclaré que le discours de Barack Obama était parfaitement en phase avec la vision de l’association. « L’énergie est la base du système économique de la nation, donc il est cohérent de mettre l’accent sur les énergies propres pour renforcer l’économie ».

Et il a ajouté : « Nous encourageons plus particulièrement notre Président à ce que les USA restent un leader en matière d’innovation liées aux énergies propres. Nous devons veiller à ne pas nous faire dépasser par d’autres nations du monde dans le contexte d’un basculement mondial vers les énergies à zéro émission comme le solaire ».

Barack Obama a également annoncé le lancement des négociations entre les États-Unis et l’Union européenne dans la perspective de créer la plus grande zone de libre-échange du monde.

Par Olivier Danielo

Greenpeace propose sa transition énergétique

Le scénario de Greenpeace prévoit une sortie du nucléaire dès 2031, une baisse des émissions de gaz à effet de serre de 80 à 95 %, une diminution de 63 % de la demande en énergie primaire et de 52 % en énergie finale d’ici 2050 par rapport à 2011. L’ONG affirme que ce véritable virage ne coûtera pas plus cher que la trajectoire actuelle.

De plus, pour respecter ses engagements d’une baisse de la part de l’électricité d’origine nucléaire de 75 % à 50 % en 2025, l’organisation est formelle : le président François Hollande doit fermer au moins 10 réacteurs avant la fin de son mandat actuel.

Pour parvenir à ces résultats, l’organisation environnementale mise, à l’instar du scénario négaWatt, sur le triptyque « efficacité énergétique, sobriété et développement massif des énergies renouvelables ». 

Les économies d’énergie font les deux tiers du travail

Les économies d’énergies sont réalisées par l’efficacité et la sobriété énergétique, grâce, d’une part, aux transferts d’usage vers les modes les plus efficaces et renouvelables (notamment pour le chauffage), d’autre part grâce à une évolution vers une organisation de l’espace public et commun plus sobre. 

En résumé, cela suppose : rénovation thermique, isolation des bâtiments, diminution des véhicules individuels au profit des transports en commun et des modes de transports doux. Cela passe aussi par la lutte contre l’étalement urbain et le rapprochement des bureaux, des lieux de loisirs, de services et des commerces vers les zones d’habitation. Le scénario requiert aussi l’abandon du chauffage électrique ou au fioul, au profit du chauffage solaire pour l’eau chaude sanitaire, et la géothermie ou la biomasse pour le chauffage des bâtiments.

Une grande partie de l’électricité économisée grâce à ces différents leviers est réallouée au développement du transport électrique. Ces transferts d’usage font que l’évolution de la consommation électrique reste très modérée, passant de 424 TWh en 2009 à près de 409 TWh en 2050. En revanche, ils permettent une baisse de la demande de pointe de 25 % en 20 ans, de 102 GW en 2012 à 74 GW en 2035. 

L’éolien et le solaire remplacent le nucléaire

Dans ce scénario de transition énergétique, les énergies renouvelables représentent 84 % de l’énergie primaire consommée et 92 % de l’énergie finale en 2050.  Greenpeace prévoit un déploiement rapide de l’éolien et du solaire, puisque ces deux énergies représentent dès 2025 près de 41 % de l’électricité produite. En 2050, les renouvelables produisent 98 % de l’électricité en France, leur puissance installée s’élève à 189 GW.

Cette évolution s’accompagne de celle des réseaux de transport et de distribution, du développement des interconnexions avec les réseaux européens, des moyens de stockage (par exemple STEP, gaz de synthèse) et de la cogénération chaleur/électricité.

Une analyse économique poussée

Greenpeace a estimé les investissements nécessaires à réaliser dans le système de production électrique pour son scénario de transition énergétique et les a comparé à un scénario de référence qui «  renforce la production électronucléaire, maintient des niveaux de consommation énergétique élevés et échoue à réduire suffisamment les émissions de gaz à effet de serre, avec une réduction de 49 % en 2050 par rapport  1990 », précise le rapport. Dans les deux cas, les investissements sont estimés à environ 490 milliards d’euros entre 2011 et 2050. 

En revanche, au fur et à mesure que les énergies renouvelables se développent et que la part des énergies traditionnelles diminue, les dépenses liées à l’importation de pétrole, charbon, gaz et uranium diminuent drastiquement dans le cas de la transition énergétique. Aujourd’hui, les besoins en énergie primaire de la France reposent à 91 % sur des ressources fossiles ou fissiles, qui sont importées à 100 % pour l’uranium et le charbon, 99 % pour le gaz et 98 % pour le pétrole. Dans ces conditions, la facture des importations énergétiques s’élevait à près de 61,4 milliards d’euros pour l’année 2011, ce qui représente 88 % du déficit commercial national. Entre 2011 et 2050, le taux d’indépendance du secteur électrique passe de seulement 10 % (principalement grâce à l’électricité hydraulique) à plus de 95 % en 2050 dans le scénario de transition.

Si la part élevée des énergies renouvelables de la transition augmente légèrement le coût de production de l’électricité jusqu’en 2030 comparé au scénario de référence, les différences s’amenuisent avec le temps. Ainsi, en 2050, la production d’un kWh coûte 0,2 centimes d’euros de moins dans le scénario de transition par rapport au scénario de référence. Les analystes arrivent tout simplement à cette conclusion en prenant en compte l’évolution du prix du CO2, l’augmentation du prix des ressources conventionnelles et des technologies nucléaires et la baisse des coûts de production pour les renouvelables. 

Pour faire ses calculs, l’organisation a utilisé un prix du baril de brut de 93 € jusqu’en 2020 et 126 € entre 2020 et 2050. On ne pourra donc pas lui reprocher de surévaluer le prix futur du pétrole. De même, elle utilise pour le gaz un prix qui passe progressivement de 6,55 € par gigajoule (GJ) en 2010 à 19,89 €/GJ en 2050. Toutes les hypothèses sont clairement mentionnées dans le rapport et sont consultables en ligne.

« Greenpeace prouve avec ce scénario que la transition énergétique, vers une France libérée de sa dépendance aux énergies fossiles et fissiles, est non seulement techniquement possible, mais qu’elle est de plus rentable économiquement, comparée à la trajectoire actuelle. » conclut Cyrille Cormier, chargé de campagne énergie climat au sein de l’organisation.

Par Matthieu Combe

 

A lire également dans les bases documentaires :

Pour une filière industrielle d’économie circulaire

797 millions de tonnes de matières ont été consommées par l’économie française en 2009 et 138 millions de tonnes de déchets ménagers et industriels ont été produites en France en 2010. Pour modifier notre système de production, les entreprises ont donc un  rôle important à jouer. L’Agence de l’Environnement et de la Maîtrise de l’Energie (ADEME) travaille à différents niveaux pour les accompagner. Elle soutient notamment l’innovation qui permettra de trouver de nouvelles solutions et de développer une véritable filière industrielle de l’économie circulaire.

L’évolution  de notre économie, d’un modèle basé sur le processus linéaire « extraire-fabriquer-jeter » dans un contexte de ressources de plus en plus limitées, vers un modèle circulaire qui vise à concevoir les déchets comme de véritables matières premières, représente une immense opportunité d’innovation pour les entreprises. Cette évolution passera par une utilisation plus efficace des ressources non renouvelables, des processus industriels plus propres, la généralisation de l’éco-conception, la transformation des déchets en ressources et la baisse des déchets ultimes au strict minimum.

Que fait concrètement l’ADEME ?

Pour faire émerger des solutions innovantes dans le domaine de l’économie circulaire, l’ADEME a lancé trois appels à manifestations d’intérêt (AMI), dans le cadre du Programme d’Investissements d’Avenir :

  • « Collecte, tri, recyclage et valorisation des déchets » : cet AMI cherche à développer de nouvelles solutions de réutilisation, de recyclage et de valorisation, notamment à travers la conception de nouvelles matières faites à partir de déchets ;

  • « Solutions innovantes de dépollution et de valorisation des sites et des sédiments » : cet AMI vise l’émergence d’une offre française compétitive en la matière ;

  • « Biens et services éco-conçus et écologie industrielle » : cet AMI cherche à développer une offre solide en matière d’éco-conception et d’écologie industrielle. 

Les lauréats de ces trois AMI seront dévoilés cette année De plus, l’ADEME va lancer en 2013 un nouvel AMI pour renforcer la compétitivité de l’offre industrielle française en matière de tri et de recyclage. Il couvrira l’ensemble des activités économiques du traitement des déchets, de leur pré-collecte à leur valorisation.

La réduction des déchets, préalable au développement de l’économie circulaire

En attendant les résultats de ces AMI, les entreprises peuvent d’ores et déjà se préparer en réduisant leur production de déchets. La gestion des déchets est propre à chaque entreprise, l’approche de réduction doit donc se faire au cas par cas. C’est pour cette raison que l’ADEME a imaginé l’expérimentation « Entreprises témoins ». Celle-ci a permis, dans 50 entreprises, d’étudier la mise en place de 88 actions grâce à l’accompagnement d’un expert de l’ADEME pendant un an.

Ces actions visaient à réduire à la source la production de déchets, améliorer la séparation à la source et le tri en interne et trouver de nouvelles filières externes de recyclage. L’ensemble des actions mises en place a permis de réaliser 1,5 millions d’euros d’économies pérennes au bout d’un an. D’autres actions sont actuellement à l’étude pour permettre de nouvelles économies. Si les premiers résultats sont encourageants, le nombre d’entreprises réellement investies dans le processus demeure faible. 

Pour continuer dans sa lancée et convaincre les entreprises réfractaires, l’ADEME a lancé deux nouveaux appels à candidatures. Ces nouvelles entreprises témoins serviront à calculer le vrai coût des déchets et prouver que la réduction et le recyclage de ses déchets est un investissement rentable. Ces projets consistent à appliquer une nouvelle méthode de comptabilité pour mieux identifier les pertes et les priorités de réduction. Ils permettront de calculer la rentabilité des investissements de réduction et de recyclage à la source. Les premiers résultats de ces deux opérations seront publiés en juin 2013. 

Par Matthieu Combe, journaliste scientifique

 

A découvrir dans les bases documentaires :

  • Ecologie industrielle

Mettre en œuvre une démarche écoresponsable : objectifs, méthodes et exemples
Écologie industrielle : gestion des matières premières secondaires dans le métabolisme territorial – illustrations

  • Traitement innovant des sols

Traitement des sols et nappes par oxydation chimique in situ

  • Des exemples de valorisation des déchets

La R&D au service de l’industrialisation d’une filière de valorisation des déchets – Cas du département R&D d’Aliapur
L’industrialisation d’une filière, la fabrication d’un métier : cas de la valorisation des pneus usagés en France
 

L’essentiel de REACH 1/2 (février)

Plateforme Classification & Etiquetage

31/01/2013
L’ECHA a lancé le 31 janvier 2013 la Platform C&L qui consiste en un forum de discussion en ligne où les auteurs des notifications de classifications et les déclarants de REACH peuvent se mettre d’accord sur la classification et l’étiquetage de leur substance. Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/echa-launches-the-classification-and-labelling-platform
http://echa.europa.eu/information-on-chemicals/cl-inventory/cl-platform

Mise à jour du registre d’intention des substances SVHC

04/02/2013
L’ECHA a mis à jour le registre d’intention des substances SVHC avec l’ajout de deux nouvelles substances :

  • Benzo[def]chrysene (Benzo[a]pyrene) (N° CAS : 50-32-8 et N° CE : 200-028-5) (Benzo[a]pyrene et toutes les substances contenant du benzo[a]pyrene à des concentrations supérieure ou égal à 0,01 % en poids).
  • Cadmium sulphide (N° CAS : 1306-23-6  et N° CE : 215-147-8)

Plus d’informations sur : http://echa.europa.eu/registry-of-current-svhc-intentions

Révision du règlement REACH

05/02/2013
La Commission Européenne a publié son rapport concernant la révision du règlement REACH. Elle a conclu que REACH répond à tous les objectifs qui à ce jour peuvent être évalués. Certains besoins d’ajustements ont été identifiés, mais pour l’intérêt des parties prenantes, la Commission ne propose aucune modification au dispositif REACH actuel. Plus d’informations sur :
http://echa.europa.eu/fr/view-article/-/journal_content/title/reach-review-supports-echas-strategic-objectives
Rapport de la Commission Européenne :
http://ec.europa.eu/enterprise/sectors/chemicals/documents/reach/review2012/index_en.htm

L’ECHA plus présent en ligne

06/02/2013
L’ECHA s’est créé un compte sur twitter @EU_ECHA lui permettant de « twitter » des informations sur les consultations publiques, les nouvelles alertes, les évènements et les mises à jour de son site web.

http://twitter.com/EU_ECHA

Nouvelle consultation publique pour la classification et l’étiquetage harmonisé de substances

06/02/2013
L’ECHA sollicite des commentaires sur de nouvelles propositions de classification et d’étiquetage harmonisés (CLH) pour un pesticide et une substance utilisée dans l’industrie :  le 1,2-époxybutane (N°CE 203-438-2 et N°CAS 106-88-7) et le sulfoxaflor (N°CAS 946578-00-3). Les consultations publiques sont ouvertes pendant 45 jours et prendront fin le 25 mars 2013. Plus d’informations sur :
http://echa.europa.eu/fr/view-article/-/journal_content/title/clh-public-consultations-on-a-new-insecticide-and-an-industrial-chemical
Pour accéder aux consultations :
http://echa.europa.eu/harmonised-classification-and-labelling-consultation

Prochains webinars organisés par l’ECHA

Les prochains webinars organisés par l’ECHA auront lieu les 25 février et 5 mars sur la soumission du dossier d’enregistrement REACH (deadline du 31 mai 2013). Plus d’informations sur : http://echa.europa.eu/web/guest/support/training-material/webinars

Rapport sur la sécurité chimique

11/02/2013
L’ECHA lance un nouveau plug-in pour le chargement du rapport sur la sécurité chimique. Avec cette nouvelle version, les déclarants sont en mesure d’intégrer directement leurs informations à partir de l’outil d’évaluation de la sécurité chimique et ainsi créer facilement le rapport sur la sécurité chimique. Pour tirer le meilleur parti de cette mise à jour du plug-in, l’ECHA recommande d’utiliser Chesar pour préparer les évaluations de la sécurité chimique.
Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/create-the-full-chemical-safety-report-with-the-new-iuclid-csr-plug-in

Attention : certaines substances n’ont pas de déclarant principal pour l’enregistrement de 2013

11/02/2013
L’ECHA a publié, le 11 février, la liste des substances qui doivent être enregistrées en mai 2013, et pour lesquelles aucun déclarant principal ne s’est fait connaître. L’ECHA invite les déclarants et les utilisateurs en aval à clarifier cette liste. Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/is-your-substance-no-longer-to-be-registered-in-2013-

Un nouvel outil pour aider les déclarants à améliorer la qualité de leur dossier d’enregistrement maintenant disponible

11/02/2013
L’ECHA a lancé l’Assistant Qualité Dossier pour aider les déclarants à détecter les incohérences  potentielles de leurs dossiers d’enregistrement. Les déclarants sont invités à faire usage de cet outil pour les mises à jour de leurs dossiers ou pour vérifier de nouveaux dossiers avant de les soumettre à l’Agence afin d’améliorer la qualité des enregistrements REACH. Plus d’informations sur :
http://echa.europa.eu/view-article/-/journal_content/title/new-tool-to-support-registrants-in-improving-dossier-quality-now-available

Les définitions des biocides maintenant disponibles dans la base de données de l’ECHA

11/02/2013
ECHA-term a été mis à jour avec près de 50 définitions scientifiques liées au nouveau Règlement sur les produits biocides, qui entrera en vigueur en septembre 2013. Les utilisateurs pourront également trouver 31 autres substances extrêmement préoccupantes extraites de la liste des substances candidates et 37 nouveaux termes (document d’orientation de l’ECHA et autres documents administratifs). Les recherches peuvent être faites soit par le terme exact, soit en parcourant la liste alphabétique disponible dans les 22 langues de l’UE. La base de données sera mise à jour afin d’inclure la terminologie PIC à un stade ultérieur. La base de données est disponible sur :
http://echa.cdt.europa.eu/SearchByQueryLoad.do?method=load

Conseils pour les déclarants et les utilisateurs en aval

11/02/2013
La brochure – conseils pour les déclarants et les utilisateurs en aval sur l’évaluation des substances est disponible en 23 langues européennes, y compris croate. Il aide les entreprises à mieux comprendre leurs rôles et responsabilités dans le processus d’évaluation. Plus d’information sur :
http://www.echa.europa.eu/documents/10162/13628/sub_eval_under_reach_leaflet_fr.pdf

ECHA reçoit les mises à jour des dossiers intermédiaires et annonce de nouvelles mesures de suivi

13/02/2013
Les lettres envoyées aux déclarants d’intermédiaires, sur la base d’un screening de ces dossiers, à l’automne 2012, a conduit à des résultats prometteurs. L’Agence a reçu près de 1 900 mises à jour dont 39 sont mises à jour en homologations complètes. Pour les dossiers non mis à jour, l’ECHA assurera un suivi avec des mesures réglementaires.

Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/echa-receives-updates-for-intermediate-dossiers-and-announces-further-follow-up-actions

Reach : des modifications sont apportées à l’annexe sur la restriction de substances dangereuses

13/02/2013
Dans un règlement du 13 février 2013 de la Commission européenne, des modifications sont apportées à l’annexe XVII du règlement Reach. Le règlement apporte des modifications concernant la fabrication, la mise sur le marché et l’emploi des fibres d’amiante. Le terme de « produits » est remplacé par les termes « articles » et « mélanges », afin de couvrir les mêmes éléments que la directive de 1976 à l’origine du règlement Reach.

Le texte étend par ailleurs à la mise sur le marché, les dérogations prévues pour les peintures utilisées pour la restauration et l’entretien des œuvres d’art, des bâtiments historiques et leur intérieur. La production, la mise sur le marché et l’utilisation des paraffines chlorés à chaîne courte (PCCC) étant désormais interdites par un autre règlement, elles sont supprimées du règlement Reach. Plus d’informations sur :
http://www.actu-environnement.com/ae/news/reach-modifications-annexe-restriction-substances-dangereuses-17814.php4#xtor=ES-6
Règlement du 13 février 2013 :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:043:0024:0027:FR:PDF

 

 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Revue du web #39 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • – Comprendre simplement le fonctionnement d’une serrure à goupilles (et comment fonctionne le crochetage d’une serrure) grâce a deux animations plutôt bien réalisées ;
  • – Ultra Tech International Inc a mis en ligne une vidéo – depuis devenue virale – pour promouvoir son revêtement super-hydrophobe et oléophobe : « Ultra Ever Dry » ;
  • – Plonger une bille de nickel incandescente, cette fois-ci dans de l’eau chaude, pour illustrer l’effet Leidenfrost ;
  • – Le gadget (inutile ?) de la semaine : « Vomiting Larry », ou comment faire avancer la science par le vomi ;
  • – Enfin, en bonus, une chaise au design plus que surprenant.

Crocheter une serrure ? Un jeu d’enfant !

Pour débuter cette trente-neuvième Revue du Web, voici deux animations illustrant le fonctionnement d’une serrure : la première nous montre d’abord le fonctionnement d’une serrure communément appelée « à goupilles » (le type de serrure le plus conventionnel aujourd’hui), lorsque la clé est introduite dans la fente. La seconde, sur le même principe, illustre plutôt comment crocheter une serrure à goupilles, à l’aide d’un crochet et d’un entraîneur.

Le principe de la serrure à goupilles trouverait ses racines dans l’Égypte antique, avec des serrures utilisant des goupilles de bois qu’il fallait soulever à la hauteur nécessaire pour pouvoir ouvrir la porte. Une classique serrure à goupilles moderne fonctionne sur le même principe : le cylindre de la serrure est percé de trous perpendiculaires au chemin parcouru par la clé, chacun laissant coulisser un piston. A chacun des trous du cylindre correspond un trou dans le barillet de la serrure, contenant un ressort hélicoïdal, un chasse-goupille et la goupille elle-même. Lorsque la clé correspondant à la serrure est introduite, elle repousse les chasse-goupilles de tailles différentes, qui vont chacun appuyer sur leur goupille et la positionner à la bonne hauteur.

 

 

 

Pour le crochetage, il suffit de réussir à aligner les goupilles à la bonne hauteur à l’aide du crochet, alors qu’on exerce un mouvement de rotation dans le sens de l’ouverture avec l’entraîneur.

 

 

 

Du point de vue de la législation française, il n’est pas interdit de posséder les outils nécessaires au crochetage, le crochetage lui-même n’étant pas interdit. Seul l’usage du crochetage peut tomber sous le coup de la loi, selon l’article 132-73 du code pénal : « L’effraction consiste dans le forcement, la dégradation ou la destruction de tout dispositif de fermeture ou de toute espèce de clôture. Est assimilé à l’effraction l’usage de fausses clefs, de clefs indûment obtenues ou de tout instrument pouvant être frauduleusement employé pour actionner un dispositif de fermeture sans le forcer ni le dégrader ».

 

Revêtement super-hydrophobe et oléophobe : « Ultra Ever Dry »

La société américaine Ultra Tech International Inc. a développé un revêtement super-hydrophobe et oléophobe dont la vidéo de présentation est tellement prometteuse qu’elle est rapidement devenue virale. Basés à Jacksonville, en Floride, les Américains sont loin d’être les premiers sur le créneau du revêtement super-hydrophobe, mais ils semblent bien décidés à se faire connaître rapidement et à supplanter leurs concurrents. Les revêtements traités par « Ultra Ever Dry » devenus super-hydrophobes et oléophobes, semblent repousser avec aisance aussi bien l’eau et l’huile que la boue ou encore le béton humide.

L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également efficace pour lutter contre la corrosion.

 

 

 

Plonger une bille de nickel incandescente dans l’eau (suite) :

Nous vous parlions la semaine dernière, dans notre Revue du web #38, d’une expérience réalisée par un internaute illustrant à merveille un effet bien connu des scientifiques, à savoir l’effet Leidenfrost – du nom du premier chercheur à l’avoir décrit, l’Allemand Johann Gottlob Leidenfrost. Pour ce faire, une bille de nickel chauffée jusqu’à en devenir incandescente était plongée dans une tasse remplie d’eau froide, vaporisant l’eau qui l’entoure et créant une « chape » de vapeur autour de la bille.

Décidé à aller plus loin, notre internaute renouvelle l’expérience en plongeant une bille de nickel incandescente – dont le diamètre est cette fois-ci sensiblement plus grand – dans un verre d’eau chaude. Le principe est le même mais la réaction dure plus longtemps, l’eau chaude diminuant légèrement l’échange de chaleur et la réserve calorifique de la bille de nickel étant plus grande due à son diamètre plus élevé. Le métal rougi vaporise instantanément l’eau qui l’entoure, créant une « chape » de vapeur autour de la bille. Cet écrin de vapeur limite les échanges énergétiques entre le nickel et le reste de l’eau. Tant que la bille est suffisamment chaude pour faire bouillir et vaporiser à une vitesse suffisante l’eau qui entoure l’écrin de vapeur, l’effet est entretenu et retarde le refroidissement de la sphère métallique. Lorsque la bille n’est plus assez chaude pour renouveler assez vite la chape de vapeur, le bouclier s’effondre et laisse l’eau entrer en contact direct avec la bille, qui se refroidit très rapidement, alors que l’eau se met à bouillir violemment.

L’effet Leidenfrost s’explique assez facilement et est aisément observable en projetant des gouttes d’eau sur une plaque chauffante. En fonction de la température du support, la goutte va avoir un comportement différent : légèrement en dessous de 100°C, la goutte s’étale et s’évapore lentement ; au-dessus de 100°C, la goutte siffle en atteignant le support et s’évapore très rapidement ; lorsque le point Leidenfrost est atteint (autour de 160°C pour l’eau), la goutte ne s’évapore plus, mais glisse sur la plaque chauffante. En effet, la partie inférieure de la goutte se vaporise immédiatement, créant un film de gaz protégeant le reste de la goutte de la plaque, et assurant par la même sa suspension. La goutte peut alors rouler comme une bille et met plus de temps à s’évaporer que si la plaque était de température moins élevée.

 

 

 

En complément, une autre vidéo plus anecdotique mais au charme hypnotique, dont l’intérêt scientifique est cependant plus limité, postée par le même internaute. On y voit – toujours – une bille de nickel incandescente, qui cette fois-ci traverse un bloc de glace avec toute l’aisance que l’on peut supposer.

 

 

 

 

Le gadget (inutile ?) de la semaine : « Vomiting Larry », faire avancer la science par le vomi

Pour clore cette trente-neuvième Revue du Web, penchons-nous sur le cas de « Vomiting Larry » notre gadget (inutile ?) de la semaine, qui ne serait pourtant pas à proprement parler inutile. Réminiscence pour certains d’entre vous des joies du trop manger et du trop boire durant les fêtes de fin d’année, la vidéo ci-dessous nous présente « Vomiting Larry », la dernière arme engagée dans la lutte contre les Norovirus par les autorités britanniques. Les Norovirus, et le virus de Norwalk (virus type du genre Norovirus) sont responsables de certaines des plus virulentes épidémies de gastro-entérite à travers le monde, touchant depuis le début de l’hiver plus d’un million de personnes rien qu’au Royaume-Uni.

Pas de détour devant l’évidence : « Vomiting Larry » est un humanoïde simulateur de vomi, qui devrait pouvoir aider la communauté scientifique à analyser et à mieux comprendre les mécanismes de contagions lorsqu’une épidémie est en cours, et serait particulièrement utile dans le cas d’un Norovirus, « bestiole » pouvant vivre jusqu’à douze jours sur une surface contaminée, comme le rappelle l’agence Reuters.

Larry est essentiellement composé d’une tête de mannequin, une tête qui est généralement utilisée par les étudiants en médecine pour s’exercer à la pratique des laryngoscopies. Il possède une langue, une dentition standard constituée d’un autre matériau que celui utilisé pour la tête, ainsi qu’un ersatz d’œsophage relié à un cylindre contenant du fluide, faisant office d’estomac. Un piston déclenche la remontée du fluide, « dont le débit et la portée auraient été étudiés pour être réalistes » (sic). La pression nécessaire, de l’ordre de 800 kilopascals, fut calculée sur la quantité moyenne de fluide contenue dans un estomac humain ainsi que sur la distance à parcourir pour atteindre le sol.

Le protocole expérimental est simple : reculer dans un premier temps, puis laisser Larry vomir le fluide, composé d’eau et d’un marqueur fluorescent. Malgré la phase de nettoyage, il suffit d’éteindre la lumière pour constater que de très nombreuses particules fluorescentes sont toujours présentes un peu partout sur le lieu de l’expérience, et ce jusqu’à trois mètres de Larry, alors que seulement une vingtaine de ces particules suffisent à contaminer un adulte sain. Croisons les doigts pour que la recherche avance.

 

 

Bonus : ceci n’est pas une chaise (ordinaire)

En bonus cette semaine, nous vous présentons une vidéo se situant quelque part entre l’illusion d’optique et l’anamorphose. Le studio de design français Ibride se sert de l’illusion d’optique comme point de départ à sa nouvelle collection, laissant Benoît Convers réinterpréter librement « trois icônes de l’histoire de l’assise en dessinant des chaises qui troublent nos repères, heurtent la logique et flirtent avec l’absurde ».

Le résultat ? Une chaise au design surprenant, inversée par rapport à sa silhouette, dans le simple but de nous troubler et de parvenir à faire mentir nos sens…

 

 

Prévention : un détecteur de verglas embarqué

Cauchemar d’une majeure partie des automobilistes en hiver, la perte de contrôle du véhicule (pour aller terminer dans le décor) est souvent provoquée par un ennemi aussi dangereux que perfide, puisqu’invisible et particulièrement difficile à détecter : pas de surprise, nous parlons bien du verglas. Pour faire face à ce sérieux problème, le centre de recherche technique de Finlande (« Valtion Teknillinen Tutkimuskeskus », le VTT) est parvenu à développer un système embarqué de détection automatique de glissade, une vraie première.

Les chercheurs du centre finlandais sont partis d’un constat simple : les systèmes existants de prévention contre le verglas seraient pour le moins inopérants ou obsolètes – les capteurs embarqués de température pour une présence « probable » de verglas, ou bien les capteurs intégrés à la chaussée, trop peu nombreux et ne relayant l’information qu’aux postes de contrôle. Après plusieurs mois de gestation, les chercheurs ont finalement mis au point un système embarqué capable de détecter en amont la présence de verglas sur la chaussée.

Le fonctionnement du système élaboré par le VTT est relativement simple, et se base sur le calcul de la différence entre la vitesse de l’arbre de transmission et la vitesse réelle de l’axe de rotation des roues, permettant alors d’en déduire le niveau de friction. Lorsque cet indicateur atteint un niveau suspect, l’information est transmise au conducteur avant même qu’il n’ait senti quoi que ce soit, afin qu’il soit vigilant et qu’il puisse adapter sa conduite. Ce système devrait pouvoir s’adapter à tout type de véhicule, bien qu’il n’ait été testé que sur des poids lourds.

Crédit photo : Laza Hazen – Black Ice

Google continue d’investir dans l’éolien

Plan de com’ ou stratégie à long terme ? Si certains tergiversent encore, personne ne peut nier l’engagement de la firme pour des sources d’énergie alternative. Avec le rachat d’un nouveau parc éolien de 160 MégaWatts pour 75 millions de dollars, Google dispose désormais de dix fermes éoliennes et solaires. L’objectif affiché est de limiter l’impact environnemental et s’inscrit dans une politique de réduction des émissions de gaz à effet de serre. L’ensemble de ces parcs permet à Google de disposer de 2 GW d’électricité. Urs Hoelzle, directeur général de Google en charge des infrastructures déclarait l’année dernière : « Nous essayons de ne pas utiliser d’énergie lorsque cela n’est pas nécessaire, et d’utiliser le plus possible les énergies renouvelables, qui représentent aujourd’hui 35% de l’alimentation de nos datacenters ».

Car l’internet est une activité très consommatrice d’énergie, pour faire tourner les ordinateurs, serveurs et autres. Une énergie provenant souvent du pétrole et donc polluante. Le rapport SMART 2020 prévoyait le triplement de la consommation énergétique lié à l’internet, les TIC étant à eux seuls responsables de 2% des émissions de gaz à effet de serre. Si les grands groupes du secteur affichent leur souci de diminuer ce chiffre, tous n’investissent pas forcément dans l’énergie verte. En effet, les investisseurs privés se montrent de plus en plus méfiants vis-à-vis de ces sources d’énergies alternatives. La crise oblige à plus de prudence ce qui se traduit par un tassement des investissements dans l’énergie propre après huit années de croissance.

Apple, l’une des entreprises les plus gourmandes en charbon, a annoncé l’abandon total de cette source d’énergie d’ici un an pour trois de ses installations. Mais on ne sait pas encore par quoi elle va être remplacée. De son côté, Dell s’est engagé à baisser ses émissions de gaz à effet de serre de 40% d’ici 2015. Mais Google reste le plus engagé, puisqu’il en est à un milliards de dollars investis. Un engagement qui lui vaut d’être le numéro 1 des entreprises travaillant à lutter contre le dérèglement climatique, d’après le classement Cool IT 2012 de Greenpeace.

Par Audrey Loubens, journaliste scientifique

Découvrez les formations Techniques de L’ingénieur :

Un moteur pas plus grand qu’une molécule

On peut se demander si les scientifiques du Centre d’élaboration de matériaux et d’études structurales (CEMES, CNRS) et de l’Université d’Ohio n’ont pas abusé des meccano® quand ils étaient enfants. En tout cas, leur passion pour les jeux de construction motorisés les a conduit à repousser les limites de l’infiniment petit en construisant un moteur nanométrique. Ils ont ensuite mis au point une technique pour maîtriser la rotation du rotor, dépassant pour la première fois la taille limite inférieure pour un dispositif convertissant énergie électrique en énergie mécanique.

Le nano-moteur comporte trois parties distinctes : le stator, du ruthénium et le rotor. Le stator permet d’accrocher le moteur à une surface d’or.  A son extrémité, un atome de ruthénium sert de rotule sur laquelle se fixe le rotor moléculaire. Celui-ci compte cinq pales. Au total, la molécule- moteur comporte moins de 200 atomes mais nécessite quinze étapes pour être synthétisé. Un procédé qui a donné du fil à retordre aux chercheurs à qui il aura fallu près de 10 ans d’effort pour le mettre au point.

Mais toute cette sueur aura finalement été utile. En plaçant la molécule à une température glaciale de -268.5°C sur la surface d’or, ils réussissent à activer le mouvement des pales en délivrant des électrons via la pointe d’un microscope à effet tunnel. Ce dernier joue donc deux rôles, celui de source d’énergie et d’instrument d’observation. Le contrôle du sens de rotation se fait en choisissant la pale du rotor sur laquelle est positionnée la pointe du rotor. Cela nécessite une précision dans le pointage de l’ordre du dixième de nanomètre.

Ces travaux ont été publiés dans le numéro de janvier de Nature Nanotechnologies.

 

Par Audrey Loubens

L’éco-conception des DEEE pour le démantèlement, un enjeu majeur

Le défi majeur des fabricants reste de savoir comment s’assurer du bon démantèlement de leurs produits en fin de vie. Pour les aider, « Le guide « éco-conception » des éco-organismes DEEE Français » de Récylum, Ecologic, Eco-systèmes et ERP vient de paraître et est téléchargeable gratuitement sur le site « Eco3e ».

L’éco-conception passe par la réduction des émissions de gaz à effet de serre, des déchets et des produits dangereux, mais aussi par l’amélioration de l’efficacité énergétique, l’amélioration du recyclage, du réemploi et de la réparation des composants. Outre la réduction des impacts environnementaux, l’éco-conception est un atout permettant d’innover, de se démarquer de la concurrence et de répondre aux attentes du marché et des consommateurs.

Pour assurer une récupération maximale des éléments, métaux et composants issus des flux de déchets, il est essentiel d’adopter une démarche de recyclage Centrée-Produit, contrairement à l’approche Centrée-Matériau et métal plus simple qui est généralement appliquée. L’approche traditionnelle se concentre davantage sur les matériaux bruts donc ne s’intéresse qu’à une partie du produit. Au contraire, une approche Centrée-Produit s’intéresse au recyclage du produit dans son intégralité et implique nécessairement de réfléchir au devenir de l’ensemble de ses constituants.

Quels sont les principaux éléments entrant en ligne de mire ?

La difficulté de démontage d’un composant et donc, plus globalement, la difficulté de démontage d’un produit constitue le quotidien des professionnels. La conception pour le démantèlement apparaît alors capitale. Dès la phase de conception, il faut optimiser l’assemblage du produit pour pouvoir séparer les composants et les matériaux en fin de vie. Ils pourront alors être réparés, recyclés ou valorisés énergétiquement au moment opportun.

Pour ce faire, les règles d’or sont d’utiliser des matériaux recyclables/compatibles (voire recyclés), diminuer le nombre de matériaux différents, employer des matériaux avec des caractéristiques permettant de les séparer aisément lors du recyclage, réduire le nombre de composants, réduire le nombre de fixations utilisées et les standardiser. Il faut également concevoir des composants séparables : choisir des matériaux avec des propriétés différentes (magnétique/non magnétique, lourd/léger) pour faciliter le tri, faciliter l’accès aux composants/fixations et éviter la peinture et les revêtements/traitements de surface.

Plus simplement, l’efficacité de désassemblage est idéale lorsqu’un produit est composé d’un minimum de pièces, dont chaque composant est démontable avec un minimum de difficulté, en un minimum de temps et avec un minimum d’outils !

Des règlementations de plus en plus dures

De plus en plus restrictives, les règlementations imposent aux constructeurs de changer leurs modes de production. Il existe plusieurs textes règlementaires concernant les équipements électriques et électroniques (EEE). La plupart de ces textes sont issus du droit européen et sont transposés en droit français.

Ainsi, la Directive RoHS limite l’utilisation de six substances dangereuses de tous les nouveaux EEE mis sur le marché de l’Union européenne, qu’ils soient importés ou fabriqués dans l’Union. Les concentrations en plomb, mercure, chrome hexavalant, polybromobiphényles, polybromodiphényléthers sont limitées à 0,1% de poids de matière homogène et le cadmium à 0,01%. Cela concerne plusieurs catégories d’équipements, sauf les batteries.  Plus largement, le fameux règlement REACH cherche à limiter un grand nombre de substances chimiques et définit les applications autorisées.

De son côté, la directive ErP s’applique aux produits liés à l’énergie sur tout leur cycle de vie afin d’améliorer l’efficacité énergétique et diminuer les impacts environnementaux. Cette directive s’applique entre autres aux EEE en imposant, par exemple, des consommations maximales d’électricité à certains.

Enfin, la directive DEEE impose aux producteurs de gérer la fin de vie des EEE ménagers et professionnels mis sur le marché après le 13 août 2005. Tout producteur doit donc financer le traitement de ces déchets en fin de vie.

Comment s’assurer de l’éco-conception de ses produits ?

En tant que consommateur, il est possible de choisir les produits portant  l’« éco-label Européen », le label écologique officielle français « NF Environnement », le label écologique allemand « L’Ange Bleu », le label scandinave « The Nordic Swan », la certification « EPEAT » pour les produits informatiques originaire des Etats-Unis et le programme américain « Energy star » pour les moniteurs, ordinateurs et dispositifs de traitement de l’image. Ces labels récompensent des produits aux impacts environnementaux moindres et dont la conception est en constante amélioration.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Numériser un livre, un jeu d’enfant !

Parvenir à numériser plus de 250 pages par minute : la prouesse réalisée par le laboratoire Ishikawa Oku, situé au cœur de la capitale japonaise, a de quoi laisser pantois. Leur machine, baptisée de manière transparente « Book Flipping Scanning Auto » (BFS-Auto) est un petit bijou d’ingéniosité et de technologie. BFS-Auto est en effet capable de numériser en haute définition plus de 250 pages par minute, à partir du format original du livre ou du document, en trois étapes clés : faire défiler à grande vitesse et de manière entièrement automatique les pages du livre, reconnaissance en temps réel et en trois dimensions des pages qui défilent, et enfin restitution d’une image plane « standard », haute définition, à partir de l’image d’une page recourbée.

Faire défiler 250 pages par minute

Les chercheurs japonais derrière BFS-Auto ont dû relever deux défis de taille lors du développement du système de défilement automatique : concevoir un mécanisme ultra-rapide ne faisant pas obstruction à l’étape de numérisation, et garantir l’intégrité du document numérisé. Habituellement, le document que l’on souhaite numériser – prenons l’exemple d’un livre – est « altéré » par découpage. Les pages du livre sont donc généralement séparées de la tranche par souci de commodité, laissant le scanner numériser les pages une à une comme autant de feuilles volantes et de documents séparés, ce qui pose bien évidemment problème lorsqu’on souhaite conserver l’intégrité d’un livre fragile, rare ou précieux. Pourtant, les cerveaux du laboratoire Ishikawa Oku ont réussi à surmonter la difficulté avec brio, sans toutefois révéler les détails techniques du système de défilement automatique. Il est néanmoins possible de se faire une idée en regardant la vidéo qui suit :

 

 

Une numérisation ultra-rapide et haute définition

La deuxième étape clé est celle de la numérisation 3D haute définition des pages défilant à grande vitesse. Le système utilisé par BFS-Auto suit la déformation en trois dimensions de chacune des pages tournées, à raison de 500 fois par seconde, et utilise en temps-réel un algorithme spécialement conçu pour déterminer le meilleur moment pour une numérisation optimale. Au moment choisi, les deux appareils prennent chacun une photo de l’une des deux pages du livre grand ouvert, en haute définition (près de 400 ppi), sans manquer la moindre page et au même rythme que le défilement de celles-ci.

Restitution d’une page plane à partir d’une page recourbée

Enfin, troisième et dernier élément clé : la restitution d’une page plane à partir de la photo d’une page courbée. Le poulain du laboratoire tokyoïte possède un programme capable d’aplanir l’image déformée de chaque page, transformation également effectuée en temps réel. Chaque page est en conséquence numérisée sous sa forme « plane ». Prochaine étape, doter cette machine d’un logiciel de Reconnaissance Optique de Caractères (ROC), permettant de décrypter une image de texte imprimé ou dactylographié afin de la convertir en fichier texte ?

 

Par Moonzur Rahman

 

Découvrez les formations Techniques de l’Ingénieur :

Quel rôle donner au coût de l’énergie pour le maintien de la compétitivité ?

« Si on met en rapport le prix de l’électricité et la part de l’industrie dans l’économie, on s’aperçoit qu’il n’y a pas de corrélations directes. Ce n’est pas là où le prix de l’électricité est le plus bas que la part de l’industrie dans l’économie est la plus élevée », analyse d’entrée de jeu Robert Durdilly, Président de l’Union Française de l’Électricité. Il y a donc d’autres facteurs que l’électricité qui justifient la taille du tissu industriel d’un pays.

Sur le plan général, cette analyse est vraie. Toutefois, elle n’est plus vérifiée pour cinq secteurs industriels français, dont la part de l’électricité représente plus de 10 % de la valeur ajoutée. Il s’agit du papier, des métaux non ferreux, de la chimie minérale, de la sidérurgie et de la cimenterie. On dénombre en France entre 50 et 70 sites qualifiés d’électro-intensifs et 300 en Europe. Pour ces industries, il existe une relation directe entre la compétitivité du prix de l’électricité et la compétitivité du produit manufacturé. Par exemple, l’énergie pèse pour 30 % des coûts de revient de l’aluminium et peut monter jusqu’à 70 % pour le chlore.

Ces secteurs qui engendrent beaucoup d’emplois directs et indirects sont soumis à une compétition internationale, qui présente des modes de fonctionnement de marchés très différents. Ils financent des investissements lourds, qui nécessitent une visibilité à long-terme pour les décider et pour rester compétitifs au plan international. « Ils sont très exposés aux prix de l’énergie, ils sont dans une compétition internationale et chaque unité est un cas particulier », rappelle Pierre-Marie Abadie, Directeur de l’Energie au ministère de l’Ecologie, du Développement durable et de l’Énergie.

Exeltium, un consortium d’industries pour assurer la compétitivité

Exeltium est un consortium créé en 2006. Il regroupe 26 clients industriels pour lesquels l’électricité représente une part importante de leur coûts de revient. Pour leur donner une visibilité sur un prix de l’électricité à long-terme, le principe est de pouvoir leur donner accès à une certaine capacité de production nucléaire. Ces « blocs de production nucléaire » leur permettent d’avoir un prix fixe, financé par un investissement de départ, et un coût proportionnel, mais moins dépendant de la volatilité des prix des énergies. Depuis 2010, le consortium achète 7,5 TWh d’électricité par an sous cette forme à EDF, sur une consommation totale d’environ 30 TWh, pour un investissement initial de 2 milliards d’euros.

« Dans tous les pays, les électro-intensifs font l’objet d’un traitement spécifique pour permettre aux industriels de voir comment ils peuvent être compétitifs contre leurs concurrents placés sur d’autres marchés », rappelle Jean-Pierre Roncato, Président d’Exeltium. À court-terme, des pays peuvent, par exemple, favoriser l’accès de ces industriels aux  transports, dans des conditions particulièrement avantageuses. Pour donner la visibilité de long-terme, les pays peuvent aussi donner des accès privilégiés à un potentiel de production local, favorable en matière de coûts de production de l’électricité. Cela pourra être l’hydraulique au Brésil, le nucléaire en France, le charbon ou le gaz en Chine ou au Qatar.

Dans le cadre du débat sur la transition énergétique, il faut donc en permanence veiller à ce que ce différentiel de compétitivité soit au moins préservé, voire accentué si possible. L’approche dans tous les groupes de travail doit mettre au centre les questions de coûts et d’impacts sur l’économie. « Cette transition énergétique ne sera réussie que si elle maintient la compétitivité de la France en matière de prix de l’électricité et prix de l’énergie en général », prévoit Robert Durdilly.

Un tarif très régulé pour maintenir la compétitivité

En France, la facture d’un industriel est aujourd’hui très régulée au titre de l’Accès Régulé à l’Électricité Nucléaire Historique (Arenh), du Tarif d’Utilisation des Réseaux Publics (TURP) et des taxes. L’Arenh va évoluer en 2015. « Entre aujourd’hui et 2015, la part de la régulation de l’Arenh pour les entreprises va évoluer à la hausse ; il y aura statistiquement toujours plus de volumes d’électricité régulés par l’Arenh et toujours moins de volumes achetés sur les marchés », révèle Pierre-Marie Abadie.

Si l’on ne sait pas encore comment ce prix va évoluer dans les prochaines années, « à supposer qu’il évolue à l’inflation et compte-tenu de ces volumes en augmentation pour les industriels […], le prix va peu évoluer au titre de l’énergie », précise-t-il. Cela donne donc une certaine visibilité aux industriels.

De quelle compétitivité parle-t-on ?

La compétitivité est au cœur du débat sur la transition énergétique. Pierre-Marie Abadie souhaite toutefois différencier 3 types de compétitivité. On retrouve donc la compétitivité à long-terme, celle sur une dimension macroéconomique et celle sur une dimension microéconomique. La compétitivité de long-terme vise à décarboner l’énergie au-delà de l’électricité (qui ne représente que 22 % de l’énergie finale utilisée en France), obtenir une sécurité d’approvisionnement en  énergies fossiles et répondre au défi climatique. « Commencer au plus tôt  la transition énergétique, c’est être positionné au mieux au moment où l’on aura à être au rendez-vous du défi climatique, de la rareté des énergies fossiles et la nécessité de les focaliser là où elles sont non substituables », prévoit-il. Un enjeu primordial est d’arriver à industrialiser les technologies d’énergies renouvelables les plus prometteuses à l’horizon 2050.

La compétitivité macro-économique est liée au prix de l’énergie. Elle a des impacts majeurs sur le pouvoir d’achat, sur le revenu des entreprises et sur la compétitivité relative. Elle doit permettre de faire les choix les plus efficients pour le respect des objectifs de long-terme.

La compétitivité micro-économique vise quant à elle à faire de l’énergie un projet industriel français et européen. L’approche doit se faire filière par filière en évaluant les technologies selon les critères suivants : potentiel en termes de puissance, de coûts et de maturité, impacts environnementaux des conflits d’usage et prise en compte de la chaîne de valeur de chacune des filières. Par exemple, avec l’éolienne offshore, 50 % de la chaîne de valeur reste forcément en France. Avec les appels d’offres actuels, on peut se rapprocher des 100 %. Pour le photovoltaïque terrestre, cela reste cependant plus compliqué.

Par Matthieu Combe, journaliste scientifique

Le goût et l’odorat pour les smartphones, bientôt une réalité ?

C’est un pari osé que s’est lancé la start-up californienne : apporter le goût et l’odorat à nos smartphones. Cette ambition rentre dans le cadre de la logique des chercheurs IBM. Selon eux, l’orientation des nouvelles technologies passera par le développement des capacités sensorielles. Et ce, dans un avenir proche. D’ici cinq ans, ces appareils disposeront du goût et de l’odorat en plus de la vue et de l’ouïe déjà disponibles grâce aux micros et caméras. Pour soutenir le projet, le célèbre investisseur Vinod Khosla a mis sur le tapis 2,5 millions de dollars.

La puce mise au point serait même plus performante que le nez humain, avec ses 400 capteurs, et équivalente au flair du chien, pourvu de près de 2 000 capteurs. Les usages n’en seront que plus variés. Entre la mesure du taux d’alcoolémie ou du taux de diabète, la prévention d’une mauvaise haleine et probablement bien d’autres utilisations dédiées à la médecine ou à la cuisine, la puce devrait se révéler fort utile. Sam Khamis, le PDG d’Adamant Technologies, assure non sans humour, que l’application concernant l’halitose (haleine incommodante) devrait résoudre certains problèmes inhérents. Ajoutant au passage qu’il s’agit du « genre de choses que même son meilleur ami ne dit pas forcément ». Détecter les odeurs sera l’une des missions, mais l’analyse des ces effluves, afin de discerner une odeur parmi d’autre notamment, devrait être bien plus complexe.

La production de la puce aurait d’ores et déjà débuté au Texas. Dans la ville d’Austin plus précisément. Néanmoins il faudra patienter un ou deux ans avant que la commercialisation ne soit effective. Idem pour les applications qui accompagneront la sortie de cette nouvelle technologie ainsi que l’accessoire – périphérique relié au smartphones – rendant possible le maniement de ces applications. Le prix du périphérique oscillera entre 75 et 100 dollars.

 

Par Sébastien Tribot

Distribution de Thermoptim par Techniques de l’Ingénieur

La nouvelle version du progiciel Thermoptim inclut de nouvelles fonctionnalités :

– la possibilité d’effectuer des zooms sur l’éditeur de schémas ;

– le gestionnaire de classes externes qui permet d’ajouter ou supprimer des classes externes.

Ce progiciel constitue ainsi une boîte à outils pour l’énergétique parmi les plus polyvalentes et les moins chères du marché.

Son objectif est double : faciliter et sécuriser la modélisation des technologies de conversion de l’énergie.

Thermoptim fournit un environnement de modélisation intégrant de manière profondément interconnectée un éditeur de schémas / écran synoptique, des diagrammes interactifs, des fonctions de simulation et une méthode d’optimisation basée sur la méthode du pincement.

Son environnement graphique permet de construire visuellement des modèles de systèmes énergétiques sans écrire une seule équation, et d’obtenir des résultats extrêmement précis, qui peuvent être présentés sous des formes diverses (synoptique, diagrammes).

Disponible en sept langues, Thermoptim incorpore des fonctionnalités avancées très puissantes destinées à des utilisateurs confirmés, qui en font un outil très bien adapté pour étudier des systèmes innovants à faible impact environnemental.

Les Techniques de l’Ingénieur distribuent les trois versions Standard, Professionnelle et Industrielle du progiciel. Toutes les précisions ici.

Top 10 des entreprises porteuses de technologies émergentes

Le cabinet de veille technologique Lux Research vient de publier sa sélection des dix entreprises à surveiller en 2013.

Dispositifs photovoltaïques, véhicules électriques, carburant alternatif, biomatériaux, électronique, chimie organique ou encore traitement de l’eau, tous ces domaines sont susceptibles de connaitre de vraies révolutions technologiques dans les mois à venir. La croissance de ces secteurs repose sur la mise au point de nouvelles technologies, domptées par les ingénieurs et chercheurs pour pouvoir être industrialisées. Des innovations qui pourraient bien tout révolutionner, à condition de s’imposer dans un monde instable économiquement. C’est pourquoi Lux research a passé au crible 1 380 entreprises travaillant sur des technologies émergentes dans quinze domaines différents pour sélectionner les dix projets les plus prometteurs à cours terme, et de facto les plus attendus.

 

Voici leur classement :

 

  • Entreprise : Beta Renewables 

Secteur : carburant alternatif, matériaux biosourcés

 Leur usine de carburant à base de cellulose sera inaugurée cette année en Italie. Elle a pour objectif de transformer des sous-produits agricoles en carburant. Il s’agirait du premier procédé chimique appliqué à l’échelle industrielle. Reste à savoir si l’usine fonctionnera, son taux de production, les tarifs proposés…

Avis : favorable

 

  • Entreprise : Materials Innovation Technologies (MIT)

Secteur : matériaux avancés

La réputation du MIT n’est plus à faire. Cette année, ce sont leurs avancés dans le domaine des fibres de carbone qui sont attendues. En effet, les fibres de carbones sont très appréciées des équipementiers automobiles pour rendre leur véhicule plus léger. Néanmoins, l’essor de cet usage requiert de nouveaux développements notamment en termes de recyclage des fibres de carbone. Les travaux du MIT, acteur majeur dans ce domaine, pourraient enfin apporter des solutions aux industriels.

Avis : favorable

 

  • Entreprise : N-Solv

Secteur : Pétrole

N-Solv a développé une méthode d’extraction des hydrocarbures lourds basée sur un solvant chaud. Cette pratique est censée permettre des économies en eau et en émission de CO2. Avec son installation pilote Suncor et son associé, le géant énergétique Enbridge, N-Solv pourrait bien multiplier les partenariats.

Avis : favorable

 

  • Entreprise : Imprint Energy

Secteur : Electronique organique, imprimée et flexible

Ses batteries au zinc rechargeable fabriquées par impression affichent des performances supérieures pour un coût moindre que les technologies concurrentes, comme celle des batteries en couches minces par exeple. De plus, cette technologie pourrait déboucher sur des tissus intelligents, c’est-à-dire alimentés en énergie.

Avis : favorable

 

  • Entreprise : Phosphagenics

Secteur : Formulation et administration de médicaments

Cette société développe des patchs capables d’administrer les médicaments par voie cutanée. Son premier produit adapté aux hommes rentre en phase de tests toxicologiques cette année.

Avis : très favorable

 

  • Entreprise : Azzuro Semiconductors

Secteur : Electronique à vocation énergétique

Azzuro a débuté la production à l’échelle industrielle de substrat six pouces de nitrure de gallium sur silicium. Ceux-ci sont susceptibles de doper l’efficacité des Leds et des composants d’électronique de puissance. Ses collaborations avec Epistar et Osram Opto Semiconductors sont prometteuses.

Avis : favorable

 

  • Entreprise : Enbala Power Networks

Secteur : Bâtiments intelligents

Aux Etats-unis, cette société rémunère les industries pour limiter leur consommation énergétique. Un procédé efficace en cas de pic de consommation pour soulager le réseau et éviter un black out. Cette pratique pourrait rapidement se montrer plus efficace que le stockage d’énergie.

Avis : à surveiller

 

  • Entreprise : Boulder Ionics

Secteur : voiture électrique

Les avancées sur les électrolites utilisés dans les batteries pourrait profiter au secteur des véhicules électriques. Boulder, qui a beaucoup communiqué sur ses solutions, va devoir passer à l’acte dès cette année.

Avis : à surveiller

 

  • Entreprise : Silevo

Secteur : dispositifs solaires

Silevo affiche un rendement de ses dispositifs solaires de plus de 17%. Ce résultat est obtenu grâce à des contacts en cuivre galvanisés et une fine couche de silicium amorphe à l’intérieur des cellules photovoltaïques en silicium cristallin. Ses prévisions de production en collaboration avec des chinois indique que Silevo deviendra un concurrent sérieux de SunPower en termes de coût et de quantité produite.

Avis : favorable

 

  • Entreprise : Desalitech

Secteur : Eau

Desalitech a développé une nouvelle méthode d’osmose inverse plus efficace que celle traditionnelle. Une deuxième levée de fond en 2013 devrait lui permettre de se développer.

Avis : à surveiller

 

Par Audrey Loubens, journaliste scientifique

 

 

 

Pour aller plus loin :

Découvrez nos formations relatives aux secteurs évoqués dans cet article :

Traitements des effluents liquides

Photovoltaïque : technologies actuelles et futures générations de cellules

Mettre en oeuvre la performance énergétique

Toxicologie et écotoxicologie

Gaz de schiste, peut-on réellement s’en passer ?

En 2012, le gaz s’est échangé en moyenne à moins de 4 dollars par million de Btu (MBtu) aux Etats-Unis. En Europe, les prix varient entre 11 et 14 dollars/MBtu pendant qu’ils atteignent 16 dollars/MBtu en Asie. Il y a donc une surfacturation assez importante du prix de gros en Europe par rapport aux Etats-Unis. « Cela fait à peu près 155 milliards de dollars que nous, européens, allons surpayer en 2012 sur les prix du gaz en gros par rapport aux Etats-Unis », affirme Thierry Bros, analyste gaz naturel à la Société Générale. Cela représente 0,9% de notre PIB, ce qui est assez pour faire la différence entre une économie en croissance et une économie en récession.

Au point le plus bas, les différences de prix ont même atteint des records. Capella Festa,  analyste senior à l’Agence Internationale de l’énergie (AIE) le rappelle « Au point le plus bas des prix cette année, on a vu que le prix du gaz naturel en Europe était 5 fois supérieur à celui observé aux Etats-Unis et 8 fois supérieur au Japon à celui aux Etats-Unis ». Si la demande post-Fukushima a aspiré un énorme besoin très ponctuel de gaz vers le Japon et a engendré une importante hausse des prix en Asie, l’augmentation de la production de gaz de schiste aux Etats-Unis y a tiré les prix vers le bas. Avec ces hausses de prix en Europe, le charbon est donc devenu beaucoup plus compétitif et sa consommation a augmenté de 7% en 2011. Quand le charbon remplace le gaz naturel et le gaz de schiste !

D’une manière générale, on assiste à un rejet des énergies fossiles en Europe. Les gaz de schiste sont devenus un symbole de la lutte contre les énergies fossiles. « Lorsque l’on démonte toutes les critiques vis-à-vis de la production des gaz de schiste, elles s’appliquent  généralement à la production d’hydrocarbures à terre en général », reconnaît pourtant Bruno Courme, Directeur de Total Gas Shale Europe.

Où est-ce que se développe le gaz de schiste ?

En 2009, on estimait les ressources en gaz non conventionnel à hauteur de 20% de l’ensemble des ressources. En 2012, elles sont estimées à environ 50%, ce qui représente une hausse considérable des ressources potentielles. Au rythme de consommation actuel, les ressources en gaz pourraient assurer 135 ans de consommation supplémentaires.

« Les gaz non conventionnels représentent aujourd’hui 10 à 12% de la production mondiale. On pense que d’ici 2030, ils atteindront plus de 20%, essentiellement avec  l’augmentation de la production des gaz de schiste », affirme Bruno Courme. « La moitié de l’augmentation de l’offre de gaz viendra de sources non conventionnelles en 2035, essentiellement en provenance des Etats-Unis, de la Chine et de l’Australie », prévoit quant à elle Capella Festa, conformément aux scénarii du World Energy Outlook 2012 de l’AIE.

Le gaz conventionnel se développera-t-il ailleurs ? L’avenir de la filière devrait beaucoup dépendre de la voie choisie par les industriels. Il reste effectivement beaucoup de développement à faire sur la géologie, les infrastructures et les problématiques environnementales. Pour Thierry Bros, le message est à changer et doit jouer la transparence. « Quels sont les produits chimiques que vous allez injecter ? Comment allez-vous traiter l’eau ? Si vous ne voulez ne pas tout dire, vous n’avancerez pas », professe-t-il devant une assemblée de décideurs gaziers.

D’ores et déjà, l’ensemble des députés au Royaume-Uni souhaite autoriser l’exploration des gaz de schiste pour regagner une certaine compétitivité. Le Parlement britannique devrait pousser pour une autorisation dès mars 2013.

Il est aussi intéressant d’étudier les axes de croissance visés par les entreprises. Pour ne parler que de Total Gas Shale, l’exploration repose sur quatre axes de croissance : l’offshore profond, les huiles lourdes (Vénézuela et Canada), le  gaz naturel liquéfié et le gaz non conventionnel. Du côté des gaz de schiste, Total Gas Shale est positionné sur la production aux Etats-Unis, en Amérique du Sud, notamment en Argentine, en Chine, en Australie et en Europe (Pologne et Danemark).

La situation en Europe est très différente à celle observée aux Etats-Unis lorsqu’ils ont développé l’extraction des gaz de schiste. En effet, les américains connaissaient alors bien leur sol grâce à une expérience de plus de 40 ans dans l’extraction de gaz. Ce n’est pas le cas en France et en Europe. « Nous devons passer par une phase d’exploration que les américains n’ont pas eu à faire », rappelle Bruno Courme. « Tant que l’on n’aura pas fait des puits horizontaux, fracturés, testés sur du long terme, on ne saura pas combien on pourra produire de gaz de schiste en Europe », poursuit-il. Vu le marché actuel, même en cas d’exploitation, « il devrait y avoir assez peu d’impact sur les prix », conclut-il.

Pat Matthieu Combe, journaliste scientifique

Le Human brain project remporte le soutien de l’Europe

Le projet porté par l’Ecole Polytechnique Fédérale de Lausanne est ambitieux. Il s’agit rien de moins que de fabriquer le premier cerveau humain numérique. Alors certes, cela sera un cerveau virtuel, mais les connaissances apportées dans le domaine des neurosciences et de la santé seront bien réelles.

 Le Human Brain Project (HBP) va rassembler toutes les connaissances actuelles sur le cerveau humain afin de le reconstituer dans des modèles de simulation numériques. Evidemment, un projet d’une telle envergure fait appel à la communauté scientifique large, l’ensemble des pays européens contribuant via leurs meilleures structures. Ce sont 80 institutions de recherche qui vont collaborer sur une période de dix ans. La France participe en gérant trois axes : théorie des réseaux neuronaux (Alain Destexhe, CNRS), neurosciences cognitives (Stanislas Dehaene, Collège de France, Inserm, CEA), et aspects éthiques (Jean-Pierre Changeux, Collège de France, Institut Pasteur).

Institut Européen des Neurosciences Théoriques

Un Institut Européen des Neurosciences Théoriques sera créé exprès pour coordonner les différentes théories suggérées pour expliquer la dynamique du cerveau, les processus cognitifs et même ce qu’est la conscience. En effet, ce sont chaque années des dizaines de milliers d’articles qui sont publiés, chacun expliquant une fraction des fonctions du cerveau, que ce soit la compréhension du rôle d’un gène, du comportement électrique des neurones ou encore des maladies neurologiques. Toutes ces données doivent être assimilées, digérées et compilées par une seule entité, qui ne peut pas être humaine au vu de la masse de données. La totalité des informations récoltées alimenteront les modèles de simulations élaborés par les mathématiciens et informaticiens du HBP. Ces derniers pourront compter sur le supercalculateur Blue Gene de Lausanne.

Questions éthiques

Si certains détracteurs craignent  que le HBP ne débouche sur la création d’une conscience artificielle, ce qui pourrait poser de nombreux problèmes éthiques, le corps médical espère quand à lui des découvertes décisives sur les maladies neurologiques et l’émergence de nouveaux traitements. Mais nous n’en sommes pas là. Pour l’instant, le fait d’avoir été choisi comme l’un des deux FET Flagships (projets phares) de l’Union Européenne va doter l’Europe d’un outil inégalé pour enfin lever le voile sur le fonctionnement de notre cerveau et ses 100 milliards de neurones.

Par Audrey Loubens

L’éco-participation en question !

« Seul le maintien de ce dispositif de financement par l’éco-participation permettra aux acteurs de poursuivre la mise en place d’une filière à haute valeur environnementale et sociale », affirme Alain Grimm-Hecker, Président d’Eco-systèmes.

Quatre éco-organismes sont agrées pour gérer la collecte et le traitement des déchets électriques et électroniques ménagers. Il s’agit des généralistes Ecologic, Eco-systèmes et ERP et du spécifique aux lampes Récylum. Grâce aux éco-participations payées par les « metteurs sur le marché » d’équipements électriques et électroniques en 2011, ces éco-organismes ont été financés à hauteur de 200 M€.

L’éco-participation représente le coût de la collecte et du traitement des déchets électriques et électroniques et est intégralement reversée à un éco-organisme qui traite pour le compte des industriels les produits et déchets concernés. Le montant de la contribution est fixé par l’éco-organisme en charge du recyclage et peut varier d’un éco-organisme à un autre. Il dépend principalement de la catégorie de produits à laquelle l’équipement est rattaché.

Pourquoi cela risque-t-il de disparaître ?

La loi ne fixe aucune limite dans le temps à ces éco-contributions, mais elle prévoit pour le moment leur répercussion dans les prix de vente, avec affichage obligatoire du montant, jusqu’au 13 février 2013 seulement.

Un amendement qui permettrait la prolongation de cette répercussion automatique et intégrale des éco-contributions aux consommateurs jusqu’au 31 décembre 2019 avait été voté dans un premier temps par le Sénat mais n’a pas pu, pour des raisons de procédure, être adopté par l’Assemblée nationale. Or, le projet de loi de finances rectificatives ayant été rejeté par le Sénat, l’adoption par l’Assemblée était nécessaire pour donner force de loi au dispositif.

Sans l’éco-participation, les objectifs de recyclage des déchets d’équipements électriques et électroniques fixés par les directives européennes pourraient ne pas être atteints.

Par Matthieu Combe, journaliste scientifique