Les industriels du plastique s’intéressent (enfin) aux débris marins

Elle a pris des engagements lors de la 5ème Conférence Internationale sur les débris marins qui rassemblait les principales associations de fabricants de matières plastiques du monde à Miami en mars 2011. En décembre 2012, elle a publié un rapport d’étape pour présenter ses actions.

« Les matières plastiques n’ont évidemment pas leur place dans nos océans. Elles doivent être utilisées et réutilisées de façon responsable, pour être recyclées et valorisées énergétiquement. Ce rapport démontre la volonté de notre industrie d’imaginer des solutions collaboratives efficaces », souligne Steve Russell, Vice-Président des Plastiques de l’American Chemistry Council.

Ce rapport fait état de plus de 140 projets, en cours, réalisés ou planifiés. Il fournit des exemples d’initiatives cherchant à limiter l’accumulation des plastiques en mer. Ces initiatives sont mises en place dans certains pays et peuvent être dupliquées ailleurs.

En mars 2011, les principales associations mondiales représentant les  fabricants de matières plastiques ont signé une Déclaration Générale par laquelle elles s’engagent publiquement à combattre la pollution marine par les déchets plastiques. Elles ont identifié six axes de travail principaux. Ceux-ci se concentrent sur l’éducation, la recherche, les politiques publiques, le partage des bonnes pratiques, la collecte et le recyclage du plastique. Depuis, d’autres associations ont rejoint le mouvement. En décembre 2012, 58 associations, représentant 54 pays, étaient signataires de cette déclaration.

Le problème est-il réellement grave ?

Le problème des débris marins s’observe dans toutes les mers et océans. Le problème est particulièrement inquiétant dans les cinq grandes gyres océaniques, qui cachent des « soupes » de plastiques, selon plusieurs études. De telles gyres se situent en pleine mer et se caractérisent par des vents et des courants faibles où les courants tournent dans le sens des aiguilles d’une montre. Ce phénomène crée un vortex qui fait tourbillonner les déchets qui « passent » par là.

Ces tourbillons accumulent depuis des années des déchets plastiques venus des côtes et des fleuves. Dans leur rotation et par la force centripète, ils les entraînent et les ramènent progressivement vers leur centre. Ces gyres sont situées dans l’Atlantique Nord, l’Atlantique sud, le Pacifique Sud, l’Océan Indien et le Pacifique Nord. La plus connue et la plus grande est celle du Pacifique Nord. Communément nommée « Plaque de déchets du Pacifique nord », « septième continent » ou encore « Nouveau continent », cette plaque se forme actuellement entre les côtes d’Hawaï et de l’Amérique du Nord, à partir de millions de tonnes de détritus plastiques charriés par les courants océaniques.

Ce « continent » de déchets est constitué de macro déchets éparses (bouteilles vides, sacs, etc.), mais surtout de milliards de petits éléments pas plus grands qu’un confetti. C’est en filtrant l’eau que les scientifiques découvrent une mixture composée de petits morceaux de plastique fractionnés. Les estimations sur la taille de ce continent varient énormément car il n’est pas possible de photographier les microparticules par satellite. Il est souvent accordé que cette zone polluée du Pacifique ferait plus de 3 millions de kilomètres carrés, soit un tiers de l’Europe et plus de six fois la France pour 30 mètres d’épaisseur. Cette « soupe » totaliserait un poids de 3,5 millions de tonnes.

La pollution est donc généralisée. En raison de la faible taille des fragments, il apparaît peu probable de pouvoir nettoyer les océans de cette pollution. Les industriels doivent donc agir rapidement pour empêcher toute aggravation du problème. Leur engagement sera-t-il à la hauteur des enjeux ? La question reste posée.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

ALMA a son propre supercalculateur

134 millions de processeurs, 17 quadrillons d’opérations par seconde, des valeurs vertigineuses en accord avec le défi technique relevé une fois de plus par la science : faire fonctionner un supercalculateur à 5.000 mètres d’altitude ! Le défi n’est pas aisé. Tout d’abord la superpuissance de calcul est exceptionnelle puisqu’ à ce jour le numéro 1 des supercalculateurs, d’après le TOP 500 des superordinateurs,  atteint 17,59 quadrillons d’opérations par seconde, à peine plus. Dommage que cette bête informatique, d’usage spécifique, ne puisse pas concourir avec ceux du TOP 500 ! Mais il n’en fallait pas moins pour combiner et discriminer en temps réel le signal provenant de chacune des 66 antennes qui composent le télescope. Ce traitement de données d’une efficacité hors norme est une condition sine qua non pour que le fonctionnement de chaque antenne s’intègre avec celui  des autres antennes du réseau. C’est ainsi que le réseau peut travailler comme une seule entité, le télescope ALMA.

De plus, l’Europe a fortement contribué à cette réussite en fournissant le système de filtrage digital. Il s’agit d’un jeu de 550 cartes de circuits imprimés de filtres digitaux high tech. Cocorico. Une fois n’est pas coutume, la France tient l’un des premiers rôles puisque ce jeu de cartes a été conçu et fabriqué à l’université de Bordeaux. Une « french touch’ » qui permet de décomposer la lumière captée par ALMA en 32 fois plus de bandes de longueurs d’onde qu’à l’origine. « Le fait d’avoir pu largement améliorer cette flexibilité est fantastique. Cela nous permet de décomposer le spectre de la lumière vue par ALMA et ainsi nous pouvons nous concentrer sur les longueurs d’onde précises nécessaires à une observation donnée, que ce soit pour cartographier les molécules de gaz dans un nuage de formation stellaire ou pour chercher quelques-unes des galaxies les plus distantes de l’univers », s’enthousiasme Alain Baudry de l’Université de Bordeaux, le responsable européen du corrélateur d’ALMA.

Une fois ce premier défi relevé avec brio, il a fallu adapter les composants aux conditions extrêmes imposées par l’altitude. Les locaux techniques abritant ce superordinateur campent à 5.000 mètres. La raréfaction de l’air ne permet donc pas de refroidir la machine comme habituellement et il faut doubler le niveau normal de ventilation pour assurer le bon fonctionnement de la machine gourmande de 140 kW. De plus, impossible d’utiliser des disques durs à tête rotative car leur têtes de lecture ont besoin d’un coussin d’air pour éviter toute friction.

Enfin, pour tenir compte de l’activité sismique du site, l’ordinateur a été conçu pour résister à d’éventuels tremblements de terre.

Avec l’installation de ce supercalculateur qui justifie l’emploi de tous les superlatifs, ALMA est quasiment achevé et devrait être inauguré au mois de mars 2013.

Par Audrey Loubens, journaliste scientifique

 

Du nouveau sur les origines de notre système solaire grâce aux cristaux d’olivine

Cette découverte suggère qu’un système planétaire identique au nôtre peut se former autour d’étoiles très différentes de notre soleil. Les résultats de cette étude ont été publiés dans Nature le 4 octobre 2012.

Les résultats s’appuient sur l’étude de cristaux d’olivine du disque de poussière qui gravite autour de la jeune étoile Beta Pictoris, située à 63 années lumière de la Terre. Ce disque a été créé suite à des milliers de collisions entre de petits corps de glace (type comètes) gravitant autour de l’étoile. En étudiant le disque de poussière à partir du télescope spatial Herschel de l’Agence Spatiale Européenne (European Spatial Agency, ESA), les astronomes y ont découvert des cristaux d’olivine dont la composition est extrêmement proche de ceux que l’on retrouve dans les comètes de notre système solaire. Cela sous-entend que les cristaux ont été formés dans des circonstances similaires. Il s’agit d’une découverte surprenante dans la mesure où la masse de Beta Pictoris est 1.5 fois supérieure à celle de notre soleil, qu’elle est huit fois plus lumineuse que lui et que son système solaire est encore en formation.

Les cristaux d’olivine se créent lors de la formation d’un système planétaire. Le manteau terrestre contient une quantité importante de ce minéral qui joue un rôle essentiel dans la formation de la pierre. A partir de la composition des cristaux d’olivine, il est donc possible de déterminer les conditions de formation d’une planète. Or, les olivines du disque de poussière de Beta Pictoris sont riches en magnésium, tout comme les olivines des comètes qui sillonnent notre système solaire.

Il semble que ces cristaux riches en magnésium découverts par le télescope Herschel ne proviennent pas de collisions d’astéroïdes (ou de corps spatiaux plus gros) mais de collisions entre de nombreuses comètes de glace ressemblant de près aux corps spatiaux les plus primitifs de notre système solaire.

« Avec le spectromètre infrarouge du télescope Herschel, les astronomes peuvent observer des systèmes planétaires extrêmement éloignés », explique Rens Waters. « Herschel a pu mesurer de façon très précise la faible lumière infrarouge émise par le disque de poussière autour de Beta Pictoris. Ainsi, nous avons pu relever les « empreintes digitales » des olivines de ces poussières. C’est fascinant d’être capable de déduire des informations sur les origines de notre système solaire à partir de la quantité de fer que contiennent ces olivines. Cela montre qu’après tout, notre système solaire n’est pas si unique qu’on le pense. »

Source : www.bulletins-electroniques.com

Ces nanocubes se jouent de la lumière

Ils sont carrés, font 75 nm de côté, en or ou en argent. Ce sont ? Des nanocubes capables de modifier la couleur de la surface sur laquelle ils sont déposés. Ceux utilisés par les chercheurs de l’Institut Pascal (CNRS/Université Clermont-Ferrand 2/Institut français de mécanique avancée/Ecole nationale supérieure de chimie de Clermont-Ferrand) en collaboration avec l’équipe de David Smith, de Duke University, agissent comme des antennes, formant un ensemble de résonateurs fonctionnant tous à la même fréquence. Disposés sur une surface métallique, ils en contrôlent l’absorption.

Pour maîtriser ce phénomène, il suffit de recouvrir la surface métallique d’un film diélectrique de quelques nanomètres d’épaisseur et d’y déposer les nanocubes. La couleur absorbée par l’ensemble des nanocubes dépend de leur taille mais aussi  de l’épaisseur du diélectrique, c’est-à-dire de la distance entre la surface et les cubes. Cette épaisseur doit être inférieure à 50 nm. Elle va servir de cavité résonante, la lumière incidente y étant capturée. C’est ainsi qu’une surface d’or peut apparaitre verte.

Pour que cela fonctionne, il suffit que les nanocubes soient en métal. S’il est facile de les fabriquer en argent ou en or, il serait aussi possible d’utiliser du tungstène, ce qui permettrait de résister à des hautes températures.

Mais combien de cubes faut-il pour changer la couleur d’une surface ? « En théorie, il suffit de recouvrir 3% de la surface avec des nanocubes. Dans notre expérience, nos cubes n’étant pas géométriquement parfaits, nous avons dû en recouvrir 17% » chiffre Antoine Moreau, maître de conférences à l’Université Blaise Pascal de Clermont-Ferrand. Une fois fabriqués, les cubes sont en solution. Il suffit alors de placer une goutte sur le film métallique, le dépôt se faisant par en dessous. Plus la goutte reste longtemps, plus la quantité de cubes déposés est importante. De plus, les nanocubes sont naturellement chargés et se repoussent entre eux de manière à ne pas se coller ni s’agglomérer.

D’autres chercheurs se sont déjà attachés à modifier la couleur de l’or, mais l’approche était différente puisqu’ils utilisaient la gravure de petits motifs à la surface pour contrôler la lumière émise. Dans ce cas, les applications envisagées étaient de nature esthétique et se limitaient principalement à la joaillerie. Avec ces nanocubes, une infime variation dans son environnement provoque une variation de couleur. Cela en fait une méthode adaptée à la détection : changement de température, présence d’une molécule cible…On pourrait aussi imaginer ces cubes comme des encres dynamique dont on contrôle la couleur via un champ électrique.

Et pourquoi pas en faire des sources d’électricité : en chauffant la surface, les nanocubes vont émettre à leur fréquence de résonance et donc une seule couleur à laquelle on peut adapter un panneau photovoltaïque placé en face. « Le soleil ou de la combustion d’essence pourraient permettre
à ces cubes de rayonner. On pourrait ainsi avoir un nouveau type de centrale solaire, ou de groupe électrogène (sans pièce mécanique). » précise Antoine Moreau.

En attendant le développement de ces applications, le procédé est en voie d’être breveté.

 

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Rendez-vous annuel des ingénieurs, scientifiques et enseignants !

La 17ème édition de NIDays France aura lieu le 11 février 2014 au CNIT, à La Défense, près de Paris, avec l’objectif d’accueillir 1200 visiteurs, et un invité de renom : le prospectiviste Joël de ROSNAY qui viendra exposer les enjeux et défis de la civilisation du numérique.

 

La journée s’articulera autour d’une exposition permanente de produits et solutions complémentaires proposés par les partenaires de NI (70 stands), avec des sessions de conférences et de travaux pratiques en parallèle.

·         55 conférences dédiées aux techniques de développement, à la surveillance et au contrôle embarqué, à l’instrumentation et au test automatique, aux mesures par capteurs, à l’industrie 4.0, aux radiofréquences, à l’aéronautique et la défense, à l’automobile et le au ferroviaire, à l’enseignement, à l’énergie, à la recherche… avec de nombreuses présentations d’applications.

·         19 sessions de TP dédiées à la programmation graphique LabVIEW, au test temps réel, à l’acquisition de données, à la conception de systèmes de contrôle/commande et embarqués, à la radio définie par logiciel, au dépouillement de données, au test automatique PXI…

 

 

Coupes de robotique et concours des meilleures applications

Les Coupes de robotique viendront animer l’édition 2014, avec 12 équipes de lycée s’affrontant pour la Coupe NXT (basée sur le kit LEGO MINDSTORMS NXT) et 12 équipes d’écoles supérieures pour la Coupe RIO (basée sur le Starter Kit Robotics de NI).

 

Autre temps fort de NIDays, la sixième édition du concours des meilleures applications de NI donnera lieu à l’affichage de posters et à une remise des prix en conférence plénière.

La journée se terminera par un cocktail qui sera l’occasion pour les participants d’échanger leurs expériences dans une ambiance festive.

 

Détail du programme et inscriptions sur www.nidays.fr

Invention : le parapluie anti-vent !

Des incidents de ce type arrivent plus de 900 millions de fois chaque année, conduisant à la perte de 240.000 tonnes de métal, assez pour construire plus de 20 fois la tour Eiffel. Le problème va peut être bientôt disparaitre : un parapluie réalisé entièrement en polypropylène, 100% recyclable et capable de résister à des rafales de vent sans se déformer a été mis au point. Le projet s’appelle Ginkgo et a été financé par la Fondation Polytechnique de Milan.

Les deux inventeurs de Ginkgo sont l’ingénieur Gianluca Savalli et le designer Federico Venturi qui ont eu cette idée à l’occasion d’un énième parapluie cassé par le vent. « Nous nous somme dit : pourquoi ne pas penser à un parapluie simple, mais résistant et durable ? De là est partie notre envie d’examiner les points faibles des parapluies traditionnels, qui ont un cycle de vie très bref et qui utilisent des matériaux comme le polyester et le fer difficile à éliminer », raconte Federico Venturi.

Le fer est le polyester ont été remplacés par un matériau unique extrêmement flexible et robuste, le polypropylène, qui garantit l’élasticité des éléments les plus sollicités (structure, bouton de vérouillage…), points de faiblesse des parapluies traditionnels. Même le design a été simplifié, en diminuant de 80% les éléments composant un parapluie traditionnel, augmentant la robustesse du parapluie et facilitant la production et l’assemblage.

Le résultat est un parapluie robuste et flexible, facile à produire et capable de résister aux vents les plus violents. Le produit a déjà convaincu le jury d’Idea to Product Competition Italy 2011, la compétition pour le développement de nouveaux produits organisée par la Fondation Polytechnique de Milan qui a financé le projet à hauteur de 2.000 euros. Ginkgo a également été semi-finaliste du James Dyson Award, prestigieux prix international de design dont le but est de mettre en valeur des objets non seulement beau, mais aussi fonctionnels, et utiles dans la vie quotidienne.

A Savalli et Venturi, s’est ajouté Marco Righi, ingénieur qui s’occupe de développement commercial dans le but de créer une startup qui commercialisera le nouveau parapluie.

Source : www.bulletins-electroniques.com

L’essentiel de REACH 1/2 (Janvier)

 

Nouvelle consultation pour éviter les tests sur les animaux

 

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. La substance concernée est le N-(cyclohexylthio) phthalimide (N°CAS : 17796-82-6, N°CE : 241-774-1). Les informations relatives à cette substance sont à soumettre pour le 31 janvier 2013.

Plus d’information sur echa.europa.eu/information

 

 

Nouvel arrêté TMD

 

L’arrêté du 12 décembre 2012 modifie l’arrêté du 29 mai 2009 relatif aux transports de marchandises dangereuses par voies terrestres (dit « arrêté TMD ») et transpose les dispositions de la directive 2012/45/UE du 3 décembre 2012. Il est paru au Journal Officiel de la République Française le 20 décembre 2012. Les modifications sont applicables depuis le 1er janvier 2013 mais les dispositions de l’arrêté TMD en vigueur avant cette date peuvent continuer d’être appliquées jusqu’au 30 juin 2013.

Le texte est consultable sur legifrance.gouv.fr/

Voici les principales modifications : 

L’article 6-2 prévoit des prélèvements d’échantillons à des fins d’analyse. Les contrôles seront réalisés par les DREAL. Cet article permet de répondre aux prescriptions du règlement REACH.

Le titre de l’article 7 est modifié pour être plus proche de l’ADR et devient « déclaration des événements impliquant des matières dangereuses » au lieu de « déclaration d’incidents et d’accidents ». Le délai d’envoi du rapport d’accident sera de 1 mois après que l’accident se soit produit au lieu de 2 mois actuellement.

Avant tout remplissage, le caractère alimentaire des matières dangereuses devra être signalé au transporteur par l’expéditeur dans les documents associés au transport.

Un nouveau paragraphe à l’article 9 a été ajouté pour clarifier les problèmes d’interprétation d’une disposition spéciale (la TU 35 qui concerne notamment les bitumes chauds).

Un nouveau certificat de formation sécurisé est mis en place. Les procédures de délivrance sont précisées à l’annexe I (art. 16 § 4 de l’arrêté). 

L’article 19 de l’arrêté TMD précise que les organismes agréés pour organiser les formations et examens ou pour accorder les certificats, agréments ou homologations sont désignés, soit par arrêté publié au JO, soit par décision de l’Autorité de sûreté nucléaire (ASN). Les demandes sont adressées, soit au ministre chargé des transports terrestres de matières dangereuses, soit à l’ASN.

Parmi les autres changements, il est à noter l’introduction de nouveaux numéros ONU (numéro d’identification à 4 chiffres des marchandises dont le transport est réglementé), l’introduction des produits chimiques sous pression. D’autres modifications portent sur les emballages ou encore sur les mentions obligatoires du document de transport.

 

 

Déclaration des substances à l’état nanoparticulaire

 

01/01/2013

Un avis du ministère de l’écologie modifié par l’avis du 10/01/2012 appelle l’attention des entreprises produisant, distribuant et important des substances à l’état nanoparticulaire et des laboratoires de recherche, en application de l’arrêté du 6 août 2012. Il rappelle la mise en place du dispositif de déclaration obligatoire des quantités et des usages des substances à l’état nanoparticulaire produites, distribuées ou importées en France entré en vigueur le 1er janvier 2013. Sauf cas de dérogation, la déclaration est adressée par voie électronique au ministère de l’écologie et à l’Anses, par le biais de ce site: www.r-nano.fr

legifrance.gouv.fr/affichTexte.do;jsessionid=?cidTexte

Avis modificatif du 10/01/2012

legifrance.gouv.fr/affichTexte.do?cidTexte

 

 

Communication d’information sur les substances contenues dans les articles

 

03/01/2013

Un avis pour la mise en œuvre de REACH est paru au Journal officiel de la République française. Cet avis est destiné aux opérateurs économiques (fabricants, importateurs d’articles) sur leur obligation de communiquer des informations sur les substances présentes sur la liste candidate et contenues dans leurs articles. Il fait suite à la publication par l’ECHA de la liste actualisée des substances candidates à l’autorisation dite « liste candidate ») qui comporte désormais 138 substances.

L’avis est consultable sur .legifrance.gouv.fr/affichTexte.do?cidTexte

 

 

Avis sur la 2ème échéance d’enregistrement REACH

 

05/01/2013

Un avis pour l’échéance d’enregistrement du 31 mai 2013 (règlement REACH) est paru au Journal officiel de la République française. Cet avis est destiné aux opérateurs économiques (producteurs, importateurs) sur leur obligation d’enregistrement de leurs substances. Pour une même substance, les producteurs/importateurs doivent déposer un dossier d’enregistrement conjoint pour certaines parties et un dossier d’enregistrement individuel.

Plus d’information sur legifrance.gouv.fr/jopdf/

 

 

Conférences en ligne organisées par l’ECHA

 

La première conférence en ligne organisée par l’ECHA en 2013 aura lieu le lundi 28 janvier et portera sur « Comment réaliser son dossier d’enregistrement en conformité avec REACH – 2nde partie ». D’autres conférences sont d’ores et déjà programmées. Plus d’informations sur http://echa.europa.eu/web/guest/support/training-material/webinars

 

 

Modifications de guides

 

Les modifications apportées à certains guides (guide pour l’annexe V, guide pour le format des scénarios d’exposition…) ont été traduites en 22 langues.

Plus d’information sur echa.europa.eu/guidance-documents/guidance-on-reach et 
echa.europa.eu/guidance-documents/

 

 

Inscriptions pour la 8ème journée des parties prenantes

 

L’ECHA vient d’ouvrir les inscriptions pour la 8ème journée des parties prenantes qui se tiendra à Helsinki le 26 mars. Inscription ICI, plus d’informations sur echa.europa.eu/view-article/-/journal_content/

 

 

Journée sur les biocides

 

L’ECHA organise sa 1ère journée sur les Biocides le 25 Juin 2013 à Helsinki en prévision de la date d’application du Règlement sur les produits biocides (BPR) le 1er Septembre 2013. L’événement vise à donner des informations sur la nouvelle réglementation et sensibiliser les entreprises aux outils et ressources disponibles, et les aider à s’acquitter de leurs obligations.

Plus d’information sur echa.europa.eu/view-article/-/journal_content/

 

 

Appel à contribution sur l’utilisation du cadmium dans les plastiques

 

14/01/2013

Suite à une demande de la Commission Européenne, l’ECHA examine l’étendue de la restriction du cadmium dans les plastiques, qui est actuellement limitée à 16 matières plastiques spécifiques figurant à l’annexe XVII de REACH, à toutes les matières plastiques. L’ECHA demande des éléments pour aider à identifier l’impact de cette étendue potentielle. Plus d’informations sur echa.europa.eu/view-article/-/journal

Appel à contribution echa.europa.eu/addressing-chemicals-of-concern/

 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

La mécanochimie passée aux rayons-X : une future alternative aux solvants ?

Ils ont ainsi observé la surprenante rapidité des mécanismes en jeu. Une découverte majeure qui en permettant de mieux comprendre ces transformations ouvrira des portes dans le domaine de la chimie verte. En effet, l’utilisation de solvants, omniprésente dans l’industrie chimique, représente un enjeu environnemental majeur. Les réactions mécanochimiques constituent ainsi une alternative énergétique efficace car elle évite l’utilisation abusive de ces solvants.

C’est grâce à l’incroyable capacité du synchrotron de Grenoble que les scientifiques ont pu observer les réactions cinétiques, les réactions intermédiaires et le développement de nanoparticules. L’équipe internationale a choisi d’étudier la production mécanochimique du métal ZIF-8. Ce type de matériau a l’avantage de capturer de grandes quantités de C02 et peut donc être utilisé pour capturer le carbone, catalyser mais aussi stocker l’hydrogène. Mais la technique utilisée ne se limite pas à ZIF-8. En principe, tout type de réaction chimique pourrait être étudié.

Ces résultats ouvrent donc la voie à une meilleure compréhension des processus fondamentaux en pharmaceutique, métallurgie mais aussi des procédés de fabrication industrielle de ciment et de minerais et devrait aboutir à une meilleure utilisation de l’énergie, à une réduction de l’utilisation des solvants et à l’optimisation de l’usage de catalyseurs onéreux. Une bonne nouvelle pour l’environnement, l’industrie et le consommateur !

Source : www.bulletins-electroniques.com
 

Découvrez les formations Techniques de l’Ingénieur :

Vous n’aurez plus de secret pour votre voiture

PSA Peugeot Citroën s’est associé au laboratoire de traitement des signaux 5 (LTS5) de l’école polytechnique fédérale de Lausanne (EPFL) pour mettre au point un outil capable de décrypter le visage du conducteur. L’objectif est de reconnaitre la personne qui pilote le véhicule, mais aussi de déterminer son éventuelle fatigue ou son état émotionnel et donc son aptitude à conduire en toute sécurité. Après l’aide au freinage, la mise en route automatique des essuie-glaces grâce aux détecteurs de pluie, l’allumage automatique des phares, les régulateurs de vitesse ou encore la détection des piétons, c’est donc une nouvelle étape qui se profile dans l’assistance à la conduite. En effet, les logiciels d’analyse du visage et de décryptage des micro-expressions sont déjà opérationnels, il ne reste plus qu’à les intégrer au véhicule.

Les dernières difficultés à lever ne sont pas d’ordre technique mais plutôt pratique comme où positionner la caméra. Celle-ci doit permettre de voir le visage du conducteur quelle que soit sa hauteur, de face mais aussi lorsqu’il tourne la tête, pour discuter ou effectuer des contrôles. Une des possibilités évoquée est de la placer juste derrière le volant, mais cela suppose que le système est assez rapide pour récupérer l’image du visage malgré les branches du volant qui le dissimulerait régulièrement. « Notre objectif est de construire la couche technologique de base qui permettra à tout moment de détecter et de localiser le visage d’un conducteur », explique Jean-Philippe Thiran, responsable du LTS5. Développé sur une plateforme de prototypage mise à disposition par PSA, l’outil de décryptage du visage est désormais dans une phase d’optimisation. Les chercheurs et ingénieurs travaillent à optimiser le traitement d’image, notamment à accroitre la quantité d’images analysées. Tout est prêt pour le lancement des tests en temps réel et en situation, la dernière étape avant une mise sur le marché.

Par Audrey Loubens, journaliste scientifique

iPhone low-cost, iPhone 6… Le point sur les rumeurs !

Le DigiTimes et le Wall Street Journal ont les oreilles qui trainent du côté de chez Apple. Le journal taiwanais de référence dans le domaine des technologies et le très respecté journal américain se sont fait écho il y a quelques jours de l’arrivée – probable – d’un nouvel iPhone, quelques mois seulement après la sortie de l’iPhone 5, en septembre dernier. Pourtant, on ne parle pas ici du futur iPhone 6 : le géant californien s’apprêterait à lancer un iPhone… low-cost.

D’après des sources concordantes, Apple travaillerait donc à l’élaboration d’un iPhone à prix réduit, dont le design serait sans surprise par rapport à la gamme, mais dont certains éléments reviendraient moins chers – comme la coque, qui ne serait plus en aluminium, mais en plastique, ou encore obtenue à partir de matériaux recyclés provenant d’anciens Smartphones de la marque. Les sources diffèrent sur la taille de l’écran, qui serait plus petit, plus grand ou… équivalent à celui d’un iPhone classique. Les rumeurs s’accordent par contre pour une commercialisation courant 2013, probablement lors du second semestre de cette année.

Un terminal « low-cost » serait pour le moins idéal pour se lancer à la conquête des pays émergents, la Chine en tête, où le succès des téléphones et des tablettes tactiles de la marque à la pomme n’a absolument pas de quoi faire rougir, mais où les terminaux tournant sous Android se taillent la part du lion, notamment grâce à une gamme de prix beaucoup plus compétitive. Grisé par le succès fulgurant de l’iPad Mini et de l’iPhone 5 en Chine, la firme de Cupertino ferait-elle, si les rumeurs sur cet iPhone à prix réduit se confirment, du pied à l’empire du Milieu ? Enfin, rien ne nous dit que l’iPhone « low-cost » sera disponible en dehors de ces pays dits émergents.

Un iPhone 6 ou 5S déjà dans les cartons ?

Les rumeurs vont aussi bon train concernant l’arrivée courant 2013 de l’iPhone 6 (ou d’une version 5S), ce qui n’a pas vraiment de quoi surprendre connaissant la politique d’obsolescence programmée pratiquée par tous les géants du secteur, Apple en tête. Le futur iPhone pourrait notamment être équipé d’un écran tactile de type IGZO (Indium Gallium Zinc Oxyde) produit par Sharp, écran moins gourmand en énergie et dont la finesse pourrait permettre à Apple de réduire encore l’épaisseur des appareils de la gamme. D’autres imaginent aussi la possibilité pour la marque d’intégrer un projecteur au futur smartphone.

Par Rahman Moonzur

 

Repères

Apple réalise son deuxième plus grand chiffre d’affaires en Chine derrière celui réalisé sur le sol américain, un chiffre d’affaires qui devrait augmenter rapidement et mettre bientôt le marché chinois sur la plus haute place du podium. L’engouement des Chinois pour l’iPhone 5 est réel, malgré des problèmes de pouvoir d’achat : il s’en est vendu plus de 2 millions d’exemplaires lors du premier week-end de commercialisation, en décembre dernier. La marque créée par Steve Jobs et Steve Wozniak prévoit d’ouvrir bientôt 25 nouveaux Apple Stores, qui s’ajouteront aux 11 magasins déjà présents sur le territoire chinois.

 

 

 

 

 

 

 

 

 

 

 

 

 

Livre blanc : Articles bases documentaires ; le meilleur de 2012

Un chiffre qui illustre également la richesse du corpus documentaire, constitué de plus de 8.000 articles organisés en 388 bases documentaire au sein de 13 univers ou grands domaines thématiques. Nous avons établi la liste des 5 articles les plus téléchargés par grand domaine. Ce palmarès donne un bon aperçu des thèmes émergents et des grandes tendances technologiques de l’année 2012. Il est surtout le reflet des préoccupations du monde de l’industrie et de la R&D dont sont issus nos lecteurs.

C’est dans les domaines les plus proches de l’actualité scientifique et des problématiques industrielles que se situent les articles les plus téléchargés. Nous retrouvons naturellement les thèmes de l’environnement et des énergies alternatives : efficacité énergétique des bâtiments, traitement des eaux, recyclage des déchets, énergie photovoltaïque, éolien, motorisation hybride, etc., ainsi que les domaines stratégiques de l’automobile, de l’énergie pétrolière ou encore des matériaux à haute valeur ajoutée où les enjeux économiques et concurrentiels restent considérables. Notons également le fort intérêt pour les secteurs de la peinture, des polymères et des composites.

Vous pourrez découvrir, dans ce dossier complet à télécharger, la liste des 5 articles les plus téléchargés par grand domaine au cours de l’année 2012 : Environnement, Sécurité, Procédés Chimie Agro Bio, Génie Industriel, Mécanique, Matériaux, Innovations, Mesures Analyses, Electronique Photonique, Energies, Technologies de l’information, Construction. L’occasion pour vous de (re) découvrir ce qui fait la qualité de notre collection.

Nous avons également recueilli les avis et les analyses de plusieurs experts sur ces questions d’actualité et enjeux de société. Pour l’année 2013 et celles qui suivront, nous prenons l’engagement, avec nos conseillers, experts et auteurs, de rester en phase avec les préoccupations des ingénieurs et des scientifiques afin d’accompagner grâce à nos contenus les grandes mutations techniques et industrielles.

La rédaction des Editions Techniques de l’Ingénieur

79948/le-meilleur-2012//72/WQ/TDM5102

Livre blanc : La Norvège, future batterie bleue de l’Europe ?

La Norvège, sculptée par l’érosion glaciaire, se compose d’une kyrielle de lacs et de fjords qui représentent la moitié du réservoir de toute l’Europe. Alors que les autres pays ne pèsent qu’environ 60 TWh, le royaume de la petite sirène atteint les 80 TWh.

Les experts ne perdent pas espoir pour autant : selon eux, un mix électrique 100% renouvelable serait possible à mettre en place. Une équipe internationale de chercheurs (Rasmussen et al., 2011) a souligné la complémentarité de l’éolien et du solaire en Europe à l’échelle saisonnière, l’intérêt de la mise en place d’un super réseau électrique (Super Grid) et aussi, l’intérêt de la synergie entre les centrales-lacs et le stockage réversible haute efficacité de type Stations de transfert d’énergie par pompage (STEP).

Pour en savoir plus, téléchargez gratuitement le dossier complet :

L’avènement du Big Data: une (r)évolution ?

Il est difficile de contester la complexification de nos sociétés modernes : mondialisation, croissance continue d’une population dont les besoins intrinsèques augmentent, amélioration globale des niveaux de vie et d’éducation. Dans ce paradigme évolutif, les organisations humaines (institutions, communautés, entreprises) sont aujourd’hui contraintes de s’appuyer sur des méthodes innovantes d’analyse des données pour rester réactives, adaptatives, rigoureuses et précises dans l’accomplissement des tâches qui leur sont affectées. Le volume de données produit et à traiter par ces acteurs ne cesse d’augmenter. Si le constat n’est pas récent, la multiplication des appareils interconnectés et l’accès à Internet à tous et à tout instant rend l’analyse de ces informations hétérogènes très complexe. Ainsi, une entreprise doit être capable de réagir rapidement aux besoins mouvants du marché, à ses signaux trompeurs, à ses évolutions comme à ses crises. Les milliards de données transitant par les consommateurs sont une formidable source d’information permettant de mieux cibler les segments de clientèle et les évolutions d’un secteur d’activité (par exemple, différencier un buzz d’une tendance de marché réelle à moyen terme), mais aussi de suivre l’évolution de ses concurrents. Dans un autre contexte, les pouvoirs publics sont aujourd’hui fortement sollicités pour fournir une information de qualité au plus grand nombre, tout en démultipliant les services rendus possibles par l’avènement des Technologies de l’Information et de la Communication (TIC) : bienvenue dans l’ère du Big Data !

Définition

Big Data. L’expression fut sans nul doute le slogan des années 2011-2012 et sera celui de l’année 2013 dans la Silicon Valley. Elle a été introduite par le cabinet d’études Gartner en 2008. Elle fait référence à l’augmentation sans précédent du volume de données échangées dans nos sociétés, à l’hétérogénéité de leur nature et de leur source. Dans ce contexte, la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données doivent être reconsidérés. Ainsi, depuis l’explosion des télécommunications à la fin des années 1990, la quantité d’informations échangées en continu n’a jamais cessé de croître, dépassant toutes les prévisions. Le développement massif du web (deux milliards d’internautes dans le monde en 2012) y a largement contribué. L’avènement plus récent de l’Internet des objets (appareils connectés aux réseaux de télécommunication tels que les smartphones, ordinateurs, tablettes, capteurs en tout genre) va fortement accentuer cette tendance. Aujourd’hui, la fusion des réseaux de télécommunication avec les réseaux énergétiques physiques (électriques notamment) dits « intelligents » ouvre la porte à de nombreuses applications : essor du véhicule électrique, appareils électroménagers connectés capable de demand response, intégration des énergies renouvelables, interface et offre de services clients, analyse des usages, etc.

Quels défis ?

Les challenges du Big Data pourraient se résumer en quatre V : Volume, Variété, Vélocité et Visualisation.

  • Le volume : le challenge est de taille car la tendance du « toujours plus de données » s’est fortement accentuée en raison d’un coût du stockage générique en chute libre depuis plusieurs années, couplé au formidable boom des technologies de l’information et de la communication. Ainsi, Facebook héberge 40 milliards de photos tandis que Walmart gère sur le territoire américain plus d’un million de transactions client par heure, alimentant des bases de données estimées à plus de 2,5 peta-octets (250). D’ici à 2013 la quantité annuelle de données transférées sur le web devrait atteindre 667 exa-octets (260). Mais où commence le Big Data ? Les avis divergent. Selon Mike Driscoll, le CEO de Metamarkets, « si vos données tiennent dans une feuille Excel, vous avez du Small Data. Si une base de données MySQL est suffisante, on parle de Medium Data. En revanche, si vos données sont réparties sur plusieurs serveurs ou plusieurs machines, vous y êtes : les problématiques à traiter relèvent du Big Data ! ». Cependant, Cisco soulève un problème majeur : le volume de données échangées augmente bien plus rapidement que la capacité du réseau qui les fait transiter. Des nouvelles solutions de stockage des données en ligne commencent à se développer. Des sociétés comme Amazon, AT&T, IBM, Google, Yahoo ou AppNexus multiplient des offres de Cloud Computing et soulagent les entreprises en capacité tout en leur proposant une palette de services associés. Pike Research s’attend à ce que la croissance des revenus du Cloud Computing continue au rythme d’environ 30% par an, avec un marché augmentant de 46 milliards en 2009 à 210 milliards en 2015 ;
  • La variété : avec des sources de données de plus en plus nombreuses (internet, objets connectés, capteurs, etc.), il existe une forte hétérogénéité au sein des données collectées. Le besoin de structurer les informations est donc essentiel ;
  • La vélocité : l’obligation de prendre des décisions rapides et pertinentes est un gage de succès (et de survie économique !). Les outils d’aide à la décision basés sur l’exploitation des données doivent donc être les plus performants et efficaces possibles ;
  • La visualisation : si la quantité d’information disponible en entrée est gigantesque, le résultat de leur traitement en sortie doit être clair et concis au risque de ne pas être utilisé.

Deux défis complémentaires ont attrait à l’accessibilité et à la disponibilité de l’information. Les données sont souvent dispersées dans des silos et il est peut être difficile de les rassembler pour en avoir une vision claire, fiable et centralisée. Aussi performants que soient les algorithmes d’analyse, une déficience quantitative ou qualitative des données peut induire des résultats lacunaires voire erronés.

Quelle valeur ajoutée ?

Les organisations de toutes natures ont pris conscience de la valeur des données qu’elles possèdent, et comment leur utilisation peut les différencier, leur permettre d’approfondir leurs connaissances ou d’améliorer leur efficience structurelle. Par le biais d’outils d’analyse de plus en plus sophistiqués, l’idée centrale est bien le traitement de plusieurs milliards de données afin de dénicher l’information pertinente qui permettrait de prendre la bonne décision. Par exemple, les données générées par un consommateur sont une source précieuse pour les services marketing qui peuvent ensuite personnaliser leur publicité.

L’intérêt d’analyser ces données ne se cantonne pas au monde des affaires, où le souci de performance, de compétitivité et de rang sur les marchés est le principal moteur. Les données collectées par les organismes publics sont également au coeur du phénomène. Par souci de transparence envers ses citoyens, les pouvoirs publics sont encouragés à mettre à leur disposition l’information qu’ils détiennent. Les organismes étatiques trouvent un fort intérêt à ce partage, qui stimule par la même occasion la créativité et l’innovation. Les citoyens et les entreprises peuvent exploiter les données disponibles pour créer de nouveaux services (applications mobiles, web).

Quelques exemples :

  • La numérisation de la médecine pourrait à terme faciliter le diagnostic des médecins et le traitement des patients, tout en optimisant les coûts ;
  • Les données institutionnelles et publiques sont de plus en plus utilisées pour améliorer l’efficience fonctionnelle des villes : Cisco a annoncé début décembre son association avec la Startup Streetline pour s’attaquer à la gestion des places de parking à San Francisco en temps réel ;
  • Du côté des industriels, General Electric a annoncé début décembre plus d’un milliard d’investissements à moyen terme afin de proposer des solutions Big Data à ses clients ;
  • Imaginez le nombre de données nécessaires à la construction d’un Airbus A380, ou d’une turbine à gaz de centrale thermique !
  • La réflexion orientée service est l’un des paradigmes fleurissants des technologies de l’information, en lien avec de nombreuses autres disciplines comme les opérations, la comptabilité et la finance.

Quel marché ?

L’information est un enjeu stratégique de premier ordre : la collecte et le traitement des données font l’objet de plus en plus d’investissements. Le marché de la gestion et de l’analyse de données est actuellement estimé à plus de 100 milliards de dollars et croît de près de 10% par an, soit environ deux fois plus vite que le marché global des logiciels. Selon Gartner Research, le Big Data sera à l’origine de la création de 4,4 millions de postes dans l’industrie des TICs à travers le monde d’ici à 2015, et plus de 1,9 million aux Etats-Unis. La thématique est souvent citée comme l’une des priorités par les investisseurs de la Silicon Valley. De ce fort potentiel économique est née une course sans précédent aux algorithmes de gestion les plus innovants et les plus efficaces : creusets d’innovation et de savoir (notamment mathématique et informatique), les universités californiennes comme UC Berkeley et Stanford s’attaquent à ces défis. En matière de possession de données et de potentiels d’investissements – notamment dans la recherche, les majors comme Amazon, Google ou Facebook sont de manière logique les acteurs principaux du Big Data. En parallèle, les startups fleurissent en proposant des logiciels, des plateformes et des services de gestion de données surfant sur cette philosophie. Dans la Silicon Valley, Platfora, Continuuity ou Metamarkets tirent par exemple leur épingle du jeu.

Le Cloud Computing

Cloud et Big Data sont deux éléments indissociables. Aujourd’hui, les majors IBM, Google, Yahoo ou AppNexus proposent tous des services de Cloud Computing. Le NIST (National Institute of Standards and Technology) définit le Cloud Computing comme un modèle permettant un accès réseau pratique et à la demande à une famille de ressources informatiques partagées par tous (par exemple, des serveurs, des réseaux, du stockage, des applications, etc.) qui peuvent être rapidement mobilisées ou libérées en utilisant des efforts minimaux de gestion ou d’interaction avec le fournisseur de service. Le Cloud Computing permet, entre autres, de développer des modèles de gestion et d’optimisation, de services par répartition (du type « Pay-as-you-Go »), des solutions de stockage et une offre dynamique. La disponibilité de la ressource est très élastique, les puissances de calcul disponibles et l’espace de stockage étant théoriquement infinis. Pas de Cloud sans transit des données, pas de Big Data sans Cloud !

Conclusion

Si le Big Data est souvent présenté comme un formidable outil, plusieurs dérives inquiètent cependant les citoyens et les pouvoirs publics : information personnelle difficile à gérer en matière de confidentialité, problématiques de sécurité des données financières et stratégiques. Les questions de cybersécurité accompagnent l’essor du concept : les débats publics, académiques et industriels se multiplient. Pike Research prévoit par exemple que le marché de la sécurité informatique estimé à 370 millions de dollars en 2012 atteindra les 610 millions en 2020. Ces défis mis à part, le potentiel offert par la disponibilité et l’accessibilité à cette foule de données – au moment où le monde se numérise à grande vitesse – reste un atout considérable pour le monde moderne.

Source : bulletins-electroniques.com

 

Découvrez les formations Techniques de l’Ingénieur :

Les nanoparticules sont-elles indigestes ?

Silice, dioxyde de titane ou encore aluminium, ces éléments aux dimensions nanométriques envahissent nos assiettes. La silice sert d’additif anti-agglomérant (E 551) pour des sauces, le dioxyde de titane est un colorant blanc (E 171) présent dans certains dentifrices, chewing-gum et autres friandises, et les nanoparticules d’aluminium  rendent le papier alu plus réfléchissant. Ces trois exemples ne sont qu’une partie des nanoparticules présentent dans nos assiettes. En effet, de multiples nanoparticules utilisées dans d’autres domaines (pneumatique, cosmétique, photovoltaïque) polluent les sols et viennent s’ajouter à celles parfois présentes dans les pesticides. Nos cultures ainsi contaminées servent de vecteur aux nanoparticules qui terminent finalement dans nos assiettes.

Or, ces particules sont tellement petites qu’elles pénètrent dans notre corps jusqu’à atteindre certains organes cibles comme les poumons, le foie ou encore la rate. Les lieux préférentiels d’accumulation ne sont pas encore très bien identifiés, et la cinétique de distribution des nanoparticules dans l’organisme reste à définir.

Plusieurs études ont néanmoins déjà prouvé que des nanoparticules inhalées se retrouvent dans les alvéoles pulmonaires, voie de passage possible vers le sang et les cellules. L’Institut national de l’environnement industriel et des risques (INERIS) a mis en place plusieurs programmes pour étudier la toxicité des nanoparticules en fonction de leur nature et de leurs dimensions. Son unité de toxicologie expérimentale a notamment étudié les nanotubes de carbones via des tests in vivo par instillation intratrachéale. Les scientifiques ont observé que les nanotubes de carbone ne franchissait pas la barrière pulmonaire et ne provoquait pas d’inflammation, concluant à une toxicité des nanotubes de carbone modérée. Rassurant ? Pas sûr. L’INERIS relativise ses propres résultats, précisant qu’ils ne peuvent être généralisés à d’autres types de nanotubes de carbone, et encore moins à d’autres sortes de nanoparticules, rappelant par exemple la dangerosité de celles du dioxyde de titane. En parallèle, l’Agence française de sécurité sanitaire de l’environnement et du travail (Affset) cite des études sur les particules de silice qui ne seraient pas cancérogènes ni génotoxiques, mais qui ne sont pas pour autant sans effet sur les cellules humaines, puisqu’elles peuvent en altérer la division.

Comme l’a quantifié le Centre d’analyse stratégique français dans une note fin 2011 : « Selon certaines études, près de 50 ans seraient nécessaires uniquement pour tester la toxicité de tous les nanomatériaux actuels. Les tests sur seulement 2 .000 substances par an pourraient coûter 10 milliards de dollars, et nécessiteraient le sacrifice d’un nombre considérable d’animaux de laboratoire chaque année ». Il apparait donc compliqué de tester la nocivité de toutes les sortes de nanoparticules existantes.

Dès 2009, dans son rapport Nanotechnologies et nanoparticules dans l’alimentation humaine et animale, l’Anses reconnaissait elle aussi son incapacité à conclure sur la toxicité pour le consommateur du fait de l’absence « d’outils métrologiques et de connaissances des usages alimentaires potentiels », et recommandait la nécessité de recenser les produits, alimentaires ou non, contenant des nanoparticules. Il aura fallu attendre trois ans pour exaucer ce vœu.

Depuis le 1er janvier, les industriels ont l’obligation de déclarer la présence de nanoparticules dans leurs produits. Cette réglementation fonctionne comme REACH, sur l’auto-déclaration : fabricants, distributeurs ou importateurs devront déclarer  les usages de substances à l’état de nanoparticules ainsi que les quantités annuelles produites, importées et distribuées sur le territoire français. Ces données concernent l’année 2012. Ils ont jusqu’au 1er mai pour effectuer cette déclaration directement sur le site dédié www.r-nano.fr. Un résumé des informations récoltées sera rendu public dès la fin de l’année.

Cette démarche unique en Europe permettra d’établir un état des lieux des nanoparticules existantes et pour quel usage. Pour le ministère de l’Ecologie, du développement durable et de l’énergie, ce « dispositif permettra également de collecter des informations sur leurs propriétés toxicologiques et écotoxicologiques, afin de guider les travaux de recherche et d’expertise sur les risques éventuels et les mesures de prévention à adopter ». Car l’absence quasi-totale de connaissance sur l’impact des nanoparticules sur la santé fait peur. En mai 2010, l’Affset constatait que seuls 2% des études parues sur les nanomatériaux s’intéressaient à leurs risques  pour la santé et l’environnement. Forte de ce constat, l’Affset se mobilise et coordonne notamment le projet européen Nanogenotox, dont l’objectif est d’identifier la toxicité sur les gènes et sur l’ADN de 14 nanomatériaux. L’Allemagne a elle aussi lancé une étude confiée à BASF pour définir des seuils maximaux d’exposition. En attendant d’en savoir plus, les différentes instances recommandent le principe de précaution.

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

La transition et l’efficacité énergétique, vues par le CESE

Il publie deux projets d’avis, l’un abordé sous l’angle environnemental : « La transition énergétique : 2020-2050 – Un avenir à bâtir, une voie à tracer », l’autre sous l’angle économique « Efficacité énergétique : un gisement d’économies ; un objectif prioritaire ». Les deux rapports ont été soumis au vote en séance plénière du 9 janvier 2013.

Résultat : sur 164 votants, 154 pour, 3 contre et 7 abstentions pour l’avis sur la transition énergétique et sur 168 votants, 149 pour, 3 contre et 16 abstentions pour l’avis sur l’efficacité énergétique.

Le CESE espère que ces avis donneront un éclairage au débat et pourront servir de guide. Il défend une vision très large de la transition énergétique qui doit aborder les aspects environnementaux, économiques, géopolitiques, sociaux et sociétaux.
 
« Aller vers une société sobre en carbone en énergie n’est pas une option, c’est un impératif porteur d’opportunités, de nouveau mode de développement économique et de création d’emplois », rappelle Jean-Jouzel, rapporteur du rapport sur la transition énergétique. « Nous voulons une transition pertinente, réfléchie et partagée », estime quant à elle, Catherine Tissot-Colle, 2e rapporteur du rapport.

Quelle voie pour la transition énergétique ?

Quatre axes principaux ont été retenus par le CESE pour bâtir la transition énergétique. Ainsi, il recommande d’atteindre la performance économique et sociale, définir un mix énergétique, le jeu d’acteurs, et réussir le passage de la recherche à des filières industrielles françaises d’énergies renouvelables.

Le CESE a dénombré de nombreux scénarios énergétiques, mais tous ne sont pas définis sur les mêmes critères et les mêmes logiques. Il recommande au gouvernement de retenir ces scénarios, les évaluer et, à partir de là, d’évaluer des scénarios crédibles pour le pays. Ces évaluations devront comprendre des études d’impacts complètes du point de vue environnemental et socio-économique.

D’ici 2020, le CESE préconise de privilégier les énergies renouvelables ayant un vrai potentiel de développement, un haut niveau de recherche et de savoir-faire technologique pour bâtir des filières économiques autonomes. Il rappelle le besoin que la réflexion anticipe les destructions d’emplois, travaille sur l’évolution du savoir-faire par secteur et prévoit les reconversions. Il convient donc de favoriser la création de nouveaux emplois dès maintenant pour que France ait un rôle important à l’avenir.
 
« Il faut encourager des productions d’énergie à proximité des lieux de consommation, mais il faut vraiment structurer tout cela car l’optimum global n’est pas forcément la somme des optimums locaux », affirme Catherine Tissot-Colle. Le débat devra donc clarifier le rôle des acteurs publics. Selon le projet d’avis, l’Etat doit rester responsable de la cohérence nationale de la transition énergétique, de l’ensemble de la politique énergétique et de la fiscalité. Les rapporteurs recommandent toutefois de faire de la région le territoire privilégié d’organisation de « ce qui se passe en dessous, au niveau des départements, des communes et autres regroupements ». Ils sont en faveur d’une politique européenne de l’énergie.

Selon le CESE, le financement de la transition nécessite de donner un prix au carbone. Ce prix peut être défini par un marché de type quotas, des systèmes de taxes ou des ajustements aux frontières. Il convient d’analyser l’ensemble des systèmes existants et mettre à plat l’ensemble des systèmes fiscaux de l’énergie français car certains ne sont pas favorables à la transition énergétique. Pour ce faire, trois critères d’évaluation doivent être retenus : l’efficacité économique, la justice sociale et l’efficacité dans la lutte contre le changement climatique.

Enfin, le CESE recommande de rééquilibrer les budgets de la recherche pour atteindre des ruptures technologiques indispensables. Il incite aussi à explorer toutes les pistes de transformation et de valorisation du CO2, y compris le captage-stockage. La recherche en sciences humaines et sociales a également toute sa place pour accompagner les mutations sociales nécessaires.

Comment assurer l’efficacité énergétique ?

L’efficacité énergétique, c’est « moins de consommation d’énergie pour le même service rendu », rappelle Jacky Chorin, rapporteur du rapport sur l’efficacité énergétique. Il est donc impératif de commencer le débat par la question de la demande.

Le CESE voit trois conditions à la réussite de la transition : que l’efficacité énergétique soit considérée comme une vraie filière d’avenir, que la puissance publique s’investisse dans une vision à long terme (2050 pour le bâtiment) et que les pouvoirs publics donnent un signal politique fort et arrêtent les contre-signaux.

De quels contre-signaux, parle-t-on ? Les travaux de rénovation sont récemment passés de 7 à 10% de TVA. Le CESE propose donc que la TVA associée aux travaux d’efficacité énergétique soit abaissée à 5%, c’est-à-dire le taux appliqué aux biens et services de première nécessité. C’est le prix à payer pour qu’un message politique fort, confirmant que l’efficacité énergétique est une priorité, soit envoyé.

Les chantiers à accomplir sont colossaux. Les bâtiments représentent 44% de la consommation d’énergie en France, 55% du parc résidentiel a été construit avant toute réglementation thermique (la première date de 1974) et 75% du parc de 2050 est déjà construit. Déjà, on constate un certain écart entre les objectifs qui ont été fixés et le taux de rénovation réel. Les objectifs du Grenelle étaient d’atteindre 400.000 rénovations de logements à partir de 2013 et les nouveaux objectifs du gouvernement s’élèvent à 500.000. En 2011, on n’atteignait que 160.000 rénovations…

Ces rénovations sont très attendues par les professionnels du secteur. Pour cause : entre 100.000 et 150.000 emplois seraient induits par ces travaux d’efficacité énergétique. Mais pour ce faire, les pouvoirs publics doivent rapidement définir les normes de rénovation thermique dans le tertiaire. Le décret est attendu depuis plusieurs années. Sans cela, les professionnels ne poursuivront pas leur effort de formation et de structuration de la filière.

Le CESE identifie d’autres pistes intéressantes. Par exemple, la gestion intelligente de bâtiments pourrait permettre des gains d’énergie de 19 à 28% et l’individualisation des charges de chauffage communautaires de 15 à 20%. Il recommande aussi le lancement immédiat d’une concertation pour intégrer la performance énergétique dans les critères de décence pour la location. « Il n’est plus possible, à terme, de pouvoir louer des passoires énergétiques », estime Anne de Béthancourt, 2e rapporteur de l’étude.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

CES 2013 : iTwin « Connect », le Wifi en toute sécurité

La multiplication des réseaux wifi disponibles nous permet d’être connecté – presque – partout, mais souvent au détriment de la sécurité de nos propres données. Consulter son compte en banque (ou d’autres données sensibles et personnelles) sur un réseau wifi public peut relever, par exemple, de la plus pure inconscience. Avec le développement du télétravail, l’usage de réseaux wifi relativement peu sûrs tels que dans un hôtel, dans un aéroport ou dans un café a littéralement explosé.

Pour mieux protéger ses données et sécuriser la navigation sur internet en dehors de chez soi ou d’un réseau « ami », la startup singapourienne iTwin a eu une idée, qu’elle a d’ailleurs présenté lors du Consumer Electronics Show (CES) qui se tient cette année encore à Las Vegas (Nevada). Sa solution : « Connect », un petit module qui se connecte sur le port USB d’un ordinateur portable ou d’une tablette, permettant de crypter les données et de diriger vos informations vers un serveur hôte fiable – au choix vers les serveurs d’iTwin ou vers votre propre ordinateur une fois connecté à l’appareil.

« Connect » donne donc la possibilité à ses utilisateurs de naviguer sur la toile en toute sécurité, via un réseau privé virtuel sécurisé (RPV ou VPN pour « Virtual Private Network ») tout en étant connecté à un réseau wifi partagé ou non fiable. L’utilisation d’un RPV présente l’avantage de préserver la sécurité logique que l’on peut rencontrer à l’intérieur d’un réseau local.

Par Moonzur Rahman

Enfin des mesures pour retrouver la voie du solaire en France !

Selon le rapport de la Mission CGEIET/CGEDD sur l’éolien et le photovoltaïque, le déficit commercial du secteur solaire est estimé à 1,35 milliard d’euros en 2011. Les mesures retenues par Delphine Batho ont pour objectif de réduire ce déficit et créer une filière industrielle durable créatrice d’emplois.

Le dispositif déployé utilise deux mécanismes distincts suivant la puissance de l’installation. Pour les installations sur bâtiments de plus de 100 kilowatts crêtes (kWc) et les centrales au sol, des appels d’offres vont être lancés dès 2013. Pour les installations sur bâtiments de moins de 100 kWc (équivalent à une surface de toiture de 1.000 m²) des tarifs d’achats sont définis et seront ajustés chaque trimestre.

520 MW d’appels d’offres dès 2013

Un appel d’offre de 400 MW va être lancé pour les installations sur des très grandes toitures au-delà de 250 kWc (plus de 2.500 m² de panneaux) et les centrales au sol. Il sera constitué pour moitié de technologies matures sur ombrières et sur toitures, et pour moitié de technologies innovantes : photovoltaïque à concentration et photovoltaïque avec suivi du soleil. Un second appel d’offres sera lancé au cours de l’année 2013, ciblant notamment d’autres technologies innovantes dans le domaine solaire. Pour éviter les conflits d’usage, notamment avec les terres agricoles, les sites dégradés seront privilégiés. Les friches industrielles, anciennes carrières ou décharges, etc., pourront ainsi retrouver une utilité.

Pour les installations sur bâtiments entre 100 et 250 kWc, un système d’appel d’offres simplifié a été mis en place. Ce mécanisme consiste à répondre à un cahier des charges standard, élaboré avec les acteurs de la filière. Les résultats des premiers appels d’offres ayant été peu satisfaisants en termes de coût et de retombées industrielles, ils seront poursuivis mais avec un cahier des charges modifié. Le volume global reste inchangé à 120 MW sur un an, mais sera réparti en 3 tranches de 40 mégawatts au lieu de 4 tranches de 30 MW pour assurer une amélioration continue des projets d’une tranche à l’autre.

Des appels d’offres qui prennent en compte le climat

L’appel d’offres pour les grandes installations prendra en compte le coût et la compétitivité, mais aussi leur impact sur le climat. Ces critères ont vocation à soutenir la filière solaire française face aux importations à partir de pays qui ont soutenu leur industrie photovoltaïque par des aides tout en protégeant leur marché national d’importations.

De même, les appels d’offres pour les installations de taille moyenne intègrent un critère d’évaluation carbone du processus de fabrication des modules photovoltaïques. Cela est justifié par le fait que le bilan CO2 d’un panneau fabriqué en Europe est de 300.000 à 1 million de grammes CO2 équivalent par kilowatt crête, contre 800.000 à 1.700.000 pour un panneau importé.

Quel est le calendrier ?

La dynamique est lancée. La Commission de régulation de l’énergie a été saisie pour les deux projets de cahier des charges. Ceux-ci devraient être publiés au Journal Officiel de l’Union européenne au plus tard en mars 2013. D’ici le mois de septembre, les candidats devront avoir remis leur offre. Les lauréats de la première période seront désignés en novembre 2013 pour les installations sur bâtiments entre 100 et 250 kWc et avant mars 2014 pour les très grandes toitures au-delà de 250 kWc. Les projets de la première période seront mis en service en mai 2015 et les grands projets en mars 2016.

Quoi de neuf pour les petites installations ? 

Les installations résidentielles et les petites toitures de moins de 1.000 m2 sont soumises au mécanisme de tarifs d’achat. Delphine Batho a signé lundi les arrêtés tarifaires qui entérinent le doublement des volumes cibles de 200 à 400 MW par an pour ce type d’installations.

Par ces arrêtés, les tarifs d’intégration simplifiée au bâti sont augmentés de 5% pour soutenir le développement des installations photovoltaïques incorporées à la toiture du bâtiment. Tous les projets pourront bénéficier d’une bonification supplémentaire allant jusqu’à 10% si les cellules des modules photovoltaïques et l’assemblage des modules sont réalisés en Europe.

Le tarif dédié aux a installations non intégrées au bâti sera quant à lui baissé de 20%, mais également assorti de la bonification d’au plus 10%, afin de privilégier le développement des installations créatrices d’innovation et de développement local.

Combien cela va-t-il coûter ?

L’ensemble de ces mesures génèrera des investissements de plus de 2 milliards d’euros et permettra la création ou le maintien d’environ 10.000 emplois. Leur coût annuel pour la collectivité est maîtrisé et estimé entre 90 et 170 millions d’euros, soit environ 1 € à 2 € par an en moyenne par ménage.

Ces investissements seront payés à travers la contribution au service public de l’électricité (CSPE) prélevée sur les factures d’électricité. En 2012, la CSPE du photovoltaïque s’est élevée à 1,5 milliard d’euros. Elle représente 36% de la CSPE totale et 68% de la CSPE liée aux énergies renouvelables.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Revue du web #37: les vidéos de la semaine

Cette semaine dans la première revue du Web de l’année :

  • Les robots n’échappent – malheureusement – pas à la fièvre du « Gangnam Style »… CHARLI-2 et Nao nous montrent toute l’étendue de leur talent ;
  • PhantomX, le robot hexapode au look d’araignée ;
  • Mettre le feu à la glace ? Oui, mais avec du carbure de calcium ;
  • L’armée s’intéresse au pneu du futur, sans air et increvable ;
  • Le gadget (inutile ?) de la semaine : « Useless Machine Advanced Edition », comme son nom l’indique ;
  • En bonus : une explosion nucléaire sous-marine, conduite en 1958 par les Etats-Unis.

Les robots n’échappent – malheureusement – pas à la fièvre du « Gangnam Style »

Vous n’avez pas pu y couper. Que vous ayez eu à subir le tube du rappeur sud-coréen Psy ou que vous ayez des goûts musicaux… quelque peu douteux, l’oppressant « Gangnam Style » vous a surement fait saigner les esgourdes. « Gangnam Style », dont le clip est la première vidéo à atteindre le milliard de vues sur YouTube fin décembre (et plus de 100 millions de vues supplémentaires depuis…) n’aura pourtant pas fait que des victimes humaines. Pour débuter cette trente-septième Revue du Web et première Revue de l’année 2013, nous vous donnons la preuve que les robots n’ont pu échapper, eux non plus, à la fièvre du « Gangnam Style ».

CHARLI-2, un robot élancé développé par une équipe de l’université publique de Virginia Tech, aux Etats-Unis (Etat de Virginie), avait pourtant un avenir radieux devant lui. Alors que l’US Navy croyait dur comme fer en ce robot, dont la version améliorée devrait servir de base de travail au futur ASH (« Autonomous Shipboard Humanoid ») un prototype de robot pompier qui sera présent à bord d’un navire, CHARLI-2 a été pris en flagrant délit de « Gangnam Style » fin octobre dernier. Le robot, quoiqu’un peu raide sur certains mouvements, ne s’en sort pourtant pas si mal.

Dennis Hong, qui dirige l’équipe conceptrice du robot pompier, va plus loin : « Si un robot peut s’acquitter de toutes les tâches nécessaires à l’extinction d’un feu, il peut accomplir d’autres tâches sur un navire, comme par exemple nettoyer le pont ». Comme tant d’autres destins brisés, CHARLI-2 devra-t-il revoir à la baisse ses ambitions, et balayer un pont au rythme de Gangnam Style en se rêvant pompier ?

Plus énervé, plus fluide, mais aussi moins polyvalent que CHARLI-2, le robot de la vidéo qui suit (Nao, de la société française Aldebaran Robotics) n’a pu s’empêcher de commettre à son tour une danse sur le tube sud-coréen. Son style affirmé lui aura même permis de remporter le titre lors d’une compétition de danse à Hanghzou, à 200 kilomètres de Shanghai, en novembre dernier.


PhantomX, le robot hexapode au look d’araignée

Les robots peuvent danser sur autre chose que « Gangnam Style », pour peu qu’on leur en laisse la possibilité. PhantomX est un robot tout terrain ressemblant à s’y méprendre à une araignée robotique, à un détail près : PhantomX ne possède que six pattes. Le robot hexapode, mis au point par les Américains de Trossen Robotics, est programmé pour réaliser six démarches différentes. L’une d’entre elles ressemble étrangement à une danse lascive, sensuelle, qu’il exécute au début de la vidéo qui suit.

Doté d’un servomoteur de type AX-12 Dynamixel, d’un contrôleur Arbotix, PhantomX est non seulement réactif, rapide, mais il fait aussi preuve d’une étonnante souplesse, grâce aux trois degrés de liberté dont disposent les pattes du robot hexapode. PhantomX peut également porter jusqu’à quatre kilos, est aussi agile sur le ventre que sur le dos, et ce pour la bagatelle de 1.200 dollars US (un peu plus de 900 euros).

Mettre le feu à des glaçons ?

La chimie a souvent été l’amie honteuse des prestidigitateurs, offrant aisément une certaine aura de mystère ainsi qu’un côté spectaculaire aux tours « inexplicables » de nombreux magiciens plus ou moins confirmés. Mettre le feu à la glace, lubie poétique aux allures d’impossible, devient alors un jeu d’enfant – pour peu que l’on sache s’y prendre.

La solution était à trouver… dans nos bonnes vieilles lampes à acétylène ! Composée d’un réservoir d’eau et d’un réservoir de carbure de calcium (CaC2), la lampe à acétylène repose sur la réaction entre les deux éléments : l’écoulement de l’eau sur le carbure de calcium, réglé à l’aide d’une vis, fournissait le débit nécessaire d’acétylène qui éclairait alors en brûlant. Ces lampes étaient très utilisées vers la fin du XIXe siècle et le début du XXe siècle, aussi bien par les spéléologues de tous poils que pour l’éclairage public de certaines villes.

La réaction chimique, très exothermique, est la suivante :
CaC2 + 2 H2O → C2H2 + Ca(OH)2

Revenons à nos glaçons : disposons-les dans un bac métallique, au fond duquel se trouve du carbure de calcium. Faisons intervenir une – ou deux – allumette(s), et le tour est joué. Techniquement, ce ne sont pas les glaçons qui prennent feu à proprement parler, ils ne fournissent ici que le « combustible »… En effet, le carbure de calcium réagit avec l’eau des glaçons pour créer de l’acétylène, qui prend alors feu au fur et à mesure qu’il est produit. Le feu fait fondre plus de glace, qui réagit et… crée de l’acétylène tant qu’il reste du carbure de calcium.

L’armée s’intéresse au pneu du futur, sans air et increvable

Rendre un pneu increvable tout en minimisant son usure et en fournissant un niveau d’absorption des chocs identique voire meilleur qu’un pneu traditionnel : tel est le défi que de nombreux fabricants de pneus se sont lancés il y a déjà quelques années, aux premiers rangs desquels le fabricant japonais Bridgestone et le Français Michelin. Au centre des trois vidéos suivantes, un nouveau genre de pneu est testé par l’armée américaine, en conditions réelles et en laboratoire.

L’apparence générale du pneu en dit beaucoup sur son fonctionnement : le pneu se base sur un système complexe de rayons en résine thermoplastique – résine rendue malléable par application de chaleur lui permettant d’être aisément coulée dans un moule ou « extrudée », puis durcissant à nouveau en refroidissant. Ce système innovant de rayons en résine donne à l’ensemble de la structure un aspect alvéolé lui conférant une grande souplesse, rendant le pneu capable d’absorber des impacts autrement plus dommageables pour un pneu traditionnel. Les rayons partent du moyeu, alors que le pneu et la jante semblent tout d’un bloc.

La première vidéo nous permet d’observer le pneu en conditions réelles, monté sur un véhicule de l’armée américaine. La déformation temporaire du pneu, lorsque le char léger surmonte un obstacle, est impressionnante. La seconde vidéo nous montre le même pneu, cette fois-ci monté sur un pick-up plus « classique » ; le pneu semblant plutôt bien se comporter sur terrain accidenté. Enfin, le pneu increvable passe un test balistique – avec succès – dans la troisième et dernière vidéo, la nouvelle structure ne laissant plus craindre le moindre risque de crevaison.

Le gadget (inutile ?) de la semaine : « Useless Machine Advanced Edition », comme son nom l’indique

Pour conclure cette toute première Revue du Web de l’année 2013, voici le gadget (inutile ?) de la semaine : « Useless Machine Advanced Edition » (« machine inutile, version améliorée » en français), un boîtier dont l’inutilité revendiquée haut et fort est élevée au rang de vertu, faisant de sa vacuité un véritable sacerdoce. Andreas Fiessler, le jeune inventeur allemand à l’origine du boitier, n’est pourtant pas le premier à s’infiltrer dans la brèche de ces exaspérantes machines dont la seule fonctionnalité est de s’éteindre seules.

Peut-être vous souvenez-vous de deux prédécesseurs de ce boitier, deux illustres « ancêtres » dont nous vous parlions déjà ici. Andreas Fiessler a pourtant décidé de pousser le vice un peu plus loin, le jour où son imprimante a passé l’arme à gauche. Plutôt que de se débarrasser de la machine dont seule la tête d’impression était défectueuse, le jeune Allemand a alors eu l’idée de son « Useless Machine Advanced Edition ». En connectant un servomoteur au slider de son imprimante, il permet à un doigt robotique – une simple tige de métal incurvée – de se déplacer sur un axe horizontal en fonction des interrupteurs à éteindre. Le positionnement du doigt est établi à l’aide d’un organe de contrôle classique, un régulateur PID (« Proportionnel Intégral Dérivé ») qui déplace la tige en moins d’une seconde avec une précision allant de 0,1 à 0,2 millimètre, amplement suffisante pour la tâche à accomplir. Le programme cherche alors les interrupteurs à éteindre, avec un plus grand degré de priorité pour les interrupteurs se trouvant à sa gauche. Le résultat est… saisissant.

Bonus : une explosion nucléaire sous-marine, conduite en 1958 par les Etats-Unis

Pour le bonus de cette semaine, replongeons-nous en pleine guerre froide, en 1958, alors que les Etats-Unis conduisaient de nombreux essais d’armes atomiques sur différents sites en plein cœur de l’océan Pacifique. Le 8 juin 1958, Umbrella explosa à une quarantaine de mètres de profondeur (150 pieds), au large de l’atoll de Bikini, un atoll des iles Marshall. La bombe, de « seulement » huit kilotonnes (moins que « Little Boy » ou « Fat Man », les bombes ayant explosé à Hiroshima et Nagasaki à la fin de la seconde guerre mondiale) crée une colonne d’eau gigantesque qui submerge presque instantanément le cargo au premier plan.

Le caméraman et l’équipe de tournage à l’origine de cette vidéo se trouvaient à plus de quatre kilomètres du site de l’explosion, qui a pourtant été rapidement atteint, à son tour, par un mini tsunami. La troisième vague, la plus haute de toutes, aurait atteint une hauteur d’environ 14 mètres selon les estimations du caméraman, obligeant l’équipe de tournage à se réfugier en haut d’un arbre avec le matériel, alors que la vague recouvrait entièrement l’ile.
 

 

Par Rahman Moonzur

CES 2013 : 3M présente un écran tactile multi-touch de 84 pouces

L’édition 2013 de l’International Consumer Electronics Show (CES) de Las Vegas a commencé très fort : la société américaine 3M a dévoilé un énorme écran tactile multi-touch dont la diagonale fait pas moins de 84 pouces – ce qui représente la bagatelle de… 2 mètres 13 – pouvant supporter quarante touches simultanées. Bien qu’encore au stade de prototype, le monstre de 3M est sans conteste la vedette de ce début de salon, qui se tiendra jusqu’au vendredi 11 janvier.

Ecran tactile « 4K »

Le prototype utilisé lors de la présentation aux journalistes tourne sous Windows 7, avec un logiciel utilisant Flash. L’écran, développé par 3M Touch Systems, se présente ici sous la forme d’une table tactile, ludique, bien que le fabricant américain envisage une version que l’on pourrait suspendre à un mur, comme un écran de télévision.

Le monstre de 3M offre surtout une résolution de 3840 x 2160 pixels, ce qui en fait pratiquement un écran au format 4K (une définition environ 4 fois supérieure au HD 1080p), une première pour un écran tactile. Le prototype supporte une quarantaine de touches simultanées, alors que la version définitive pourrait, selon le constructeur, en supporter près d’une centaine sans être mise en difficulté. La table tactile serait également suffisamment intelligente pour ignorer les touches provoquées par d’autres parties du corps, trop grosses, telles un coude ou la palme de la main.

La table tactile serait par ailleurs déjà en test : le musée des Sciences et de l’Industrie de Chicago utilise depuis peu une version afin de présenter des concepts scientifiques.

Un an après l’écran tactile de 46 pouces

3M avait déjà créé la surprise l’an dernier, lors de l’édition 2012 du Consumer Electronics Show, en présentant son écran tactile multi-touch de 46 pouces (une diagonale d’1 mètre 07), pouvant déjà supporter pas moins d’une vingtaine de touches simultanées, et d’une résolution de 1080p. Désormais disponible sur le marché, son prix à la vente est quelque peu prohibitif : 6 500 dollars (un peu moins de 5 000 euros), confirmant l’intention de 3M de s’orienter vers un marché d’entreprises, d’administrations, de musées, d’écoles ou encore d’universités. Le prix de la table tactile 84 pouces devrait donc logiquement s’indexer sur celui de son petit frère, alors que le prix de la grande majorité des écrans 4K dépasse les 10 000 dollars – et ce sans le multi-touch.

 

3M Company

3M Company (acronyme de Minnesota Mining and Manufacturing Company), créé il y a plus de cent ans aux Etats-Unis, s’est fait connaître pour avoir inventé et commercialisé le « Scotch » au début du siècle, puis les « Post-it » dans les années 1980. Le conglomérat est notamment présent dans les domaines de l’industrie et du transport, de la santé, de la signalisation, des affaires de bureau, de la sécurité, de l’électronique…

Ces composés chimiques qui inhibent les fonctions des cellules : cas du bisphénol A

Des chercheurs de l’Université de Bonn (Rhénanie du Nord-Westphalie) ont réalisé des expériences sur des échantillons de tissus de souris et d’êtres humains, et ont déterminé que certains composés chimiques bloquent les canaux calciques dans les membranes cellulaires. La circulation du calcium par ces canaux régule notamment la contraction des cellules musculaires cardiaques, l’activité des enzymes et la communication entre cellules nerveuses.

Selon des résultats récents, « le bisphénol A peut affecter l’équilibre hormonal et nuire aux activités des enzymes et des protéines de transport », explique Dieter Swandulla de l’Institut de Physiologie II à Université de Bonn. L’organisme atteint sera favorable au développement de maladies cardiaques, du diabète, de l’obésité, du cancer et des troubles neurologiques. « Les foetus et les nouveau-nés semblent être particulièrement sensibles au BPA », explique le physiologiste.

Le blocage par le BPA est un effet similaire à celui des médicaments administrés contre l’hypertension artérielle et les arythmies cardiaques, mais aussi proche de l’action d’agents neurotoxiques comme les métaux lourds. Cependant, comme la liaison du bisphénol A au canal calcique est réversible, le produit chimique peut être éliminé par l’organisme.

A titre de précaution, la Commission européenne a interdit en 2011 l’utilisation du bisphénol A dans les biberons. Toutefois, le bisphénol A et ses composés apparentés sont toujours présents dans l’environnement en très grande quantité : disques, billets de banque, emballages, boîtes de conserve, plombages dentaires, retardateurs de flamme… Ce produit étant aussi présent dans l’air sous forme de poussières, et ce, en quantités non négligeables, toute personne est donc chroniquement exposée à ces substances. « Il serait donc souhaitable de stopper complètement la production de BPA » a déclaré Dieter Swandulla. L’enjeu actuel est de trouver des substituts dépourvus d’effet nocif sur l’organisme.

*Le bisphénol A (BPA) est un produit chimique industriel utilisé pour la fabrication de matières plastiques et de résines synthétiques.

Source : http://www.bulletins-electroniques.com

Des dauphins licenciés, des robots embauchés !

L’armée américaine va désormais utiliser des robots pour détecter des engins explosifs sous-marins. Cette tâche était auparavant effectuée par des dauphins, spécialement dressés. En effet, leur sonar naturel en faisait des détecteurs hors pairs et particulièrement efficaces. Pour preuve, ils ont été envoyés en Irak et au Bahreïn avec pour mission la détection de plongeurs ennemis. Ces dauphins soldats n’iront donc plus risquer leur  peau puisque dès 2017, des robots seront utilisés à leur place. Plus précisément, 24 des 80 dauphins soldats seront redéployés, probablement aux côtés de leurs camarades les lions de mer affectés à la protection des ports. L’US Navy va donc se séparer de ses mammifères, pour intégrer dans ses rangs des robots.

Moins chers à fabriquer, plus rapides à programmer, les robots présentent des atouts non négligeables en ces temps de crise. Il fallait compter environ sept années pour former un dauphin à la détection sous-marine, et le programme « mammifères-marins » de la Navy s’élevait à 28 millions de dollars. Trop long, trop contraignant, trop cher. Pourtant, leur capacité à détecter les objets dans l’eau, même dans des eaux très profondes, en faisait un atout considérable pour l’armée américaine. Ils seraient capables de différencier des pièces de monnaie entre elles et de repérer une sphère de 8 cm de diamètre à plus de 100 m de distance ! Evidemment, le danger encouru par les dauphins faisait bondir les associations de défense des animaux qui ne peuvent que se réjouir du retrait de ces troupes marines.

Par Audrey Loubens, journaliste scientifique

Une application pour traduire le langage des signes

Les étudiants sont parvenus à créer un système capable d’analyser et de traduire le langage des signes, puis de le transmettre sous forme de message vocal vers un smartphone. Cet outil high tech de communication baptisé Enable Talk est composé d’une paire de gants équipés de 15 capteurs de flexion, associés à une boussole, un gyroscope et un accéléromètre qui analysent la position de chaque doigt dans l’espace et leurs mouvements.

La mini carte-mère insérée dans le gant contient un contrôleur qui regroupe toutes les informations et les transfère à un smartphone grâce à une connexion Bluetooth. Les signes sont alors traduits sous forme de texte par une application du moteur de recherche Bing. L’application diffuse ensuite une traduction vocale via les enceintes du smartphone.

Les gants sont alimentés par une batterie au lithium-ion pour une autonomie de huit heures. Grâce à ce système et son application pour smartphone, une personne sourde ou malentendante peut aisément communiquer, même si son interlocuteur ne maîtrise pas le langage des signes.

L’équipe ukrainienne à l’origine de cette brillante invention a été récompensée en juillet 2012 à Sydney lors de la finale du concours Imagine Cup, organisée par Microsoft.

Le prix de vente de l’Enable Talk devrait se situer autour de 300 euros, mais aucune date de commercialisation n’a encore été annoncée. Les créateurs ukrainiens tentent de convaincre des investisseurs afin de pouvoir lancer leur start-up et débuter la production.

Source : nouvellestechnologies.net

Curiosity, découvertes martiennes…

Le 5 août 2012, Curiosity atterrissait dans le cratère de Gale à la surface de Mars avec pour mission de collecter des informations en vue d’évaluer les hypothétiques traces d’une vie antérieure ou actuelle sur la planète. Dès son arrivée, et après avoir effectué un voyage de 567 millions de kilomètres sur huit mois, les scientifiques ont testé les instruments de Curiosity. Car bien que l’appareil ait été essayé sur Terre, il fallait mesurer les performances de l’engin dans l’atmosphère de Mars.

À un rythme assez lent, il a parcouru trois mètres le premier jour, l’exploration de la planète rouge a alors débuté. Au programme notamment : prises de photo, analyses du sol et de l’air ambiant et collectes de cailloux. Grâce à cette dernière étape dans l’exploration interplanétaire, le rover a permis de confirmer les soupçons concernant la présence d’eau sur Mars en découvrant des cailloux transportés originellement par le lit d’un ruisseau.

Curiosity aurait également mis la main sur des molécules carbonées en analysant le sable du site Rocknest. Par la chauffe du sol martien, l’instrument Sample Analysis at Mars (SAM) aurait décelé des traces de deux espèces moléculaires : de l’oxygène (O2) et du chlorométhane (CH3CI). Le chlorométhane apporterait éventuellement une preuve de la présence de matière organique, provenant d’un bombardement de micrométéorites ou de Mars. Il faudra néanmoins attendre début 2013 afin de savoir si Curiosity a lui-même contaminé le sol martien. Et que l’on ne s’emballe pas non plus, qu’il y ait du carbone et de l’eau sur Mars ne signifie pas que son environnement soit propice à l’apparition de la vie.

Qui plus est, l’annonce fracassante de John Grotzinger, le responsable d’exploration de la planète Mars qui avait prédit une découverte historique, digne de rentrer directement dans les livres d’histoire, est aujourd’hui démentie par la NASA. Par un communiqué, l’agence américaine a en effet enterré cette belle promesse : « À ce stade de la mission, les instruments du robot n’ont détecté aucune indication définitive de matière organique martienne ». Selon toute vraisemblance, les scientifiques seront à l’avenir moins prompts à fournir de nouvelles informations. Les pistes devront être vérifiées avec exactitude avant d’être communiquées. Il en va de la crédibilité de l’agence spatiale.

Les chercheurs, en plus de vivre aux horaires de Mars, doivent surveiller jour et nuit le robot de manière à recevoir et traiter au plus vite les informations qu’il transmet. Tout en sachant qu’une donnée met 40 minutes à parvenir jusqu’à la Terre. Pour que ce rythme soit plus vivable, le Jet Propulsion Laboratory (JPL) a ajusté un emploi du temps plus souple sur deux ans, la durée prévue de l’espérance de vie de Curiosity.

Prochaine étape, le Mont Sharp, une montagne de 5.000 mètres d’altitude située à huit kilomètres de distance. Il s’agit de la destination principale de Curiosity. Pour s’y rendre, trois mois seront nécessaires au terme d’une marche de 100 mètres par jour. Ce cratère de 3,5 à 3,8 milliards d’années pourrait se révéler particulièrement intéressant puisqu’il s’agit d’un site ayant été propice à la vie, donc éventuellement synonyme de nouvelles découvertes.

Un petit frère de Curiosity serait envoyé dès 2020, prévenait l’agence spatiale américaine le 4 décembre. La plate-forme et la conception devraient être conservées en vue de diminuer les coûts. Cette annonce intervient peu de temps après que la NASA se soit retirée du programme européen ExoMars. Curiosity 2 aura pour mission de rapporter des échantillons de roches martiennes les plus intéressantes. Moins limités en taille, les laboratoires terrestres pourraient ainsi les analyser plus précisément et peut-être détecter des traces de vie. L’engin sera doté d’une foreuse capable d’atteindre une profondeur de deux mètres, un endroit moins soumis aux rigueurs martiennes.

Par Sébastien Tribot, journaliste scientifique

Sources :

Nokia, nouveau venu sur le marché des tablettes ?

La rumeur se faisait de plus en plus insistante ces derniers jours : il y aurait bientôt un nouveau venu, et de taille, sur le marché des tablettes tactiles. Ce nouveau venu ne serait ni plus ni moins que le fabricant finlandais Nokia, deuxième plus grand constructeur mondial de téléphones mobiles derrière le géant coréen Samsung – après une domination de quatorze années sur le secteur. De nombreuses sources, dont certaines proches de Nokia, semblent s’accorder sur l’arrivée de la firme finlandaise sur le marché des tablettes tactiles sous la forme d’une tablette 10 pouces tournant sous Windows RT, la version de Windows 8 développée pour les processeurs ARM.

La tablette Nokia, l’arlésienne version finlandaise

L’idée d’une tablette tactile à la sauce Nokia a nourri de nombreux fantasmes chez les technophiles, et ce depuis quelques années. Les premières rumeurs, qui circulaient déjà il y a plus de deux ans, ont toujours été scrupuleusement démenties par la direction du groupe. Pourtant, en mars dernier, Marko Ahtisaari, en charge du design chez Nokia depuis février 2011, confirmait dans la presse finlandaise qu’un projet de tablette était bien dans les fourneaux, allant même jusqu’à annoncer passer près d’un tiers de son temps sur un « projet de tablette se démarquant des centaines de tablettes tactiles actuellement dur le marché ». Aucune déclaration officielle n’était alors venue confirmer les dires d’Ahtisaari.

La rumeur prend corps

C’est désormais au tour du DigiTimes, journal taiwanais de référence dans le domaine des technologies, et au site américain The Verge d’alimenter la rumeur qui ne semble plus en être une. C’est le DigiTimes qui a ouvert le bal, annonçant en début de semaine la probable présentation d’une tablette Nokia 10 pouces durant le premier trimestre de l’année qui vient, peut-être lors du Mobile World Congress qui aura lieu à Barcelone du 25 au 28 février prochain. Le site The Verge, s’appuyant sur des sources proches du dossier, est quant à lui beaucoup plus précis.

Batterie supplémentaire dans la housse

En effet, le site américain, spécialiste de l’actualité technologique, de l’information et des médias, annonce l’arrivée d’une tablette 10 pouces tournant sous Windows NT, précisant que la bête devrait vraisemblablement être équipée d’un écran au format équivalent à celui de la « Surface » de Microsoft, d’un clavier intégré, d’un port HDMI, d’un port USB ainsi que d’un slot destiné à accueillir une puce 3G. La surprise viendrait de la batterie externe intégrée à la housse, d’une autonomie de près de 10 heures, et dont la charge serait suffisamment rapide pour que la tablette revienne à 50 % de charge « en très peu de temps ».

The Verge révèle également que la tablette ne devrait initialement être produite qu’à un nombre réduit d’exemplaires, avant que le fabricant ne se tourne peut-être vers une version Windows 8.

Par Moonzur Rahman

Actualités de l’échange de quotas d’émission de gaz à effets de serre

Échange de quotas d’émission: la Commission présente des solutions possibles pour réformer le marché européen du carbone

La Commission européenne s’apprête à prendre deux décisions importantes pour remédier au déséquilibre croissant entre l’offre et la demande de quotas du système d’échange de quotas d’émission (SEQE) de l’UE. Dans l’immédiat, pour faire face à l’excédent de quotas d’émission qui s’est rapidement constitué, la Commission a présenté une proposition formelle de révision du calendrier des enchères qui vise à reporter la mise aux enchères de 900 millions de quotas d’émission («gel de quotas») lors de la troisième phase du SEQE de l’UE qui commence l’année prochaine. La Commission a également adopté aujourd’hui un rapport sur l’état du marché européen du carbone qui propose un éventail de mesures structurelles possibles pour résoudre le problème de l’excédent de quotas.

Mme Connie Hedegaard, membre de la Commission européenne chargé de l’action pour le climat, a déclaré à ce propos: «La Commission veut un marché européen du carbone encore plus dynamique, qui soit une véritable locomotive pour les autres marchés du carbone ailleurs dans le monde. Notre marché du carbone permet de réaliser des réductions d’émissions, mais à cause de l’offre excédentaire sur le marché, le SEQE ne stimule pas suffisamment l’efficacité énergétique et les technologies vertes, ce qui dessert l’innovation et la compétitivité européennes. C’est pourquoi, dans l’immédiat, nous proposons de reporter la mise aux enchères de 900 millions de quotas ces trois prochaines années. Nous ne devons pas inonder un marché qui est déjà engorgé. Il faut que les acteurs du marché soient fixés sur cette question avant la fin de l’année. Parallèlement, la Commission présente différentes mesures structurelles possibles pour résorber durablement l’excédent à plus long terme.»

L’excédent de quotas d’émission s’est constitué principalement parce que la crise économique a entraîné une réduction plus importante que prévu des émissions industrielles de gaz à effet de serre, qui à son tour a provoqué une baisse de la demande de quotas des entreprises. L’excédent devrait perdurer pendant la troisième phase du système, qui couvrira la période 2013 à 2020.

Gel de certains volumes de quotas à mettre aux enchères: une première étape nécessaire

À compter du 1er janvier 2013, date à laquelle commencera la troisième phase du SEQE de l’UE, la mise aux enchères deviendra la principale méthode d’allocation des quotas d’émission aux entreprises. En juillet dernier, la Commission a publié un projet de modification du règlement relatif à la mise aux enchères dans le cadre du SEQE de l’UE, visant à reporter la mise aux enchères d’une certaine quantité de quotas (voir IP/12/850). À l’issue d’un premier échange de vues avec les États membres au sein du comité des changements climatiques et d’une consultation publique, la Commission propose de réduire de 900 millions le nombre de quotas à mettre aux enchères au cours des années 2013 à 2015 et d’augmenter d’autant le nombre de quotas mis aux enchères à la fin de la phase 3.

Ce «gel» permettra de réduire la quantité de quotas qui sera mise aux enchères à court terme, tant que la demande restera très faible, et de l’augmenter plus tard, lorsque la demande se sera vraisemblablement redressée. Une analyse d’impact fournit de plus amples informations sur l’incidence de cette mesure.

Engager un vaste débat sur les mesures structurelles possibles

Le rapport sur le marché du carbone publié aujourd’hui retient six options et invite les parties intéressées à exprimer leur point de vue. Le Parlement européen et le Conseil avaient invité la Commission à examiner les solutions envisageables pour adopter dès que possible des mesures structurelles, y compris un retrait permanent de la quantité de quotas nécessaire pour résorber l’excédent.

Toute proposition législative de mesures structurelles présentée par la Commission à la lumière du débat public fera l’objet d’une consultation publique et d’une analyse d’impact exhaustive.

Contexte: la phase trois du SEQE de l’UE

Le SEQE de l’UE couvre actuellement environ 11.000 installations industrielles et quelque 40% des émissions de l’UE. Depuis cette année, il s’applique également au secteur de l’aviation.

Lors de la troisième phase, les émissions des installations industrielles et des centrales électriques devront être réduites de 21% par rapport aux niveaux de 2005 d’ici à 2020. Les principales nouveautés de la troisième phase sont les suivantes:

  • Instauration d’un plafond unique, à l’échelle de l’Union, limitant les émissions, au lieu du système actuel à 27 plafonds nationaux;
  • La mise aux enchères devient la principale méthode d’allocation des quotas, et remplace l’allocation à titre gratuit. En 2013, plus de la moitié des quotas seront mis aux enchères, et cette proportion augmentera progressivement chaque année;
  • Pour les quotas qui continueront d’être alloués à titre gratuit, mise en place de règles d’allocation harmonisées basées sur des référentiels ambitieux à l’échelle de l’UE en ce qui concerne la performance en matière de réduction des émissions.

Par Bertrand de Gerando

Source : avocats.fr/space/bertrand.de.gerando

Nos pôles de compétitivité manquent de… compétitivité !

L’Institut de l’entreprise, une association de dirigeants d’entreprises françaises et étrangères, vient de dresser un bilan décevant des pôles de compétitivité. Ces groupements seraient inefficaces, notamment au vu des financements attribués. Malgré les 4.5 milliards d’euros reçus depuis leur création en 2004, ces pôles ne produisent que 1.5% des brevets français, ne représentent que 4.5% des dépenses de recherche et développement mais surtout, ne sont à l’origine que de 5% des entreprises qualifiées d’innovantes ! Un rendement assez faible, en effet. Mais comment nos pôles de compétitivités, censés concurrencer directement les clusters américains, se retrouvent si mal utilisés ?

D’après l’Institut de l’entreprise, ce semi-échec s’explique par une trop grande variété de pôles, au nombre de 71. L’idée serait donc de se concentrer sur les domaines les plus intéressants et valorisables, quitte à ne plus compter qu’une quinzaine de pôles. C’est d’ailleurs le choix fait par les anglais et les allemands qui possèdent respectivement 7 et 15 groupements équivalents à nos pôles de compétitivité. Bref, un recentrage des activités, et donc des financements, paraît nécessaire. Cela va faire plaisir à la soixantaine de pôles qui pourraient être écartés…

Deuxième faille, la mise sur le marché, dernière étape du processus de R&D, est trop souvent mal préparée. La France a tendance à mettre l’accent sur les aspects techniques, négligeant les composants marketings, design et techniques commerciales essentiels pour imposer un produit et lui assurer des parts de marché.

Enfin, le rapport rappelle et regrette le manque de partenariat avec les grandes entreprises. Celles-ci n’ont en effet bénéficié que de 10% de la politique économique des pôles alors qu’elles représentent 62% de la R&D française, pour 53% des exportations. Cette distance entre le public et le privé ne date pas d’hier et a toujours été considérée comme une faiblesse. Peut-être que ce rapport, rappelant une nouvelle fois l’importance de collaborations étroites entre les deux univers, fera bouger les lignes.

Par Audrey Loubens, journaliste scientifique

Les biostimulants en quête de reconnaissance

Un biostimulant se veut un stimulateur de croissance naturel. Il peut contenir des extraits d’algues, de végétaux, de minerai ou encore des micro-organismes, le tout censé favoriser la croissance des plantes. Cet effet bénéfique est du à l’amélioration des défenses de la plante qui, ainsi stimulée, devient plus résistante. Trop ou trop peu d’eau, canicule, maladies, insectes, la plante est mieux armée et sa croissance n’est donc pas affectée par ces différents stress. Les biostimulants peuvent être comparés aux vitamines que certains d’entre nous prennent pendant l’hiver espérant moins tomber malade, pour combattre un moment de fatigue ou améliorer ses performances intellectuelles. Les biostimulants ont donc un fonctionnement bien différent des fertilisants. Pour rappel, ces derniers procurent à la plante des éléments nutritifs essentiels à son bon développement et parfois insuffisamment présents dans le sol tels que de l’azote, du phosphore et du potassium. Ils fonctionnent plutôt comme des compléments alimentaires. Un gros inconvénient des engrais est que la présence d’azote nécessite des conditions de stockage très rigoureuses de façon à éviter l’explosion. Sans parler des risques de pollution des nappes phréatiques par l’azote non utilisé par les plantes.

Malgré ces différences, les biostimulants sont aujourd’hui assimilés à des fertilisants. Encore mal connu, il faut reconnaitre qu’il s’agit encore d’un marché de niche. Michel Ponchet, chercheur du pôle « Agrobiotech » de l’Inra (l’Institut national de recherches agronomiques) estimait devant nos confrères de terre-net que cela représentait « sans doute 5% des cultures dans le monde, et plutôt sur des productions maraîchères et fruitières ».  Mais force est de constater que l’agriculture compte un nouvel acteur. Le premier congrès consacré aux biostimulants s’est déroulé en France au mois de novembre, attirant plus de 700 participants du monde entier, témoignant de l’attrait pour ces nouveaux produits. Devant l’essor de ces « vitamines agricoles », la commission européenne a décidé d’établir une réglementation dédiée aux biostimulants. Celle-ci devrait être adoptée en 2015. Pour Eric Liégeois, responsable du dossier à la direction Industrie de la Commission européenne, « obtenir la marque CE répond au besoin d’une reconnaissance pour rassurer les agriculteurs ». Il s’agira d’une procédure similaire à celle du règlement REACH pour les produits chimiques, c’est-à-dire une demande d’enregistrement des substances sur déclaration.

Par Audrey Loubens, journaliste scientifique

Terres rares : le Groenland est à acheter

« Au moins 25% de la demande mondiale durant 50 ans peut être fournie via le Groenland », révèle Damien Degeorges, auteur de Terres rares : enjeu géopolitique du XXIe siècle (Ed. L’Harmattan, 2012). On assiste dès lors à une « véritable course à ces terres rares du Groenland entre Etats-Unis, Union Européenne, Chine et Corée du Sud », témoigne-t-il.

Les représentants défilent sur l’île pour négocier des contrats d’extraction. Les Groenlandais ont pu voir Antonio Tajani, commissaire européen en charge de l’Industrie, puis le président chinois Hu Jintao en juin dernier. En septembre, le Président Sud-Coréen s’est même rendu directement au Groenland sans passer par Copenhague ! Début novembre, c’était au tour du ministre groenlandais des ressources naturelles de se rendre en Chine.

L’enjeu stratégique est important. Si le Groenland est actuellement un territoire autonome rattaché au Danemark, son indépendance à terme est quasiment inévitable. L’île gère déjà en indépendance ses ressources depuis 2010. Elle, qui ne compte que 57.000 habitants pour un territoire grand comme quatre fois la France, y voit l’opportunité de mettre fin à sa dépendance économique vis-à-vis du Danemark. « L’indépendance est une quasi-certitude à moyen terme », estime Damien Degeorges. Tout dépendra du niveau d’indépendance et des alliances qui seront nouées par le Groenland. L’enjeu pour le Groenland est de « choisir les bons investissements aux bons endroits », analyse-t-il.

Un uranium bien gênant

Au Groenland, les dépôts de terres rares sont souvent en lien avec des dépôts d’uranium radioactif. Or, l’île a adopté une tolérance zéro sur l’extraction d’éléments radioactifs depuis les années 1980. Pour l’instant, certains projets sont donc en stand-by. C’est le cas du projet d’extraction mixte terres rares-uranium de Kvanefjeld au sud de l’île. Il prévoit l’extraction de 40.000 tonnes de minerais par an.

« La question est en débat très intenses puisque c’est la clé pour déclencher certains projets, notamment ceux liés aux terres rares », témoigne Damien Degeorges. À l’occasion des prochaines élections qui auront lieu en juin 2013,  un changement de politique est peut-être en vue. Dans tous les cas, « on prévoit le début de l’exploitation très rapidement, en 2014 à peu près », révèle l’auteur. Et pour cela, la politique sur l’uranium aura nécessairement évolué.

Le Groenland , nouveau carrefour des échanges

La banquise Arctique ne s’arrête plus de fondre en été. Cet été encore, un nouveau record de fonte des glaces a été atteint. La banquise ne recouvrait plus que 3,4 millions de kilomètres carrés au 16 septembre 2012. Du fait du réchauffement climatique, traverser l’océan Arctique en bateau en été devrait donc être possible dans quelques décennies à en croire différents experts. « Le changement climatique fait que le Groenland et l’Arctique passent d’un statut de régions périphériques à région centrale », estime quant à lui Damien Degeorges.

De fait, le Groenland constitue un carrefour des intérêts américains, européens et à présent asiatiques dans la région arctique. Du fait du changement climatique, une nouvelle route maritime est possible à terme. Ceci signifie une réduction des distances d’environ 40% entre Asie et Europe et un accès à des ressources jusqu’ici difficilement accessibles.

Par Matthieu Combe, journaliste scientifique

Automobiles: 80g CO2/km en 2020 ?

Un projet de  règlement de la Commission européenne prévoit d’atteindre 95 grammes d’émissions de CO2/km (3,7 L/km)  en 2020 pour les véhicules particuliers neufs.  L’objectif « se décline pour chaque constructeur selon le poids des véhicules […], ce qui n’incite pas à l’allègement des véhicules qui est pourtant l’une des voie les plus aisées  pour réduire les émissions liées aux véhicules », regrette Lorelei Limousin, Chargée de mission Climat-Energie au sein du Réseau Action Climat France. Le poids moyen des véhicules vendus en Europe a  atteint en 2011 « le poids des véhicules vendus en 2003 », s’insurge-t-elle. La puissance  et le poids moyen des voitures ne cessent d’augmenter. Les progrès en termes de motorisation ont donc été pour partie annulés par ces hausses.

La masse et la puissance du véhicule jouent énormément sur sa consommation. En bridant la puissance des voitures à 130 km/h, qui est simplement la vitesse maximale autorisée sur autoroute dans la plupart des pays européens, la consommation des véhicules pourrait baisser de 40% en ville. Les constructeurs sont opposés à cette décision car ils disent vouloir vendre leurs voitures en Allemagne où il n’y a pas de limitations de vitesse sur certaines portions d’autoroute. Une législation européenne harmonisée est donc souhaitable.

Le texte prévoit déjà plusieurs dérogations

Le projet de règlement prévoit la possibilité d’obtenir des super-crédits, un véhicule électrique comptant, par exemple, pour plusieurs véhicules dans le calcul des émissions. Les « éco-innovations » font aussi gagner des crédits et les très petits constructeurs peuvent obtenir des dérogations. « À cause de toutes ces flexibilités, l’objectif de 95 grammes risque d’être dilué considérablement », prévient Lorelei Limousin. « Si on a par exemple 5% de véhicules électriques vendus en 2020 et que l’on a un facteur de 2,5 comme le souhaitent et font pression les constructeurs allemands à Bruxelles, on a une dilution de l’objectif de 95 grammes d’environ 10 grammes », explique-t-elle.

Pour maintenir la hausse des températures à 2°C et limiter la concentration de CO2 dans l’atmosphère à 450 ppm, les émissions des véhicules neufs devraient se limiter à 74 gCO2/km en 2020 et 60 gCO2 en 2025. Dans cette perspective, le Réseau Action Climat milite pour un objectif d’émissions de 80 gCO2/km à l’horizon 2020.

Quid des 2 litres aux 100 km ?

Le Premier ministre Jean-Marc Ayrault a créé la surprise à l’occasion de la Conférence Environnementale de septembre 2012 en invitant les constructeurs à atteindre l’objectif de 2 litres de consommation aux 100 kilomètres. Pour l’instant, aucune orientation n’a encore été fixée. De quel véhicule parle-t-on ? « Petit véhicule ou véhicule familial », « quel prix », « quel lieu d’assemblage » ? Parle-t-on d’un seul véhicule ou d’une « gamme de véhicule » ? s’interroge Bernard Jullien, directeur du Gerpisa, le réseau international de l’automobile. Affaire à suivre, donc.

D’ores et déjà, « PSA et Toyota ont atteint leur objectif 2015 et sont facilement en train d’atteindre leurs objectifs 2020 », se félicite Loreleil Limousin, ce qui n’est pas le cas de tous les constructeurs.

Par Matthieu Combe, journaliste scientifique