Un revêtement fonctionnel et innovant par arc plasma

Dans le processus de conception d’un produit, le revêtement possède désormais une place clé, tout autant que la technologie utilisée, et se trouve être un moteur d’innovation permanent. Ces différents revêtements peuvent offrir une protection durable contre la rouille, les rayures, et contre l’humidité. Ils peuvent aussi améliorer les qualités d’adhérence du produit ou protéger une surface contre les bactéries. Les nano-revêtements, qui ont le vent en poupe, proposent un très large panel d’applications nouvelles et variées qui ne manquent pas d’intéresser les industriels.

Les méthodes d’application des nano-revêtements se sont peu à peu améliorées, glissant doucement vers des techniques de dépôt toujours plus puissantes, faciles et polyvalentes. La technique initiale impliquait la succession de très nombreux trempages dans différentes solutions, impliquant également des temps de dépôt relativement importants.

L’évolution de ces méthodes vers une vaporisation du revêtement « couche par couche » a été vécue comme un tournant décisif, permettant un gain de temps important et de fantastiques avantages logistiques, réduisant les coûts de production et la pollution engendrée. Le dépôt de nano-matériaux, sous forme de couches minces dont l’empilement se fait avec une précision nanométrique et dont le séquençage et la nature des matériaux pulvérisés influent sur les propriétés du produit, a à son tour évolué vers la pulvérisation plasma.

Conditions de pression atmosphérique

Le professeur Jörg Ihde et son confrère Uwe Lommatzsch, de l’institut allemand IFAM de Brême (Technologie de production et recherche appliquée sur les matériaux ), affilié au prestigieux Fraunhofer-Gesellschaft, se sont concentrés sur cette dernière technique de pulvérisation et ont développé un nouveau procédé fonctionnel à des conditions de pression atmosphérique, compatible avec une production à l’échelle industrielle. Les techniques sous vide étaient limitées par le prix exorbitant des unités, la taille réduite des composants à traiter et par le temps d’application relativement long.

Persuadés qu’il devait y avoir une alternative, ils se sont associés avec la société allemande Plasmatreat GmbH, spécialistes en traitement de surface par plasma, pour faire face aux problèmes survenant dans des conditions de pression atmosphérique, notamment empêcher les particules indésirables de s’incruster dans le revêtement.

Diffuseur pour torche plasma

L’élément central de leurs travaux est un diffuseur plasma, pas plus grand qu’une bombe aérosol, mais bourré de technologies et autorisant un travail d’une grande précision, rapide et peu onéreux. « Nous maitrisons suffisamment cette méthode, ce qui nous permet d’utiliser le même diffuseur pour appliquer des revêtements aux propriétés diverses », explique Jörg Ihde. La petite quantité de matériau nécessaire, ainsi que la possibilité d’utiliser cette technique pour une très grande variété de surface font partie des avantages évidents, tout comme la facilité d’intégration du procédé à une chaîne de production.

Pulvérisation plasma

Le mode opératoire de la pulvérisation plasma est assez simple : le matériau servant au revêtement, ici sous forme de poudre, est soufflé dans la flamme plasma (le terme « plasma » désigne un gaz conducteur, dissocié et partiellement ionisé) par le biais d’un gaz vecteur. Le matériau est alors fondu et projeté à très grande vitesse et avec une très grande énergie sur la pièce à traiter, qui ne reçoit alors que la phase gazeuse du matériau, d’une épaisseur variant généralement de quelques nanomètres à quelques micromètres.

La destruction de la molécule de départ dans le plasma en de nombreux fragments hautement énergétiques, réagissant les uns avec les autres sur la surface de la pièce, finit par former une couche plus ou moins réticulée alors que le matériau de base ne fond pas. L’adhérence du revêtement résulte des liaisons physiques telles que l’adhésion et les interactions électriques (forces de van der Waals). Le gaz utilisé contient des éléments capables de former des chaines, tels que le carbone, le silicium ou encore le soufre.

Les travaux des deux chercheurs allemands ont été sanctionnés par l’un des prix Joseph-von-Fraunhofer.

Par Moonzur Rahman

 

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

 

 

 

 

 

Un filtre en membrane de silicium

Plus qu’un simple filtre, la technologie développée par les équipes du CEA* permet de détecter la présence d’une molécule grâce à une simple mesure de courant ! En effet, lorsque la molécule est emprisonnée dans le pore, la conductivité du système diminue et la présence de la molécule devient donc détectable.

Pour fabriquer ce détecteur, les chercheurs commencent par fabriquer la membrane en amincissant le silicium. Une fois cette étape effectuée, ils trouent la membrane de façon contrôlée, c’est-à-dire que les pores ne sont pas créés de façon aléatoire mais à des endroits voulus, au nombre de quatre ou neuf par zone (2×2 ou 3×3). Les trous servent ensuite d’interface entre deux milieux liquides.

La taille des pores peut varier de quelques dizaines de nanomètres à une vingtaine de microns suivant la technologie utilisée pour trouer la membrane. Jusqu’ici, la membrane agit comme une passoire en filtrant toute particule au diamètre supérieure à celui des pores. Mais l’originalité du système vient du fait que l’on peut attribuer une fonction aux pores. « Il est possible de placer des molécules biologiques comme de l’ADN ou des anticorps à l’intérieur du pore, uniquement sur sa paroi et non pas à la surface », détaille Thierry Livache, directeur du CREAB, UMR SPRAM (CEA, CNRS, UJF).

Ainsi, les pores ne servent plus seulement à filtrer les particules en fonction de leur taille, mais en fonction de leur nature. A partir du moment où le diamètre du pore est du même ordre que la taille de l’objet à piéger, la mesure de la conductivité permet de savoir si le pore est libre ou occupé. A moyen terme, ce système pourrait servir au tri de cellules humaines ou pour la détection de bactéries.

*Direction des sciences de la matière, Direction des sciences du vivant

Par Audrey Loubens, journaliste scientifique

Revue du Web #25 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Une éolienne volante, à plus de 300 mètres d’altitude ;
  • Un robot humanoïde au fantastique mimétisme anatomique ;
  • Inkling, la manière la plus simple et inventive de numériser ce que l’on dessine ;
  • Smart Inversion, objet volant non identifié ;
  • Le gadget (inutile ?) de la semaine : Grappa, qui permet de faire son marché en toute sécurité au Japon.

Une éolienne volante, à plus de 300 mètres d’altitude :

Pour débuter cette vingt-cinquième revue du Web, voici le prototype d’une éolienne volante conçue par Altaeros Energies, qui devrait être capable de produire de l’énergie à près de 300 mètres d’altitude. L’éolienne, dont le prototype présenté dans la vidéo ne se trouve qu’à une centaine de mètres d’altitude, est emmenée à cette hauteur par un ballon gonflé à l’hélium, et est reliée au sol par des attaches qui devraient permettre de transmettre et stocker l’énergie via une unité au sol.

D’après ses concepteurs, cette éolienne gonflable devrait avoir un rendement deux fois plus élevé qu’une éolienne traditionnelle, profitant des vents plus réguliers et plus puissants en altitude. Altaeros Energies avance également que son éolienne n’engendre aucune pollution sonore et que très peu de pollution visuelle.

Mobiles, ces éoliennes pourraient être idéales pour des opérations plus ou moins ponctuelles loin de tout réseau électrique, tels que les grands chantiers ou des opérations militaires, tant elles sont faciles à déployer et tant elles peuvent bénéficier aisément de conditions favorables. En recherche de partenariat, Altaeros Energies compte sur son prototype pour attirer les financements.

Un robot humanoïde au fantastique mimétisme anatomique :

La vidéo suivante nous présente « ECCEROBOT », le premier robot présenté comme « anthropomimétique » par le mathématicien Marcus du Sautoy dans le cadre d’un documentaire tourné pour la BBC, c’est-à-dire un robot dont le mimétisme anatomique est poussé jusqu’à l’extrême. Non seulement le mimétisme anatomique est fascinant, mais l’acuité et la justesse des mouvements rendent ECCEROBOT criant de vérité. Il est doté de simili-tendons, simili-muscles et os artificiels, lui permettant de décomposer au maximum les mouvements afin de les rendre aussi naturels que possible.

L’université du Sussex, à l’origine d’ECCEROBOT (pour Embodied Cognition in a Compliantly Engineered ROBOT) souhaite remplir trois objectifs : prouver qu’il est possible de créer un robot « anthropomimétique », trouver un moyen de le contrôler, et enfin explorer l’influence d’un physique de type humain sur des fonctions cognitives propre aux humains.

Inkling, la manière la plus simple et inventive de numériser ce que l’on dessine :

Dessiner sur papier et numériser son dessin, en gardant toutes les nuances ? Inkling, des Américains de Wacom, permet à tout un chacun de dessiner sur n’importe quel support, puis de transférer les dessins et croquis sur un ordinateur, sous forme d’images matricielles ou d’images vectorielles. Plutôt destiné à une clientèle de graphistes, Inkling se compose d’un stylet électronique hybride et d’un récepteur à placer en haut du support, transcrivant les mouvements du stylet en dessin vectoriel au moyen d’ultrasons, et les stockant instantanément dans sa mémoire interne.

La mine, interchangeable, serait sensible à 1 024 niveaux de pression, garantissant un rendu des nuances de bonne qualité. Une gestion des calques est également possible, à l’aide d’un simple bouton, séparant ainsi le dessin numérique en différents calques superposables. Le récepteur est à même de couvrir une page de type A4 avec une précision d’environ 2,5 millimètres, ce qui est plutôt faible mais le trait serait facilement ajustable grâce au vectoriel. Jugez plutôt :

Smart Inversion, objet volant non identifié :

Conçue par la société Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques, « Smart Inversion » est une structure dont le mode de propulsion est pour le moins étonnant. Gonflée d’hélium lui permettant de se maintenir en l’air, la structure avance grâce à un mouvement pulsé de façon rythmique appelé « inversion », la structure se retournant alors sur elle-même, donnant l’impression de se plier ou d’être aspirée en son sein, comme le décrivent les concepteurs.

L’apparente aisance du mouvement est en partie due à l’extrême légèreté de « Smart Inversion », ainsi qu’aux unités électriques de pilotage, n’entravant en rien le faible poids de la structure volante et autorisant un pilotage et un contrôle d’une grande précision. Selon les ingénieurs de Festo, « l’inversion cinématique [pourrait] indéfiniment produire du mouvement dans l’air. »

Le gadget (inutile ?) de la semaine : Grappa, faire son marché en toute sécurité :

Pour conclure cette vingt-cinquième revue du Web, rien de tel qu’un petit tour au marché, mais en toute sécurité. « Grappa » est un sac à provisions réutilisable, mais dont ce n’est pas la seule et unique fonction. Dans un Japon habitué aux tremblements de terre, encore sous le choc du séisme et du tsunami de l’année dernière ayant engendré la catastrophe que l’on sait, « Grappa » reflète bien les peurs de toute une nation. En effet, ce sac à provisions, de la taille d’un parapluie lorsqu’il est plié, peut très bien servir… de casque en cas de tremblement de terre.

Une fois Grappa sur la tête, le fond du sac, doublé de mousse polystyrène (EPS) tout comme certains casques de chantier, permet d’encaisser tous types de chocs ainsi que l’expliquent très sérieusement les concepteurs, mettant en avant le côté pratique de l’objet, mais précisant néanmoins que l’utilisateur peut emmener Grappa partout… dans son sac.

Par Moonzur Rahman

 

A lire aussi :

Revue du Web #24

Revue du Web #23

Revue du Web #22

Revue du Web #21

La guerre des smartphones peut continuer avec l’arrivée du Samsung Galaxy S3

Apple n’a qu’à bien se tenir. Son plus sérieux concurrent dans la gamme des smartphones, le Samsung Galaxy S3 va faire de l’ombre à l’Iphone 4S. Choisi comme téléphone officiel des Jeux Olympiques de Londres, le Galaxy S3 vient remplacer le Galaxy S2. La taille de l’écran passe à 4.8 pouces avec 2.4 fois plus de pixels, et il fonctionne sous la dernière version d’Androïd, Ice Cream Sandwich.

Le processeur choisi est le Samsung Exynos quadruple cœur cadencé à 1,4 GHz, avec 1 Go de RAM, et 16, 32  ou 64 Go de stockage, extensible avec une carte microSD. Parmi les nouveautés, ce smartphone bénéficie du Smart Stay, c’est-à-dire que la caméra frontale de près de 2 millions de pixels détecte si l’utilisateur regarde son téléphone, évitant une mise en veille importune.

Le S Voice donne accès au contrôle du téléphone par reconnaissance vocale, le S beam permet de transférer des fichiers de 1G en moins de 3 minutes et le Pop up play de regarder des vidéos tout en utilisant d’autres applications simultanément.

L’autonomie du S3 est aussi très satisfaisante. Bien que moins performant pour Internet avec un temps de navigation de 5h17 contre 6h56 pour l’Iphone4S, d’après un comparatif effectué par GSMArena, le Galaxy S3 est le meilleur pour les visioconférences avec une autonomie de plus de 10h !

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

L’Amazon Kindle Fire : un succès inattendu

iPhone 4S : déjà plus d’un million de préventes

De nouveaux smartphones Panasonic bientôt en Europe

AGENDA : Séminaire « Management en situation de crise »

On entend par « situation de crise dans un projet » une situation inattendue et extrême qui met en péril le déroulement du projet. Cette situation couvre par exemples les cas :

  • où les moyens sont apparus insuffisants en cours de projet ;
  • où les délais sont fortement contraints ;
  • où une situation imprévue met en péril l’achèvement du projet (accident majeur, abandon d’un partenaire, etc.).

Le séminaire portera sur l’analyse de la prise de décision en situation exceptionnelle et imprévue, et ce sur quoi elle se base, en s’intéressant à des projets en phase de développement et à des activités opérationnelles. Le séminaire aura une composante sciences humaines et sociales, et portera sur la manière dont le management réagit face à ces situations.

Le séminaire aura lieu le 1er Juin 2012 au CNES, 2 Place Maurice Quentin, 75001 Paris.

Programme :

– 8h45 Accueil
– 9h00 Introduction du séminaire CNES (intervenant à préciser)
– 9h05 Présentation du déroulement du séminaire Comité d’Organisation
– 9h15 Management en situation de crise : exemple d’une catastrophe industrielle (intervenant à confirmer)
– 9h45 Tactique et thérapeutique de la résolution des crises dans les projets – Paul THERON, Thales communications & Security, Vélizy-Villacoublay
– 10h15 Management en situation de crise dans le domaine du nucléaire – Frédéric MARIOTTE ou Xavier PECTORIN, CEA Fontenay aux Roses
– 10h45 Pause
– 11h15 Retour d’expérience projet spatial (développement base de lancement SOYOUZ à Kourou) – Marie JASINSKI, CNES/DLA Paris
– 11h45 Retour d’expérience du projet HERMES Patrice BRUDIEU, CNES/DGA Paris
– 12h15 Déjeuner
– 14h00 Les simulateurs de projets peuvent-ils aider les chefs de projets à faire face aux crises ? – Alastair GIFFIN, Prendo Paris
– 14h30 La sortie de crise dans le transport aérien Pierre Olivier KERBEC, Air France Paris (à confirmer)
– 15h00 Retour d’expérience d’opérations spatiales – Eric ZEIS, Astrium Toulouse
– 15h30 Débat Intervenants
– 16h30 Clôture

Entrée libre

Pour vous inscrire : http://cct.cnes.fr/cctinfo/programme.htm

Plus d’infos : http://cct.cnes.fr/cctinfo/accueil.htm

La fin de Google et Facebook d’ici 5 ans ?

Pour l’heure, l’idée semble impensable, tant les deux géants du Web monopolisent le terrain Internet. Facebook et ses plus de 900 millions d’utilisateurs dans le monde, connaît une actualité forte en raison de son entrée en bourse – celle de Google, déjà effective depuis 2004, est aujourd’hui valorisée à presque 200 milliards de dollars. Selon les chiffres publiés par Nielsen, les deux leaders réunissaient 290 millions d’utilisateurs uniques par mois en moyenne, en 2011. Malgré ce chiffre colossal, Eric Jackson, prévoit la disparition de ces deux poids lourds.

En cause, la date de création des entreprises,1998 pour le moteur de recherche et 2004 pour le site communautaire. « De plus en plus, sur Internet, il semble que la viabilité à long terme d’une entreprise dépende de sa date de création ». Ce qui signifie que dans le cycle de vie des sites Web, toujours poussés par l’évolution technologique, une génération prend le pas sur une autre.

Il y a eu le Web 1.0, créé entre 1994 et 2001 par des sociétés telles que Netscape, Yahoo!, AOL, Google, Amazon ou encore Ebay. Puis, le Web 2.0, dit « social », apparu entre 2002 et 2009, dont Facebook, Groupon et Linkedln sont les dignes représentants. En 2010, les nouveaux supports numériques ont initié l’ère du « Web mobile ». Pas d’autre choix, donc, pour Google et Facebook que de devoir s’adapter à cette nouvelle génération.

Adaptation difficile, selon Eric Jackson, qui compare l’échec rencontré par les sociétés du Web 1.0 à se tourner vers le 2.0, à celui que pourrait connaître les deux géants avec l’Internet mobile, – prenant aussi en exemple Google et son réseau social Google + qui peine à décoller.

Pourtant, Facebook ne cesse d’évoluer. Le réseau social a fait l’acquisition récemment de deux applications, Instagram et Glancee, ainsi que d’un lot de brevets. Toujours pas suffisant selon le spécialiste de Forbes qui répond : « cela montre qu’ils ont peur d’être détrônés par une start-up mobile ».

En somme, le temps fait son oeuvre. Eric Jackson va même jusqu’à dire « qu’on n’aura jamais de Web 3.0 parce que le Web est mort. » L’enjeu est de taille pour Google et Facebook, qui doivent faire face aux évolutions technologiques afin de ne pas perdre leurs utilisateurs. Ces entreprises, tellement bien ancrées dans le système, peuvent-elles vraiment disparaître ?

Par Sébastien Tribot

 

A lire aussi :

Conférence Media Aces : Les médias sociaux sont-ils en train de mourir ?

Google + ou Facebook – ?

Des nano-fibres plastiques faciles à fabriquer

Les travaux de deux équipes du CNRS menées respectivement par Nicolas Giuseppone et Bernard Doudin sur la fabrication de nano-fibres plastiques pourraient bien bousculer le monde de la nanoélectronique. En effet, ces nanofils possèdent de nombreux avantages, à la fois en termes de propriétés et en terme de facilité de fabrication.

Publiée le 22 avril 2012 dans l’édition en ligne avancée de la revue Nature Chemistry, cette étude révèle que ces nano-fibres allient les avantages des métaux et des polymères organiques plastiques, les deux matériaux utilisés à ce jour pour conduire le courant électrique : des propriétés électriques proches des métaux et une légèreté et une souplesse propres aux plastiques.

Plus précisément, les chercheurs ont mesuré que ces structures étaient capables de transporter des densités de courant supérieures à 2.106 A.cm-2, approchant celles des fils de cuivre. Le tout avec des résistances d’interfaces avec les métaux très faibles, près de 10 000 fois inférieures à celles des meilleurs polymères organiques actuels.

Enfin, dernier atout de taille : ces nanofils présentent la particularité de se créer spontanément sous la simple action d’un flash lumineux. L’avenir de ces nano-fibres semble prometteur, surtout si elles peuvent être intégrées industriellement dans des appareils électroniques à l’échelle micro et/ou nanométrique tels que des écrans souples, des cellules solaires, des transistors ou encore des nano-circuits imprimés.

Par Audrey Loubens

(Crédit photo : CNRS)

Vers des cathodes de batteries lithium-ion sans cobalt

Le Centre de recherche sur les batteries (MEET) de l’Université Wilhelm de Westphalie (WWU) de Münster (Rhénanie du Nord-Westphalie) lance un projet de recherche qui vise à étudier des composés chimiques alternatifs aux oxydes de cobalt pour les cathodes de batteries lithium-ion. Le projet dénommé « KaLiPat » est financé à hauteur totale de 2,5 millions d’euros par le Ministère fédéral allemand de l’enseignement et la recherche (BMBF) sur une durée de cinq ans.

Les matériaux employés dans les cathodes de batteries lithium-ion sont majoritairement basés sur des oxydes de cobalt, qui, outre un coût élevé, possèdent des inconvénients de nature électrochimique pour un fonctionnement à long terme. Ainsi, les nouveaux composés chimiques développés doivent être peu coûteux, industrialisables à grande échelle tout en permettant une durée de vie élevée de la cathode ainsi qu’une capacité importante de stockage.

(Source : http://www.bulletins-electroniques.com/actualites/69960.htm)

 

A lire aussi :

Recharger sa batterie électrique en 12 minutes !

Les batteries Lithium Ion, solution d’avenir pour les véhicules électriques ?

Quel avenir pour la batterie Li-ion ?

L’essentiel de Reach (mai) 1/2

Substances enregistrées

(26/04/2012)
La base de données de l’ECHA contient, à ce jour, 4 402 substances et des informations provenant de 25 396 dossiers d’enregistrement REACH.
http://echa.europa.eu/web/guest/information-on-chemicals/registered-substances

Mise à jour du guide sur l’enregistrement

(02/05/2012)
The European Chemicals Agency (ECHA) has published an updated version of the Guidance on registration following the conclusion of the consultation process. The Guidance is now available in the ‘Guidance on REACH’ section of the ECHA website.
News de l’ECHA : http://echa.europa.eu/web/guest/view-article/-/journal_content/041ca561-7fb4-40a0-91c1-4d0a1b934a03
Guide sur l’enregistrement :
http://echa.europa.eu/documents/10162/13632/registration_en.pdf

Notification C&L par des tiers

(03/05/2012)
La Commission européenne a précisé que l’ECHA peut permettre à des tiers, tels que les représentants exclusifs nommés en vertu du règlement REACH, de soumettre une notification de classification et d’étiquetage (C&L) en vertu de l’article 40 du règlement CLP, à condition que les importateurs demeurent responsables de la notification. L’ECHA a donc d’adapter l’interface de soumission dans son système REACH-IT.
http://echa.europa.eu/view-article/-/journal_content/75169683-efce-4bbe-b3a8-e4e2b39a332b

Consultation publique sur un projet de rapport scientifique sur les phtalates DINP et le DIDP

(07/05/2012)
L’ECHA soumet à consultation publique un rapport publié à la suite de la réalisation d’une revue scientifique sur les risques posés par les articles contenant des phtalates DINP et le DIDP. Dans son rapport, l’ECHA estime que l’interdiction déjà effective de ces substances dans les jouets et les articles de puériculture pouvant être mis en bouche par les enfants est justifiée mais qu’aucune autre mesure de réduction des risques n’est nécessaire pour réduire l’exposition des enfants. L’ECHA précise que si cette interdiction n’est pas correctement respectée, il existe un risque de toxicité hépatique pour les enfants de 0 à 12 mois. L’agence estime qu’il n’y a pas de risque pour une exposition des enfants par voie alimentaire ou dans l’environnement intérieur. Le Danemark a déjà soumis à l’Union Européenne une demande de restriction pour les phtalates DEHP, BBP, DBP et DIBP dans des articles destinés à un usage intérieur ou pouvant être mis en contact direct avec la peau ou les muqueuses. L’ECHA a prévu de rendre un avis final en septembre 2012, sauf pour le DIBP qui a été inscrit le 15 février dernier sur la liste des substances désormais soumises à autorisation.
http://echa.europa.eu/view-article/-/journal_content/9fd62806-c985-42f2-8f99-15008659e4eb

De nouvelles valeurs limites d’exposition professionnelle (VLEP)

(09/05/2012)
Deux textes, un décret et un arrêté, portant sur les valeurs limites d’exposition professionnelle (VLEP) à des agents chimiques dangereux sont parus au Journal officiel du 10 mai. Ils permettent de transposer une directive de 2009 et de prendre en compte des expertises menées par l’Anses.
Vingt-cinq substances nouvelles sont concernées, dont 23 par des VLEP contraignantes. Les substances concernées sont les suivantes : N,N Diméthylformamide, Disulfure de carbone, Bisphénol A (poussières inhalables), Méthacrylate de méthyle, Acrylate de méthyle, Acétate de vinyle, Phénol, 2-Méthoxyéthanol, Acétate de 2-méthoxyéthyle, 2-Éthoxyéthanol, Acétate de 2-éthoxyéthyle, 1,4 Dioxane, Acrylate d’éthyle, Isocyanate de méthyle, Oxyde tert-butyle et de méthyle, Mercure et composés inorganiques bivalents du mercure, y compris l’oxyde de mercure et le chlorure mercurique, Sulfure d’hydrogène.
Décret du 9 mai 2012 :
http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000025836934&dateTexte=&categorieLien=id
Arrêté du 9 mai 2012
http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000025837370&dateTexte=&categorieLien=id

Cinq nouvelles demandes de classification et d’étiquetage harmonisés

(14/05/2012)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de cinq nouvelles substances :

  • Isoxaflutole (N° CAS : 141112-29-0)
  • Tembotrione, (N° CAS : 335104-84-2)
  • Metosulam (N° CAS : 139528-85-1)
  • Sorbate de potassium (N° CAS : 24634-61-5 et N° CE : 246-376-1)
  • Tetrakis(2,6-dimethylphenyl)-m-phenylene biphosphate (N° CAS : 139189-30-3 et N° CE : 432-770-2)

Les commentaires sont à soumettre avant le 28 juin 2012.
http://echa.europa.eu/view-article/-/journal_content/dc583d2f-839f-4244-9f7d-5d8d4e1020b3
Consultations C&L en cours : http://echa.europa.eu/web/guest/harmonised-classification-and-labelling-consultation

11/06/2012 : webinar pour les PME

L’ECHA organise le 11 juin 2012 un webinar dédié aux PME et REACH. Le webinar vise à couvrir le processus de vérification des PME et des outils disponibles et de soutien pour les PME dans la préparation de leurs dossiers d’enregistrement.
Pour s’inscrire à cette conférence en ligne :
http://echa.europa.eu/web/guest/support/training-material/webinars (en bas de la page)
 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Le Parlement a opté pour un commerce des produits chimiques plus encadré

Les propositions de la Commission en matière d’encadrement des exportations de produits chimiques dangereux ont été jugées trop libérales par les eurodéputés.

Le Parlement a voté, jeudi 10 mai, en faveur d’un rapport du député socialiste Dan Jørgensen, proposant des procédures très encadrées pour l’exportation des produits. Consentement informé préalable L’initiative de la Commission visait à modifier un règlement sur les exportations et les importations de produits chimiques dangereux. Le texte transpose la Convention de Rotterdam au niveau européen.

Celle-ci exige l’accord d’un Etat lorsqu’un produit dangereux est exporté vers son territoire, selon le principe de procédure de consentement informé préalable (PIC). Elle vise à protéger les personnes et l’environnement contre les éventuels effets néfastes liés au commerce de produits chimiques. Selon la Commission, dans 30% des cas, on ne constatait aucune réponse des autorités nationales du pays où le produit doit être envoyé.

Bruxelles proposait donc que la substance chimique puisse être exportée au bout de 60 jours, à deux conditions. Elle devait avoir été importée ou utilisée dans le pays de destination au cours des cinq années précédentes. De plus, elle ne devait faire l’objet d’aucune prohibition sur le territoire de ce dernier. Deux autres conditions Après délibération avec le Conseil, Le Parlement a voté en faveur de deux autres conditions, contenues dans le rapport de M. Jørgensen.

Pour être expédié, le produit ne doit pas figurer sur la liste noire de Rotterdam, qui recense les substances chimiques considérées comme particulièrement nocives. De plus, s’il est interdit dans l’UE, il ne pourra pas être envoyé vers d’autres pays.

Par Ann-Laure Bourgeois

Source : EurActiv.fr

L’Europe a installé davantage de solaire que d’éolien et de gaz en 2011

Sur la base de la puissance cumulée fin 2011, le PV délivre à présent 2 % de l’électricité de l’Union européenne à 27 (4 % en période de pointe de la demande) : le PV, dont le bilan sanitaire et environnemental est excellent d’après les études scientifiques multicritères, est vraiment sorti de la marginalité en Europe et permet au continent de tirer profit d’une ressource locale et inépuisable.

Un niveau record d’électricité d’origine solaire est atteint en Italie (5,39 %), en Allemagne (4,19 %), en République tchèque (3,15 %), en Espagne (3,04 %) et en Belgique (2,33 %), ceci en fort contraste avec le niveau français (0,71 %).

Au sein de l’UE27, 21,9 GW de PV ont été installés durant l’année 2011, soit davantage que le total des nouvelles capacités nettes d’éolien (+ 9,4 GW), de centrales à gaz naturel (+ 8,8 GW) et de centrales à charbon (+ 1,3 GW) installées durant la même année. En parallèle, le nucléaire a décliné de 5,9 GW et les centrales au fioul de 0,4 GW. L’Italie a été le premier marché du PV à l’échelle mondiale en 2011, avec 9,3 GW de connectés durant l’année, suivi de l’Allemagne (7,5). L’Italie et l’Allemagne ont représenté à elles seules 60 % de la croissance du marché mondial l’année dernière.

En Bavière, grande région du sud de l’Allemagne, le niveau d’équipement PV s’élève au niveau impressionnant de 646 Watts par habitant, c’est-à-dire à 3 panneaux PV par habitant en moyenne, suivi au nord par le Brandebourg (607) et la Saxe-Anhalt (350). L’Extremadure (508) et la Puglia (534), respectivement dans le sud de l’Espagne et de l’Italie, font également partie des régions championnes en Europe.

Le niveau d’équipement de la France (40 Watts par habitant), pays relativement bien ensoleillé, est deux fois plus bas que celui de la moyenne européenne (79), 7 fois et demi plus faible que celui de l’Allemagne (303), 5 fois plus faible que celui de l’Italie (213) et 4 fois et demi plus faible que celui de la Belgique (184). Cinq régions sont cependant championnes à l’échelle nationale, la Corse (195), le Midi-Pyrénées (100), le Languedoc-Roussillon (96), la Picardie (77), et Provence-Alpes-Côte d’Azur (75). Toutes les autres régions françaises sont bien en dessous de la moyenne européenne. Les experts de l’EPIA indiquent que « le mix énergétique national a été très débattu pendant la campagne électorale présidentielle en France. Mais l’état d’esprit prégnant en France ne devrait pas conduire à d’importants changements dans la façon dont sont développées les énergies renouvelables. Pour la plupart des hommes politiques français, le nucléaire reste la technologie bas carbone préférée ».

François Hollande s’est engagé à « réduire la part du nucléaire de 75 % à 50 % d’ici 2025 », mais en annonçant la fermeture d’une seule centrale nucléaire, celle de Fessenheim (1,8 GW), en 2017. Et en ouvrant parallèlement une nouvelle centrale nucléaire à Flamanville, l’EPR (1,6 GW), ce qui, selon Greenpeace-France est « incohérent » avec l’objectif affiché.

Selon les différents scénarii étudiés par l’EPIA, le PV pourrait représenter en 2020 entre 2,4 % et 12 % du mix électrique de l’UE27. Le développement vigoureux du PV en Europe ces dernières années pourrait être difficile à soutenir si des politiques inadaptées étaient mises en place, les investisseurs ayant besoin d’un cadre réglementaire clair, stable et attractif. « Les politiques de type stop-and-start, avec par exemple des changements fréquents et brutaux dans les tarifs d’achat, peuvent menacer la croissance du PV en détruisant la confiance des investisseurs » soulignent les auteurs. Les politiques de tarifs d’achat, qui n’ont par construction aucun impact sur les finances publiques, constituent un levier clé pour booster la croissance de la filière PV fortement génératrice d’emplois non délocalisables, les deux tiers de la chaîne de valeur portant sur la partie aval.

A l’échelle mondiale, la puissance PV installée cumulée fin 2011 est de 69 GW, produisant 85 TWh d’électricité par an, soit 0,5 % de la demande électrique mondiale, assez pour alimenter 11 millions de personnes vivant selon les standards français. Les trois-quarts (51 GW) de la puissance PV cumulée mondiale concerne l’Europe. Viennent ensuite le Japon (5 GW), les USA (4,4 GW), la Chine (3,1 GW), l’Australie (1,3 GW) et l’Inde (0,46 GW). La Chine, qui produit aujourd’hui plus de la moitié des panneaux solaires à l’échelle mondiale, a installé sur son sol 2,2 GW durant la seule année 2011 et a décidé récemment de mettre en place une politique de tarif d’achat pour booster son marché intérieur. Le Japon, suite à la catastrophe nucléaire de Fukushima, a mis en place la politique la plus incitative du monde en matière d’énergies renouvelables.
Hors d’Europe, dans le reste du monde, la croissance du PV a été de 100 % en 2011. Les marchés extra-européens existants (Chine, USA, Japon, Inde),  sont loin d’avoir atteint leur plein potentiel. Et de nouveaux marchés sont en plein émergence, dans des secteurs géographiques très ensoleillés, notamment en Afrique, au Moyen-Orient, dans le sud-est asiatique et en Amérique du sud, du fait de la prise de conscience progressive de l’énorme potentiel que représente le PV.  « Globalement, le marché du PV continuera de croître » estiment les auteurs du rapport. Ceci indépendamment des politiques européennes.

Par Olivier Daniélo

 

A lire aussi :

6,4 % de l’électricité italienne a été d’origine solaire en mars 2012

Europe : où en sont les énergies renouvelables ?

Indices au vert pour le marché européen du solaire

La Maison de la simulation, dédiée à l’apprentissage du calcul intensif, a été labellisée « PRACE Advanced Training Center »

Labellisé « PRACE Advanced Training Center », centre de formation avancé en calcul intensif pour la communauté scientifique européenne, la maison de la simulation va proposer des formations couvrant l’ensemble des techniques indispensables au calcul intensif et participer ainsi à l’essor d’une communauté d’utilisateurs capable d’exploiter scientifiquement les supercalculateurs déployés dans le cadre de PRACE.

Les formations proposées seront de différents niveaux, allant des concepts de base (MPI, OpenMP, algorithmique) à des aspects plus spécifiques et techniques (programmation des GPU : cartes graphiques utilisées pour du calcul, etc.), ainsi qu’une introduction à l’utilisation du supercalculateur CURIE de GENCI.

La formation dans le domaine du calcul haute performance (HPC) est devenu un enjeu fondamental puisque le HPC est un outil indispensable dans des domaines comme les sciences du climat, les sciences de la vie ou des matériaux, ou encore l’astrophysique. D’où l’intérêt de former le plus grand nombre de scientifiques à la programmation de supercalculateurs de façon à les exploiter au maximum de leurs performances et d’en optimiser le retour scientifique.

Par Audrey Loubens

 

A lire aussi :

La France se dote d’un laboratoire pour le calcul haute performance

Un robot avec des muscles et des os

L’Eccerobot est un projet européen qui date d’il y a trois ans et qui réunit un consortium d’ingénieurs de cinq pays : France, Suisse, Angleterre, Allemagne et Serbie. Ce prototype humanoïde est considéré comme le premier vrai robot « anthropomimétique » car il s’inspire très largement du corps humain. Il possède des muscles artificiels animés, un squelette en thermoplastique et des articulations.

La création d’un tel robot poursuit évidemment plusieurs objectifs. Notamment, celui de reproduire le comportement humain afin que les robots puissent évoluer dans notre environnement. Les mouvements seront plus naturels, plus humains et prendront en compte des gestuelles plus complexes.

Le second but, essentiel, touche à la santé. Grâce à l’Eccerobot, des prothèses ou d’autres applications seront peut-être créées. En tout cas, il s’agit d’un pas supplémentaire dans l’aide aux personnes âgées et aux personnes handicapées : rendre l’autonomie à ceux qui l’ont perdue.

Pour l’heure, seule la partie haute est finalisée, l’Eccerobot étant dépourvu de membres inférieurs. Le torse en question, supporté par un socle mobile, est capable avec ses bras de tenir des objets et de serrer des mains. Des micros remplaçeront les oreilles – le tout, accompagné de puces visant à faire progresser la recherche sur l’intelligence artificielle. Une paire de jambes de trente kilos est prévue et devrait naître de la collaboration avec la société Acroban.

En attendant, si vous trouvez la ressemblance avec l’être humain perturbante et que vous vous demandez dans combien de temps la distinction entre un robot et un humain deviendra impossible, soyez rassuré, car si l’aspect intérieur ressemble à celui du corps humain, l’Eccerobot ne dispose toujours pas d’enveloppe corporelle réaliste.

Par Sébastien Tribot

 

Voir l’Eccerobot en action :

Découvrez en images comment le sable se transforme en verre

Pour la première fois, une équipe de chercheurs pilotée par le laboratoire Surface du verre et interfaces (CNRS/Saint-Gobain) est parvenue à visualiser la formation du verre à partir du sable en temps réel et de l’intérieur même de l’échantillon ! Cette prouesse a été réalisée à l’ESRF (European Synchrotron Radiation Facility) via de la tomographie X, technique d’imagerie 3D. Les chercheurs ont ainsi pu observer quels contacts s’opèrent entre les éléments présents, et la transformation de matériaux granulaires en verre fondu.

Ces travaux, parus sur le site de The Journal of the American Ceramic Society ont mis en lumière l’importance des contacts entre grains d’espèces différentes, déterminants dans la production du verre liquide.

Autre surprise : la haute réactivité du carbonate de sodium à l’état solide dont la grande mobilité avant la fonte des matériaux augmente le nombre de contacts avec les autres grains, ce qui favorise les réactions.

Ces résultats sont un début dans la maîtrise des phénomènes mis en jeu, avec comme objectif à long terme d’abaisser la température utilisée à l’échelle industrielle tout en conservant une bonne qualité du verre obtenu.

Explications en vidéo :

(Photo et vidéo : Emmanuelle Gouillart)

Par Audrey Loubens

De nouveaux biopolymères

Le premier biopolymère est constitué de polyacétal renforcé par des fibres de cellulose, est destiné à être utilisé comme matériau pour les pièces coulissantes en raison de son faible coefficient de friction et son faible poids, plus faible que celui du polyacétal renforcé par des fibres de verre qui est utilisé actuellement.

Le second biopolymère est constitué d’un mélange de polyoléfine d’origine naturelle et de polybutylène térephtalate (PBT). Il est bien plus léger, plus résistant aux chocs et d’une plus faible permittivité électrique que le PBT renforcé aux fibres de verre. Ces propriétés ouvrent à ce matériau de nombreuses applications, comme par exemples la protection aux impacts ou une utilisation dans des environnements de champs électriques à haute fréquence.

Enfin le dernier polymère est un mélange entre le PBT et l’acide polylactique. Il est aussi dotée d’une importante résistance mécanique équivalente au PBT renforcé aux fibres de verre.

(Source : http://www.bulletins-electroniques.com/actualites/69848.htm)

La convergence croissante entre les RSE et les Intranet

Dans ce contexte, différentes approches semblent se démarquer et s’imposer comme étant les plus répandues : les espaces Intranet et les réseaux sociaux d’entreprise. Complémentaires, ces deux approches se sont développées chacune de leur côté et ont largement contribué à favoriser le travail collaboratif. Pour autant, on constate que le marché évolue et tend à réunir ces deux approches.

Au regard de ce constat confirmé par nombre de cabinets d’analyste, il apparaît clairement qu’Intranet et RSE ne s’opposent plus et vont se réunir pour former les espaces collaboratifs de demain. Cette évolution traduit la maturité d’un marché qui se rationalise et se dote de standards lisibles et générateurs de productivité pour l’ensemble des collaborateurs. Ainsi, le traditionnel Intranet, répertoriant souvent exclusivement des ressources textuelles et documentaires, semble intégrer massivement des systèmes RSE de nouvelle génération plus ouverts, permettant des interactions autour de ces contenus grâce aux fonctionnalités de partage et de communication dérivées des réseaux sociaux grand public. Les espaces Intranet évoluent donc et se modernisent largement.

Ainsi, selon la dernière étude réalisée par l’observatoire de l’Intranet, les projets d’espaces collaboratifs déployés d’ici un an sont toujours importants (20 %) ; de plus 85 % des Intranets devraient en disposer en 2012. Au travers de cette donnée, il apparaît donc que la collaboration 2.0 s’impose. A cela, l’étude ajoute également que le réseau social d’entreprise prend sa place progressivement. Ainsi, les outils de mise en relation se déploient, ils devraient équiper 20 % des intranets d’ici un an.

Au-delà de ces éléments, on notera également que l’approche RSE tend à s’intégrer en douceur et de manière progressive et donc maîtrisée. Ainsi, les fonctionnalités provenant des RSE, comme les fiches annuaires enrichies, connaissent une très forte croissance et viennent compléter les traditionnels annuaires internes proposés par les Intranets. Tisser du lien et animer des communautés est également un facteur qui a largement contribué à réunir les espaces Intranet et les réseaux sociaux d’entreprise. L’apport de la couche « RSE » a donc favorisé la communication 2.0 au sein des espaces et Intranet en les rendant plus conviviaux et ouverts et en permettant de gérer des communautés aisément. De plus, dans certains cas, les RSE ont également favorisé l’ouverture vers les partenaires externes.

Les nouveaux espaces Intranet doivent donc prendre en compte deux notions clés pour réussir leur transformation : les personnes d’un côté et les « documents ou ressources » de l’autre. Ils doivent également prendre en compte la dimension culturelle des nouvelles générations qui arrivent sur le marché et qui seront plus rapidement productives si elles retrouvent des usages qui leur sont familiers dans leur mode de communication. Les RSE sont une des composantes clés à intégrer dans cette approche. Il ne faut donc pas opposer les espaces Intranets et réseaux sociaux qui tireront parti de leurs apports réciproques. Il est nécessaire de les réunir et de capitaliser sur leurs apports respectifs pour promouvoir un espace unique où la communication 2.0 prendra tout son sens.

Par Alexandre Mermod / CEO Calinda Software

 

A lire aussi :

Un réseau social d’entreprise : globalement du temps perdu ?

« Les réseaux sociaux d’entreprise transcendent la hiérarchie et ont tendance à aplatir la pyramide »

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

Comprendre la crise et prévoir la prochaine

L’auteur (professeur en classe préparatoire des écoles de commerce) se livre à une analyse très documentée sur les événements qui ont déclenché ou accompagné les diverses crises ayant frappé l’économie mondiale depuis 2008. Il est ainsi conduit à retracer la crise immobilière, le dérèglement du système bancaire, la récession économique, puis la crise en cours de la dette de la zone euro.

Une première originalité du livre, au sein de la « grande bibliothèque » des ouvrages inspirés par les dernières crises, réside dans les parallèles – parfois saisissants – dressés par l’auteur entre les crises récentes et anciennes. Une seconde originalité porte sur  les nombreuses et utiles références aux théories et concepts de crise. Une troisième est perceptible dans les rappels des commentaires – plus ou moins pertinents – effectués dans la presse par les protagonistes et les observateurs (politiques, managers, universitaires, journalistes…) des crises.

L’ouvrage est ainsi illustré par de  nombreux encadrés, un lexique économique et une bibliographie. Sa lecture met clairement en perspective les crises d’hier et d’aujourd’hui, et contribue ainsi à leur meilleure compréhension par cet « acteur de crise » qu’est devenu l’homme du XXI e siècle. 

 

Comprendre la crise et prévoir la prochaine

Alain Lenoir

Ed. L’Harmattan, 2012, 263 pages.

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

Mesure du 1er mètre : une erreur qui changea le monde

[Cet article a été publié initialement sur le blog MyScienceWork]

Il y a quelques années, Ken Alder, professeur d’histoire des sciences à l’université de Northwestern près de Chicago, a retrouvé les notes écrites de ces deux scientifiques français, Méchain et Delambre. Ces manuscrits présumés disparus depuis longtemps se trouvaient pour l’un dans les archives de l’Observatoire de Paris, pour l’autre dans une bibliothèque de l’état de l’Utah aux Etats-Unis. Dans son livre « Mesurer le Monde, l’incroyable histoire de l’invention du mètre » publié en 2004, Ken Alder relate ce voyage tant historique que scientifique ponctué de tragédies humaines. Grâce à son regard d’épistémologue, nous redécouvrons la Science sous les traits d’une aventure avant tout humaine. L’histoire et le contexte social de ce récit proposent aussi de questionner certains « outils » communs de notre quotidien comme le mètre, l’erreur et l’incertitude scientifique.

En 1792, Jean-Baptiste Delambre et Pierre Méchain, deux astronomes de renom, partirent de Paris dans deux directions opposées afin de mesurer la taille de la Terre. Le gouvernement révolutionnaire français (Convention Nationale) fraîchement élu leur avait confié la mission de mesurer précisément la partie du méridien terrestre reliant Dunkerque à Barcelone et passant par la capitale française. Dans quel but ? Pour réformer le système de mesure « pour tous pour toujours ». Dans cette ambiance révolutionnaire, leur ambition était de transformer la vie du peuple français et de les libérer du joug social de la monarchie. La monnaie, le calendrier, la semaine de sept jours et même l’heure de 60 minutes n’y coupèrent pas. Ils avaient en outre besoin de définir une nouvelle unité unique afin d’harmoniser les systèmes de mesure et d’ouvrir le marché du commerce. « Lors de transactions, les gens dépendaient d’une tierce personne qui calculait les quantités qu’ils vendaient et achetaient. Condorcet aurait dit à propos du mètre que [je cite] : « Le peuple ne sera jamais libre tant que les gens ne pourront calculer. » A l’époque, il existait environ 250 000 unités de poids et de longueur : le pied, le point, le pouce, la ligne, la perche… Certaines différaient même d’une province à l’autre, souvent pour accommoder les intérêts des seigneurs locaux. D’ailleurs, la plupart des « cahiers de doléances » de l’époque demandaient l’établissement d’une unité de mesure unique.

The Borda circle was the instrument used by Delambre and Méchain to estimate
the latitudes. Source : Abbé J. Loridan, Voyages des Astronomes français à la
recherche de la figure de la terre et de ses dimensions

La mission de ces deux astronomes avait donc une importance philosophique et éthique. Dans son livre, Ken Alder décrit le voyage des deux hommes, les difficultés qu’ils durent surmonter, les rencontres effectuées… Alors qu’ils gravissaient avec d’étranges instruments des volcans éteints, des tours d’églises et de cathédrales, les obstacles que les hommes leur opposèrent furent les plus contraignants. Ils ont été parfois emprisonnés et accusés d’être des espions, des royalistes ou des sorciers. Lors de son périple, Méchain fut aussi grièvement blessé. Lorsque Ken Alder parcouru les notes des deux scientifiques, il découvrit un élément des plus surprenants. Méchain séjournait à Barcelone dont il venait de mesurer la latitude lorsque, le 7 Mars 1793, l’Espagne déclara la guerre à la France. Méchain fut alors sommé de rester sur la péninsule ibérique. Il mit à profit cette détention pour recalculer la latitude de la ville catalane. Malheureusement pour lui, sa seconde mesure ne coïncidait pas avec la première. Il ne put par la suite jamais renouveler cette mesure et rentra en France dans un état de stress qui vira à la dépression. Le moral de cet homme intègre en fut affecté au point de ne plus vouloir finir la mission qui lui avait été confiée. Il refusa de rendre public ses mesures.

Jean-Baptiste Delambre, French mathematician and astronomer. source : Wikipédia

« Méchain ne possédait aucun concept pour évaluer les erreurs scientifiques. Il savait que les mesures n’étaient jamais parfaites mais les scientifiques de l’époque ne pouvaient pas faire la distinction entre précision et exactitude. Il pensait avoir fait une erreur qu’il considérait comme une défaillance morale, » explique Alder. Finalement, Méchain dévoila son premier lot de mesure mais garda le silence sur les secondes mesures. Le mètre fut ainsi calculé comme étant une fraction (un dix millionième) de la distance entre le Pôle Nord et l’Equateur.* Ceci fut effectué par le plus important rassemblement de scientifiques de l’époque dont Laplace, Legendre et Lagrange. Ceci fut certainement le premier congrès scientifique international de l’histoire des sciences. Un mètre-étalon en platine fut alors fabriqué pour servir de référence pour un système de mesure universel. Après la Révolution, Napoléon Bonaparte aurait dit à propos du mètre : « Les conquêtes viennent et repartent mais ceci perdurera. »

C’est une petite note manuscrite rédigée par Delambre dans le carnet de Méchain, après la mort de celui-ci, qui permit la découverte de l’erreur commise dans son calcul de la latitude de Barcelone. « Delambre, explique Alder, a écrit dans la marge qu’il avait choisi une des deux versions des données de Méchain mais qu’il n’en informerait pas le public car il n’avait pas besoin de le savoir. »

« Parce qu’après tout, est-ce important si cette mesure est fausse ? Le mètre peut-il être faux ? »

En découvrant cette erreur, nous pouvons questionner l’intérêt du voyage des deux scientifiques. Dans son ouvrage, Ken Alder nous livre une réponse contemporaine à cette interrogation. Car en effet, il semblerait que cette période ait vu l’éclosion de nouveaux concepts scientifiques en lien avec cette histoire. Les scientifiques ont par exemple réalisé que la Terre n’était pas une sphère parfaite et qu’elle était aussi plus petite que prévu.

Pierre Méchain, French astronomer. source : Stoyan R. et al. Atlas of the Messier Objects: Highlights of the Deep Sky

Après la mort de Méchain, Delambre prit possession de ces carnets. Il fit alors face à un sérieux dilemme. Mais entre-temps, des mathématiciens comme Legendre et Gauss avaient développé de nouvelles méthodes pour traiter les données, notamment la « méthode des moindres carrés » qui permet de comparer des données expérimentales entachées d’erreurs de mesure à un modèle mathématique. Cette méthode permet de minimiser l’impact des imprécisions d’une mesure. L’expédition pour ‘la mesure de la Terre’ a ainsi accentué l’importance de la méthode scientifique à une époque où les statistiques n’existaient pas encore. Le hasard joue en effet souvent un rôle prépondérant dans la découverte scientifique. Cette entreprise généra plusieurs avancées scientifiques majeures. Elle servit aussi d’outil politique efficace. Elle permit de modifier la manière de penser des gens et prépara une nouvelle ère du commerce ouvert et international.

Ken Alder évoque un exemple frappant : « En 1999, la NASA a perdu son orbiteur Mars Climate. Il semblerait que la cause de cet accident soit une discordance entre les unités de longueur utilisées par deux équipes travaillant sur le projet. Le système de contrôle des erreurs a échoué dans la détection de celle-ci et l’orbiteur a foncé à grande vitesse contre la surface de Mars. » Depuis 1983, le mètre est défini comme « la distance parcourue par la lumière dans le vide pendant une durée de temps de 1/299 792 456ième de seconde. » Mais il est resté plus court de 0.2 millimètre que le dix millionième d’un quart de méridien du mètre ‘initial’. Il existe donc une erreur scientifique historique qui fait encore aujourd’hui part de notre système de longueur. Une découverte scientifique n’est jamais aussi simple qu’elle le paraît. Elle est construite à partir d’approximations et d’erreurs. Avec cette notion, nous prenons alors conscience que tout ce qui pour nous est un standard, ne l’est pas forcément, ou ne l’a pas toujours été.

Le livre de Ken Alder a été traduit en de nombreuses langues dont le français (voir l’encadré ci-dessous). Il a reçu de nombreux prix et des critiques très positives de la part de la Société de l’Histoire des Sciences et des revues littéraires.

* Finalement, les scientifiques en charge de la définition du mètre choisirent d’utiliser des mesures d’un méridien plus long effectuées 50 ans auparavant. En effet, si la Terre n’est pas sphérique, les méridiens diffèrent alors tous. Ainsi, plus la mesure sera longue plus elle sera précise et meilleure sera l’approximation faite.

Par Laurence Bianchini / Blog MyScienceWork

 

My ScienceWork

Le blog My ScienceWork est dédié à l’actualité multidisciplinaire de la recherche. L’équipe MyScienceWork vous invite à découvrir ses articles d’actualité/recherche/portrait/opinion en français et en anglais.

Fukushima inquiète toujours autant

Chaque bulletin d’information, parvenant désormais au compte-gouttes, apporte systématiquement son lot de mauvaises nouvelles. Le mois dernier, la compagnie d’électricité japonaise TEPCO a rendu public les résultats d’une inspection interne, ayant eu lieu au sein même de l’un des réacteurs de la centrale de Fukushima Daiichi.

La société tokyoïte, exploitant entre autres les centrales nucléaires de Fukushima Daiichi et de Fukushima Daini, a introduit un dosimètre de radioactivité, une jauge pour vérifier le niveau d’eau de refroidissement du réacteur, ainsi qu’une petite caméra à l’intérieur du réacteur numéro deux, afin de pouvoir analyser les données recueillies.

Mauvaises nouvelles : les taux de radiation observés sont extrêmement importants, bien plus importants que prévu. Avec plus de 70 sieverts par heure, le taux de radiation est suffisamment élevé pour tuer un homme en seulement sept minutes d’exposition. Le niveau d’eau au sein du réacteur, estimé à trois mètres, est retombé à une soixantaine de centimètres.

C’est dans ce contexte peu rassurant que TEPCO devrait révéler son plan d’économie sur dix ans, dont la pierre angulaire ne serait autre que le départ programmé de près de 7 400 salariés, des réductions salariales ainsi que des coupes drastiques sur les primes de retraite.

Par Moonzur Rahman

 

À lire aussi :

Les effets de la catastrophe de Fukushima sur la santé (1/2)

Les robots Quince 2 et 3, prêts à explorer les débris de Fukushima

Vers un béton auto-régénérant ?

Oubliées, les fissures apparaissant avec le temps et affectant les constructions en béton ? Une équipe de chercheurs et d’universitaires travaille actuellement sur un béton dont les qualités d’auto-régénération pourraient bien révolutionner le secteur. Les travaux, dirigés par le professeur Alan Richardson, enseignant le génie civil à l’université britannique de Northumbria, près de Newcastle, ont pour base une des espèces bactériennes les plus grosses et les plus répandues dans le sol, « Bacillus megaterium », plus généralement utilisée comme amendement en agriculture et horticulture.

Cette bactérie est utilisée ici pour créer de la calcite, une forme cristalline du carbonate naturel de calcium, qui peut alors servir à boucher les pores du béton, le protégeant des dégâts infligés par l’eau comme par d’autres substances nuisibles pour le matériau, et prolongeant ainsi sa durée de vie. Les chercheurs, qui cultivent « Bacillus megaterium » à partir d’un bouillon de culture composé de levure, de minéraux et d’urée, ont tout simplement amalgamé la bactérie au béton, bactérie qui y trouve sa source principale de nourriture. La bactérie se reproduit et se multiplie, faisant office de bouche-pores et prévenant la moindre détérioration.

La trouvaille, qui devrait pouvoir déboucher sur une solution rentable au « cancer » du béton, a un fantastique potentiel commercial. Des tests complémentaires seront nécessaires, et l’équipe dirigée par le professeur Richardson espère même pouvoir utiliser cette bactérie a posteriori, sur des structures existantes.

Par Moonzur Rahman

 

À lire aussi :

 

Fissures dans les matériaux fragiles : elles sont moins rapides que prévu !

Pour bâtir «développement durable»

Le Grenelle de l’environnement RT 2012 après la RT 2005 bouleverse considérablement les bases de la construction mais aussi les règles de l’urbanisme.

La nouvelle manière d’aborder la construction comprend l’environnement immédiat et le cycle de vie de tous les éléments constructifs avec leur déconstruction et leur recyclage.

Sommaire :

  • Tous les concepts et informations nécessaires pour un «acte de construire responsable» dans le cadre des nouvelles contraintes réglementaires et sociétales,

  • Comment «construire avec le site», en tenant compte de l’emplacement de la construction; optimiser l’emplacement des pièces,

  • Une aide à l’amélioration de l’efficacité énergétique : maîtrise de l’énergie et énergies renouvelables.

 

En savoir plus

Interview – Quelles sont les contraintes liées à l’application des nouvelles normes ?

Techniques de l’Ingénieur : Les nouvelles normes et les matériaux  innovants vont révolutionner la construction dans les années à venir. Cela peut-il tourner au casse-tête pour les directeurs de chantier ?

Williams Pauchet : La base de la direction de chantier consiste à la  mise en œuvre des produits et des matériaux. A partir d’un cahier des charges précis, le maître d’œuvre doit diriger son chantier pour qu’au final, il n’y ait pas de problèmes de réalisation, pas d’erreurs techniques, et donc pas de surcoût.

Par contre, en termes de réduction des dépenses énergétiques et des nouveaux labels, il va falloir se préoccuper de la mise en œuvre de ces produits et matériaux  que les Maître d’Œuvre connaissent peu. Leur rôle va essentiellement être de vérifier de la bonne mise en œuvre et de la conformité de leur installation par rapport aux clauses techniques du chantier.

On se trouve aussi très souvent face à des architectes ayant la double casquette de concepteur et maître d’œuvre. Pour ces derniers, les évolutions sont plus importantes.

Oui, cela arrive très souvent. Dans ce cas de figure, l’architecte a alors la responsabilité au niveau de la conception et de la mise en œuvre des nouveaux matériaux, dans le respect du cahier des clauses techniques et des nouvelles normes.

Il s’agit donc, en termes de formation, de leur expliquer comment on doit gérer un chantier du début à la fin : gestion, mise en œuvre, cohérence avec le CCTP, vérifications, réception…

Les chantiers de construction sont tous très spécifiques. Comment adapter vos formations à cette réalité ?

Il est effectivement nécessaire pour nous d’adapter les formations à la spécificité des chantiers. Mais plus généralement, c’est tout l’enjeu qui entoure l’activité de direction de chantier : il faut s’adapter en permanence.

L’important est que les gens qui sortent de nos formations soient capables de diriger un chantier, avec une méthodologie, ce qui n’est pas toujours le cas, et de faire appliquer la réglementation et les normes de construction. Ce sont ces manquements qui entrainent des surcoûts de chantiers et des contentieux parfois très importants.

Justement, quelles sont les causes de surcoût sur un chantier ?

La plupart du temps, les surcoûts viennent de cahiers des clauses techniques particulières (CCTP) qui ne sont pas bien réalisés (oublis, erreurs, recopiages d’anciens cahiers des charges…). Si le CCTP est mal conçu, le Maître d’Œuvre est contraint de s’adapter en permanence, et cela entraine irrémédiablement des surcoûts.

C’est d’ailleurs le travail essentiel de cette formation et de celle sur les CCTP, qui se fait au niveau de la méthodologie, de façon à ce qu’on arrive au terme de la formation en ayant supprimé les problèmes techniques, les soucis d’approvisionnement, de gestion… qui engendrent tous des surcoûts en partie évitables.

Les nouvelles normes sont aussi à l’origine de difficultés pour les architectes et les maîtres d’œuvre.

Oui. Notamment les nouvelles normes sur les économies d’énergie et le label BBC. Il y a beaucoup de nouveaux produits qui se mettent en place et les acteurs n’ont pas forcément connaissance de la mise en œuvre de ces nouveaux produits.

Et la mauvaise mise en œuvre de ces produits pose énormément de problèmes …

Bien sûr. Par exemple, considérons les maisons de bois. Les mauvaises utilisations de certains types de bois ou mélanges de bois entrainent des problèmes, pas forcément tout de suite, mais au bout de deux ou trois ans : déformations de structure, de façade…

La méconnaissance des nouveaux matériaux fait que les architectes ont une tendance lourde à se restreindre à prescrire des matériaux et des techniques ayant fait leurs preuves depuis longtemps, le choix récurrent du béton (blocs de) étant un bon exemple de cette « timidité » dans le choix des matériaux.

Le coût induit par le choix des matériaux reste un facteur de décision important non ?

Il y a évidemment un problème de coût. Si on considère les nouvelles normes type RT2012, et les « règles handicapés » et les contraintes réglementaires, on arrive à un surcoût global de 17 à 20 %, ce qui constitue clairement un obstacle à la construction.

Par ailleurs les explications fournies pour la RT 2012 au niveau de l’ensemble de sa mise en œuvre ne permettent pas aux architectes d’avoir une vue claire quant aux moyens à mettre en place en fonction du résultat à obtenir, ce qui est très problématique.

Mais ces surcoûts peuvent-ils être compensés par la durabilité des matériaux ou leurs nouvelles fonctionnalités ? 

Il est encore trop tôt pour évoquer ces économies, puisque ces amortissements s’effectuent sur le long terme. Il est bien évident que l’attente d’un propriétaire lorsqu’il fait construire avec des matériaux innovants et donc chers, c’est de voir drastiquement chuter sa facture de consommation énergétique. Pour le moment, les amortissements sont trop longs : en moyenne plus de 20 ans à l’heure actuelle.

Selon vous, est ce que la mise en place des nouvelles normes et des nouveaux matériaux va entrainer à long terme la généralisation de l’utilisation de ces matériaux au détriment du béton par exemple ?

Des matériaux vont avoir tendance à disparaître pour laisser leur place à des matériaux plus performants et qui deviendront de moins en moins chers. Au niveau des bétons par exemple, ceux utilisés aujourd’hui sont de moins en moins énergivores à leur fabrication et les nouvelles textures des bétons techniques vont progressivement remplacer les bétons classiques.

Mais ces nouveaux matériaux resteront chers pendant un long moment, tant que l’on n’aura pas de recul par rapport à leur utilisation.

Par exemple en ce qui concerne les matériaux isolants, la multiplication de ces matériaux et de leur efficacité pose des problèmes, puisque on se retrouve face à des bâtiments qui ne réagissent plus que thermiquement et non plus réellement en matière de confort de vie puisqu’ils sont devenu hermétique en été (chauffage) comme en hiver (climatisation).

L’adoption généralisée d’un nouveau matériau nécessite donc d’avoir du recul sur les pathologies associées ?

Les pathologies apparaissent au fur et à mesure de l’utilisation des nouveaux matériaux mais aussi de leurs mises en œuvre.

On connaît certaines pathologies très bien. Les anciennes, qui persistent d’ailleurs toujours, et certaines pour des raisons de réduction des coûts, et les nouvelles sur lesquelles on continue d’apprendre. Mais les retours de pathologies sur les nouveaux matériaux se font au compte-goutte. Il va falloir du temps pour avoir une réelle connaissance sur le comportement de ces matériaux sur le long terme.

Propos recueillis par Pierre Thouverez

 

 

Pour créer vos CCTP, utilisez gratuitement KréaCCTP.

KréaCCTP est un outil de rédaction de CCTP en ligne édité par Editions T.I..
Intuitif, il s’appuie sur une bibliothèque de descriptifs actuelle et fiable.

Gaz de schiste : Fillon veut « tout remettre à plat »

[Publié le 15 avril 2011]

Alors ministre de l’Écologie, Jean-Louis Borloo avait signé en mars 2010 trois contrats autorisant trois grandes compagnies pétrolières à explorer les ressources potentielles en gaz de schiste à Villeneuve-de-Berg, Nant et Montélimar.

Devant la contestation populaire quant à l’exploitation des gaz de schiste, c’est d’abord la mise en place d’un moratoire, puis, plus récemment la présentation d’un projet de loi qui tendent désormais à inverser la tendance. François Fillon, devant l’Assemblée nationale, a évoqué sans détour la position du gouvernement sur le sujet : « Les autorisations qui ont été données l’ont été dans des conditions qui ne sont pas satisfaisantes. Il n’y a pas eu assez de concertation, pas assez d’information, j’en prends en tant que chef du gouvernement ma part de responsabilité. Je considère qu’aujourd’hui, pour qu’il n’y ait aucun doute dans le débat entre les Français et le gouvernement sur le sujet, il faut tout remettre à plat, et donc il faut annuler les autorisations qui ont déjà été données ».

Une position qui, c’est assez rare pour être souligné, a fait l’unanimité sur les bancs de l’Assemblée. Du côté des industriels, on estime que « cette décision avait quelque chose de tout à fait précipité ».

Jean-Louis Borloo, lui, a reconnu son « manque de vigilance », et s’est déclaré contre l’exploitation du gaz de schiste. Un revirement de situation que les mauvaises langues attribuent aux supposées velléités présidentielles de l’ancien ministre de l’Écologie, qui a quitté le parti majoritaire il y a peu.

Quoi qu’il en soit, le chef du gouvernement ne ferme pas la porte définitivement à l’exploitation de ces gaz non conventionnels, puisqu’il a décidé de prolonger la mission de recherche scientifique explorant les différentes techniques permettant l’exploitation des gisements. L’objectif est bien sûr de mettre au point des techniques d’exploitation les moins polluantes possibles.

Concensus à l’assemblée

En effet, François Fillon s’est voulu prudent, mais pas catégorique : « Il n’est pas question de sacrifier notre environnement, mais il n’est pas question non plus de fermer la porte à des progrès technologiques qui permettraient demain d’accéder à de nouvelles ressources énergétiques. »

Pour mémoire, le New York Times a publié, début 2011, un dossier contenant des informations recueillies par l’EPA, l’agence américaine de protection de l’environnement. Ces informations font état des conséquences de l’intensification de l’exploitation des gaz de schiste aux États-Unis depuis 2008.

Les rapports de l’EPA, que s’est procuré le journal, indiquent dans les eaux usées un taux de radioactivité 100 à 1 000 fois supérieur au niveau maximum autorisé. Toujours selon une étude de l’EPA datant de 2009, jamais divulguée, les eaux usées, qui sont parfois transportées jusqu’à des stations d’épuration non conçues pour les traiter et qui sont ensuite déversées dans des rivières qui fournissent de l’eau potable, présentent des niveaux de radioactivité plus élevés que ceux connus auparavant et bien plus hauts que les niveaux considérés comme sûrs par les réglementations fédérales pour le traitement par ces stations d’épuration.

L’EPA prépare un rapport plus complet sur ces problèmes, qui sera publié en 2012.

Le gouvernement français quant à lui a décidé de ne pas attendre si longtemps avant de statuer, au grand soulagement des populations proches des sites d’exploration, dans le sud de la France.

Par P.T

 

Déjà publié :

Le gaz de schiste, au premier plan de l’actualité

Le point sur les gaz de schistes

Gaz de schiste : un moratoire, et après ?

Révélations inquiétantes aux Etats-Unis sur les Gaz de schiste

Présidentielles 2012 et nucléaire : ma parole contre la tienne

[Publié le 2 février 2012]

A quelques mois de l’élection présidentielle, les certitudes sont peu nombreuses. Le président sortant n’a pas encore annoncé ses intentions, même si sa candidature laisse peu de doutes. Sans tirer de plan sur la comète, il ne paraît pas très risqué de considérer que quatre candidats se dégagent en tête des sondages. On peut raisonnablement penser que deux d’entre eux se retrouveront au deuxième tour de l’élection, en mai prochain.

Ces candidats sont :

  • Nicolas Sarkozy (Union pour un Mouvement Populaire)
  • François Hollande (Parti Socialiste)
  • Marine Le Pen (Front National)
  • François Bayrou (MOuvement DEMocrate)

Voyons quelle position ces candidats ont affiché sur la thématique à la mode du nucléaire : coût, sécurité, transport et gestion des déchets, mix énergétique… les interrogations des citoyens sont nombreuses.

Nicolas Sarkozy : « Sortir du nucléaire aurait des conséquences désastreuse pour la France »

Le Président de la république avait déjà donné la mesure lors du Grenelle de l’environnement : Promouvoir les énergies renouvelables, oui, remettre en cause le nucléaire, non ! Nicolas Sarkozy a gardé la même ligne, et défend l’industrie nucléaire française avec beaucoup de volontarisme, surtout depuis la catastrophe de Fukushima. Mettant en avant l’aspect indispensable de l’industrie nucléaire dans ces temps de crise, le Président, suppléé par son ministre de l’industrie Eric Besson, rejette l’idée d’une sortie du nucléaire, qu’il a qualifié plusieurs fois de « folie », et de « démarche irresponsable ».

L’argumentaire du président tient en trois points :
•   Le nucléaire est sûr sur le territoire français
•   Le nucléaire permet de produire l’électricité la moins chère d’Europe
•   Le nucléaire est un vivier d’emplois pour la France

Ces trois arguments ont été battus en brèche par les écologistes, mais pas seulement. Ainsi, sans préjuger du côté indispensable ou pas du nucléaire en France, quelques chiffres avancés par le gouvernement laissent perplexe.

L’argument du coût n’est pas valable tel quel

Au niveau du coût du nucléaire : le Président a reconnu à demi-mot, lors de sa visite de l’usine Isover à Orange, que le prix de l’ « électricité nucléaire » était sous-évalué. C’est pourtant l’argument choc du gouvernement : le nucléaire permet de payer son électricité moins chère.  On sait aujourd’hui que c’est en partie faux : certains coûts ne sont pas pris en compte pour calculer ce coût :
•   des dépenses vont être réalisées pour améliorer la sécurité ans les centrales
•   le coût du démantèlement n’a pas été chiffré, mais une chose est sûre : il sera exorbitant. Aujourd’hui, la fourchette d’estimation se situe entre 15 et 750 milliards d’euros ! Petite précision, les scientifiques ne savent toujours pas comment on démantèle une centrale. Et pour cause, à l’heure actuelle jamais une centrale n’a été démantelée.
•   Enfin, chose peu connue, l’industrie nucléaire est une des seules au monde à ne pas être assurée : ce sont donc les français qui ont payé la construction des centrales.

La filière nucléaire et l’emploi : chacun ses chiffres

•   Le gouvernement, via Eric Besson, a estimé que la sortie du nucléaire entrainerait la perte de quelques  400 000 emplois.
•   Henri Proglio, le patron d’EDF, a lui estimé que cette perte serait plus proche des 1 000 000 !

Ce que l’on sait aujourd’hui, c’est que 120 000 personnes travaillent directement pour la filière nucléaire en France. Aussi, il faut bien avoir à l’esprit que l’hypothétique sortie du nucléaire s’accompagnerait de créations d’emplois dans les filières vertes. On ne parle donc pas de pertes d’emplois sèches.

La sûreté du nucléaire français

La France n’a jamais été victime d’un accident nucléaire grave. Pour le gouvernement, c’est le signe que la sûreté du nucléaire en France est une réalité bien gérée. Pour les anti-nucléaire, c’est uniquement une question de temps. Il est difficile de trancher sur le sujet, puisque les deux « camps » se renvoient sans cesse la balle. Par exemple, quand des militants de green peace se sont introduits dans les centrales françaises. Pour l’association écologiste, c’est le signe des faiblesses de la sécurité…  Les responsables des centrales ont quant à eux affirmé avoir laissé entrer ces militants, sachant qu’ils ne représentaient aucun danger…

Le rapport de l’ASN prête également à confusion, puisqu’il conclut que toutes les centrales françaises sont sûres, mais prône des investissements à hauteur de 10 milliards d’euros pour en améliorer la sécurité.

François Hollande : 50 % de nucléaire en 2025

En ce qui concerne la thématique nucléaire, le candidat socialiste à l’élection présidentielle a surtout marqué les esprits via le cafouillage autour de l’accord avec le parti écologiste (EELV). Retoqué plusieurs fois, l’accord a été signé amputé de cette phrase, sous forme de promesse : « une reconversion à emploi constant de la filière du retraitement et de fabrication du MOX, et des moyens de stockage des différents types de déchets notamment le laboratoire de Bure, en centres d’excellence du traitement des déchets et du démantèlement. »

Depuis, le candidat a également promis qu’il organiserait un « débat sur l’avenir de l’énergie en France ». Il a réitéré son engagement à baisser « la part du nucléaire de 75 % à 50 % d’ici 2025 », mais n’a pas évoqué les fermetures de réacteurs, sujet de querelles avec les écologistes…

François Hollande évoque par contre une modularité au niveau des prix de l’énergie en cas d’élection en mai prochain : « Nous avons besoin d’une industrie nucléaire forte pour inventer les technologies de demain, mais aussi des énergies renouvelables. » Il promet également l’instauration d’un « tarif progressif de l’eau, du gaz et de l’électricité » pour fixer les prix au bénéfice des ménages les plus modestes.

Marine Le Pen : « Sortir du nucléaire serait une folie »

Dans son programme de 2007, Jean-Marie Le Pen prônait une accélération des investissements dans l’atome. Indiquant la volonté de « poursuivre l’effort sur le nucléaire », le FN entendait développer « les filières de 3e et 4e générations », relancer « la construction du surgénérateur ». Sur les filières de retraitement et de production de combustible, qui ont été au coeur du débat ces derniers jours, Jean-Marie Le Pen affirmait : « Toutes les recherches permettant de transformer les produits de fission (déchets haute-activité issus des anciennes et actuelles filières) en produits de période courte seront accélérées ». « Le projet ITER sur la thermofusion nucléaire contrôlée sera bien sûr largement encouragé et soutenu », concluait le paragraphe consacré au sujet.

A l’époque, le nucléaire était donc une évidence pour le FN. Ce n’est manifestement plus le cas. Mais Marine Le Pen, qui veut « continuer à investir » dans le nucléaire, doit encore expliquer comment elle entend prendre en compte la « nécessité » de sortir du nucléaire, qu’elle évoque elle-même. D’autant que, interrogée sur la question en juin dernier lors de son passage à l’émission Des paroles et des actes, elle avait simplement indiqué vouloir « dépasser le nucléaire », sans plus de précisions sur la méthode et en critiquant le choix fait par l’Allemagne de fermer ses centrales. Quoiqu’il en soit, la candidate frontiste utilise les mêmes termes que ses homologues de l’UMP, en qualifiant une sortie rapide du nucléaire de pure folie.

A la suite de l’accident survenu à Marcoule, la présidente du FN a précisé son projet en ce qui concerne le nucléaire : « L’accident qui a fait un mort et quatre blessés dans l’installation nucléaire Centraco, située près du site de Marcoule illustre la dangerosité de cette énergie et la nécessitée d’envisager une sortie progressive et réfléchie du nucléaire. Comme l’avait déjà demandé le Front National après la catastrophe du Fukushima au Japon, il appartient à l’Etat de prendre toutes les mesures qui s’imposent pour sécuriser les 58 centrales nucléaires françaises et d’investir dans les recherches pour traiter les déchets nucléaires, recherches arrêtées sous la pression des Verts. Marine Le Pen, candidate à l’élection présidentielle, rappelle la volonté du Front National d’engager la diversification énergétique de la France notamment par un programme ambitieux de recherche sur l’hydrogène ».

François Bayrou veut plus de transparence

François Bayrou milite activement pour une plus grande transparence du secteur nucléaire en France. On ne pourra pas lui reprocher une quelconque posture, puisque telle était déjà sa position dans son programme de 2007. Le candidat centriste, surprise des élections cette année-là, estime que le nucléaire est un ingrédient indispensable au mix énergétique français, à court comme à moyen terme : « Actuellement, et à moyen terme, nous ne remplirons pas nos engagements concernant la réduction de gaz à effet de serre sans le nucléaire. Je ne suis pas favorable à un modèle fondé sur le tout-nucléaire. Le nucléaire ne doit être qu’une énergie parmi d’autre, et c’est pourquoi je propose un modèle de croissance sobre. Mais nous devons accompagner les efforts de recherche en faveur d’un nucléaire sûr, et qui produise moins de déchets ».

En ce qui concerne le futur, le candidat MODEM s’inquiète du renouvellement des vielles centrales, sans évoquer une éventuelle sortie du nucléaire : « Il se posera dans ce laps de temps [2050], à la fois la question des fermetures des centrales en fin de vie, et celle de leur renouvellement. »

Enfin, en ce qui concerne le MOX, Mr Bayrou juge les hésitations de François Hollandes suprenantes, et ne comprend pas pourquoi la France devrait se priver de l’avantage compétitif qu’elle possède dans ce secteur :  « Quant à la question du retraitement, au centre de la polémique, si vous l’interrompez, vous bloquez la production d’énergie nucléaire. Et donc, c’était incroyablement léger de signer une phrase comme celle-là. Et c’était en plus, pour la France, perdre quelque chose d’infiniment précieux pour elle, une compétence qu’elle a parmi les nations et qui fait que, dans ce secteur nous ne sommes pas écrasés, comme dans tous les autres secteurs ».

Par Pierre Thouverez

Sources : lemonde, liberation, site de l’UMP, site du PS, lexpress, lefigaro, site du Modem, site de Greenpeace

Difficile d’avancer sur les dossiers énergétiques en période électorale

[Publié le 12 mars 2012]

Lors d’une conférence organisée par Carnegie Europe, M. Oettinger a reconnu que les prix de l’énergie et notamment le prix de vente au détail de l’essence, avaient atteint des niveaux record en Europe. « Peu importe ce que nous faisons, l’énergie coûte de plus en plus cher et à l’échelle mondiale, les prix restent volatiles », a déploré le commissaire.

En Belgique, le litre de Sans Plomb 95 a atteint 1,74 euro, un prix sans précédent. En France, le sujet fait irruption dans la campagne présidentielle. François Hollande a déjà fait savoir qu’il souhaitait bloquer le prix de l’essence s’il était élu. Cette proposition n’est qu’une « plaisanterie », avait rétorqué Nicolas Sakozy fin février, soulignant que ce prix était déterminé par « un marché mondial ».

A l’occasion du débat télévisé du 5 mars, sur TF1, Marine Le Pen a de son côté affirmé qu’elle baisserait non seulement le prix du carburant si elle était élue, mais qu’elle réduirait aussi de 5% le prix du gaz, de l’électricité et des transports ferroviaires. Les élections à venir en France et aux Etats-Unis, ainsi que les récentes élections en Russie, créent un contexte défavorable à l’avancement des politiques énergétiques, a reconnu le commissaire européen. « Je ne pense pas que la politique énergétique soit au cœur des campagnes électorales. Nous devrions nous garder de prendre des décisions pour l’instant. Je pense que l’année prochaine, quel que soit le vainqueur des présidentielles américaines, nous serons en mesure de revenir à des relations normales dans le débat mondial sur le changement climatique. C’est pour l’instant impossible », a-t-il affirmé. « Les républicains sont agressifs »

Qualifiant le Parti républicain américain d’« agressif », M. Oettinger a affirmé que Barack Obama devrait faire preuve de prudence lors du débat électoral actuel. Le mouvement politique populiste et conservateur américain, le Tea Party, ne voit quant à lui « aucune corrélation entre les émissions de CO2 et le changement climatique », a rappelé M. Oettinger, soulignant cette fracture profonde dans les relations entre l’UE et les Etats-Unis.

Les « tests de résistance » menés sur les centrales nucléaires au lendemain de la catastrophe de Fukushima au Japon il y a un an ont servi de base à des discussions objectives sur l’énergie nucléaire. En France, cependant, ce débat ne sera lancé qu’en juin, après les élections, quel que soit le vainqueur du scrutin, a-t-il déclaré.

Contrairement à Nicolas Sarkozy qui soutient pleinement le secteur nucléaire français, M. Hollande souhaite réduire de moitié la consommation d’énergie nucléaire d’ici 2025.  Dans le pays natal de M. Oettinger, l’Allemagne, le gouvernement de coalition de la chancelière, Angela Merkel, a décidé en mai dernier de fermer la totalité des centrales nucléaires du pays d’ici 2022.

Source : EurActiv.fr

Twitter peut-il fausser les élections présidentielles ?

[Publié le 16 avril 2012]

Tout est parti de la possibilité de rendre public le 22 avril dès 18h30, date du premier tour de l’élection présidentielle, les résultats des sondages dits « sorties des urnes » par les réseaux sociaux et en particulier Twitter. Les médias s’enflamment alors que les autorités redoutent que la divulgation des résultats avant l’heure finale de clôture des bureaux de vote « n’altère la sincérité du scrutin ».

En effet, en apprenant les premières tendances, le comportement des électeurs pourrait s’en trouver modifié, ainsi que le choix du candidat auquel se rallier. Les abstentionnistes se rendraient peut-être aux urnes s’ils découvraient un résultat loin de leurs attentes. Il est cependant impossible de préciser dans quelle mesure cela pourrait bouleverser le résultat final. En effet, combien d’électeurs votent en fin de journée ?

L’estimation des résultats peut-elle galvaniser les dernières heures de vote ? Peu de chances que cela se produise, la majorité des électeurs ayant déjà voté à cet instant. Pour ceux qui n’auraient pas encore voté, une telle information parvenue dans les dernières minutes ne remplacera sûrement pas un choix mûrement réfléchi.

Et d’un point de vue égalitaire? A priori, il n’y a pas grande injustice entre les électeurs qui devront s’acquitter de leur devoir électoral avant 18 heures et ceux des zones urbaines. Avant d’obtenir une estimation fiable, il faut au moins patienter jusqu’à 18h45. Rajoutez à cela, le temps de diffusion de l’information sur la toile, peu de temps est donc laissé aux électeurs pour modifier leur choix.

Alors, Twitter peut-il fausser l’élection? Une telle question nécessite de connaître le poids réel de Twitter. Une part minime de la population (entre 2 et 5 millions d’utilisateurs), possède un compte twitter et l’utilise régulièrement. Or, parfois, il suffit de bien peu. Seulement 200 000 voix séparaient Jean-Marie Le Pen de Lionel Jospin au premier tour en 2002. Un faible pourcentage de tweets relayés ensuite sur Facebook suffirait pour amplifier l’information, jusqu’à – pourquoi pas – se retrouver sur une chaîne de télévision.

Toutefois, une loi existe pour contrecarrer cet effet : « En France, la diffusion de sondages et d’estimations est interdite à partir du vendredi soir minuit qui précède le dimanche du vote. Les diffuseurs s’exposent à des poursuites pénales et à des amendes allant de 3 500 à 75 000 euros. »

Cette question ne touche-t-elle que les médias ? L’enjeu des chaînes TV est de ne pas perdre le monopole de révélation du résultat. Twitter mettra-t-il fin au suspense élaboré par les grandes chaînes lors des soirées électorales ? En tout cas, les craintes émises par certains médias mettent en exergue la concurrence des journalistes Web face à l’information en temps réel.

Ne pouvant déterminer l’impact sur l’élection que pourrait avoir la révélation des premiers résultats avant l’heure de fermeture des bureaux de vote, la crainte des pouvoirs publics ne peut être ni approuvée ni rejetée, même si de nombreux spécialistes estiment que l’influence de Twitter relève plus du fantasme que d’une réalité concrète. Le gouvernement demandera-t-il à Twitter de déconnecter les comptes sur la zone française ? À suivre le 22 avril…

Par Sébastien Tribot

Le PS veut suspendre la loi sur l’ouverture du marché de l’électricité

La loi, qui vise à achever l’ouverture du marché de l’électricité en France, provoquera l’augmentation des prix et favorisera la spéculation, selon le député socialiste François Brottes. Dans un communiqué, jeudi 19 avril 2012, le conseiller de François Hollande chargé de l’énergie prône donc la suspension de ce texte sur la nouvelle organisation du secteur de l’électricité (Nome).

La fin du monopole d’EDF

Pendant deux ans, le monde de l’énergie en France a passé un temps fou à négocier cette législation, proposée par le gouvernement de François Fillon pour rassurer la Commission européenne sur la volonté de la France d’ouvrir réellement son marché de l’électricité à la concurrence. La loi est finalement entrée en vigueur en juillet 2011.

Parmi les principales mesures, le texte impose à EDF de vendre une partie de sa production à ses concurrents. Des opérateurs comme Poweo, Direct Energie ou GDF Suez peuvent maintenant acheter, à un tarif régulé (Arenh), jusqu’à 25% de l’énergie d’origine nucléaire produite par l’opérateur historique. Malgré des critiques nombreuses sur l’absence de réelle concurrence créée par le texte, la Commission européenne a fini par s’en contenter.

La création d’« un marché de capacité »

La loi Nome prévoit aussi l’instauration d’un « marché de capacité ». Ce dispositif vise à encourager l’investissement dans des moyens de production supplémentaires lors des périodes de pointe. Dans un avis rendu le 12 avril 2012, l’autorité de la concurrence s’est dite « réservée » sur l’instauration d’un tel système. « Ce dispositif va (…) constituer une source de coûts supplémentaires pour les fournisseurs alternatifs et pour les consommateurs, sans pour autant que sa nécessité pour assurer un bon fonctionnement des marchés de l’électricité soit démontrée », écrit l’autorité. « La loi Nome renforcera le caractère spéculatif de ce marché, et fera encore augmenter les prix de l’électricité », avertit M. Brottes en s’appuyant sur cette conclusion.

L’énergie, un bien public

Le député, qui est aussi un ancien membre de la commission Champsaur chargée d’examiner les tarifs de l’électricité, également co-président du groupe énergie à l’Assemblée nationale, demande aux Français de faire un choix entre « deux conceptions de l’énergie : de bien public ou spéculative ». A partir de 2013, le prix de l’Arenh sera fixé par la commission de régulation de l’énergie (CRE). Les tarifs, jusqu’à présent déterminés par l’Etat, resteront donc encadrés. La suspension de cette loi pourrait provoquer des tensions entre la Commission européenne et la France. Ann-Laure Bourgeois

Publié par P.T

Source : EurActiv.fr

Présidentielles 2012 : quelles ambitions pour l’industrie française ?

Selon François Hollande :

La création d’une banque publique d’investissement est nécessaire pour développer les PME et soutenir les filières d’avenir. Il faut participer à la conversion écologique de l’industrie. Pour financer les PME, il souhaite créer un livret d’épargne industrie.

La production et l’emploi en France doivent être favorisés par la fiscalité et les aides publiques en fonction des investissements réalisés. Un contrat avec les entreprises visant à la relocalisation des usines en France doit être créé. Et pour les entreprises qui se délocalisent, le remboursement des aides publiques reçues est prévu.

Le taux d’imposition sur les sociétés sera différent selon leur taille : 35 % pour les grandes, 30 % pour les petites et moyennes, 15 % pour les très petites.

Selon Nicolas Sarkozy :

La création d’une banque de l’industrie, avec une dotation d’un milliard d’euros de fonds propres, est prévue pour prêter aux PME.

Il prévoit aussi l’instauration d’une TVA anti-délocalisation, ainsi que de nouveaux accords de compétitivité emploi par entreprises (temps de travail, salaire…). Il faut, selon lui, accorder le label « Origine France Garantie » quand 50 % de la valeur ajoutée d’un produit est réalisée en France.

La CSG sur les revenus financiers sera relevée de deux points. Tout cela doit compenser une baisse de 13 milliards d’euros des charges patronales. « C’est une arme contre les délocalisations. Depuis 10 ans, nous avons perdu 500 000 emplois industriels à cause des délocalisations », a réaffirmé Nicolas Sarkozy.

[Pour rappel, les propositions des autres candidats]

Selon Marine Le Pen :

Pour endiguer la désindustrialisation de l’économie française, Marine Le Pen entend défiscaliser les PME/PMI, taxer les entreprises qui délocalisent à hauteur de 33 % et décomplexifier l’administration.

La création d’une loi « Achetons français » doit inciter les administrations publiques, les cantines et les restaurants d’entreprises, à consommer des produits français.

Selon François Bayrou :

Le « produire en France » s’adresse à la fois aux entreprises et aux consommateurs et concerne les produits industriels comme les services et l’agroalimentaire. Il s’agit de créer un « label France » gradué.

« Je créerai un commissariat national », indique le candidat centriste.

Concernant le réseau grandes entreprises-PME, François Bayrou est pour le partage des savoir-faire, l’amélioration de la sous-traitance et l’essaimage ˗˗ favorables à l’innovation et à l’exportation.

Pour mieux associer les laboratoires et les entreprises, un crédit impôt innovation viendra compléter le crédit impôt recherche « qui profite encore trop peu aux PME ».

Selon Jean-Luc Mélenchon :

La réindustrialisation doit porter sur des secteurs stratégiques comme la métallurgie/sidérurgie, la chimie des matériaux, l’électronique, l’électroménager. Il faut organiser la relocalisation à l’aide de taxes kilométriques et de visas écologiques et sociaux sur les importations – et interdire les licenciements économiques. Il prévoit la création d’un établissement public de l’industrie à l’échelle territoriale.

Selon Nicolas Dupont-Aignan :

La sortie de l’euro et l’instauration d’un protectionnisme « intelligent » sont indispensables à la réindustrialisation. Il faut stimuler l’innovation. Pour ce faire, il prévoit la création d’un Commissariat au Plan chargé de définir les filières à développer en priorité puis de les porter par de nouveaux pôles de compétitivité, mêlant public et privé. Les filières seront soutenues par la Caisse des Dépôts. Soit, une politique industrielle et d’innovation volontariste mais à la condition qu’elle soit écologique.

Selon Nathalie Arthaud :

Le protectionnisme n’est pas intéressant pour la France. Il signifie taxes, augmentations des prix et renchérissement de la vie pour les travailleurs. L’urgence est de combattre les licenciements qui se multiplient. « Les banquiers et les grands groupes du CAC40 doivent être expulsés afin de mettre en main des travailleurs, les leviers pour organiser la production. »

Selon Eva Joly :

Le renforcement des industries passe par la transition écologique de l’économie. Les secteurs du bâtiment, des transports collectifs, des énergies renouvelables ou encore des éco-matériaux ont besoin d’une main-d’œuvre nombreuse. Des aides d’État seront accordées aux projets bénéfiques pour l’environnement. C’est par ce biais que la création d’emploi sur le territoire doit se faire. Le renforcement du développement industriel régional est prévu.

Selon Philippe Poutou :

L’opposition aux délocalisations responsables des licenciements et l’interdiction des licenciements ainsi que la réduction du temps de travail, agiront dans le sens d’une relance industrielle.

Selon Jacques Cheminade :

La politique industrielle rime avec recherche scientifique. La part du PIB accordée à la science augmenterait de 0,9 % et serait orientée vers la maîtrise de la physique nucléaire et l’exploration de l’espace. Les retombées de ces deux domaines seraient importantes pour l’industrie de pointe.

Par Sébastien Tribot

Innovation et R&D : les propositions des candidats

Selon Nicolas Sarkozy :

Il faut favoriser l’émergence d’une dizaine de grands pôles universitaires de rang mondial. « Une convention entre les représentants de l’enseignement supérieur et de la recherche et les fédérations du secteur du numérique » prévoit un rapprochement universités-entreprises.

Nicolas Sarkozy souhaite créer une Agence de l’innovation numérique et mobiliser davantage de moyens à l’open data. Pour aider à la création de start-up, en « rassemblant les organismes d’aide d’accompagnement, de financement ou d’investissement, en un guichet unique », il souhaite créer « Start up France ».

Par ailleurs, il souhaite encourager le développement des PME.

Selon François Hollande :

Le soutien à l’innovation est synonyme de soutien à la recherche fondamentale. Un lien enseignement supérieur/recherche et innovation/valorisation et transfert de technologies doit être favorisé. Il est nécessaire d’apporter plus de moyens aux universités. Les PME-PMI bénéficieront davantage du crédit impôt recherche.

Le crédit impôt innovation viendra compléter le crédit impôt recherche, qui a pour but d’aider les jeunes entreprises à se développer. L’accès au crédit, la diffusion de l’innovation, le lien entre les entreprises innovantes et les laboratoires doivent être facilités. La croissance des PMI-PME doit être renforcée, grâce à la mise en place d’une banque publique d’investissement qui permettra de renforcer les fonds-propres.

Concernant l’innovation, il estime que son origine n’est pas toujours prévisible, bien qu’elle trouve en partie sa source dans la recherche fondamentale. Néanmoins, l’industrie peut apporter sa pierre à l’édifice, notamment dans la phase de développement où son expertise est indispensable.

La simplification des structures et des procédures permettra de gagner du temps pour se consacrer à l’enseignement et à la recherche.

L’erreur, ou l’échec d’un travail scientifique ne doit pas être sanctionné, mais perçu comme le cheminement logique qui conduira vers la réussite.

[Pour rappel, les propositions des autres candidats]

Selon Marine Le Pen :

Il faut bien distinguer les aspects quantitatif et qualitatif concernant la recherche et le développement. Bien que la part du PIB allouée soit moindre par rapport à celle du Japon, des États-Unis, ou encore de la Suisse, ce qui compte réellement, c’est la capacité des entreprises à innover et la qualité du continuum enseignement supérieur/recherche fondamentale/recherche industrielle/exploitation commerciale. La réussite tient dans l’organisation de ce continuum.

Pour que les PME puissent développer leurs ambitions technologiques, il faut leur faciliter la tâche en les laissant libres de développer leurs projets, de nouer les partenariats qu’elles entendent et de dégager les contraintes d’ordre administratif qui pèsent sur elles. Elle entend pour ce faire, mettre sur pied un Commissariat au plan/Haut conseil, en lui pourvoyant d’importants moyens.

Il est nécessaire de joindre harmonieusement les universités et le tissu industriel en un partage sain des tâches, tirer le meilleur de chaque partie, en s’inspirant éventuellement du modèle suisse. La recherche ne doit pas nécessairement venir des universités, mais bien de l’organisme le plus approprié. La création d’une recherche d’État doit consolider les recherches en apportant du soutien aux entreprises.

Il faut mettre en place un système de bourses de recherches afin de récompenser les initiatives fécondes et d’augmenter la fréquence et le montant des prix accordés aux chercheurs.

Selon Jean-Luc Mélenchon :

En prenant en compte les lois de finance successives, trois milliards d’euros de financement public sont alloués chaque année à la recherche des entreprises, un milliard provenant du seul crédit d’impôt recherche. En plus d’augmenter les subventions pour la recherche publique, il s’agit d’orienter son contenu et d’élargir les recherches – ce qu’il nomme, « l’appui à l’innovation », conditionné à des critères de développement social et écologique durable.

L’État doit apporter davantage de soutien aux PME-PMI. Le développement d’un tissu de PME technologique ne peut se faire que par la création d’un grand pôle financier visant notamment à faciliter l’obtention de prêts à taux très bas. En parallèle de la planification écologique, le pôle financier soutiendra les politiques d’investissement des entreprises vers les innovations industrielles aux productions utiles.

La RetD doit avoir pour ambition de financer les technologies synonymes d’avancées sociales et environnementales. Jean-Luc Mélenchon se démarque avec son grand projet de recherche sur la biodiversité et l’écosystème marins. Ce projet prévoit l’exploitation des immenses gisements énergétiques des mers.

Les pôles de compétitivité seront remplacés par des pôles de coopération. Un établissement public de recherche technologique et industrielle sera crée sur le modèle du CNRS.

Selon François Bayrou :

L’innovation mérite d’être amplifiée et la recherche doit conserver une visée internationale. L’enseignement supérieur doit poursuivre sa modernisation, notamment concernant l’autonomie des universités, le recrutement des enseignants. Il est nécessaire d’assurer un fonctionnement sain basé sur la coopération.

L’innovation se fait en amont, par la formation de la jeunesse. Par une concertation, l’organisation de l’enseignement supérieur et de la recherche, doit être repensée. La préparation des étudiants au marché de l’emploi, doit envisager sérieusement la possibilité de formation en alternance. Les universités doivent prendre en considération la formation continue.

Pour la recherche, l’adoption d’une loi d’orientation est nécessaire pour préciser le rôle et les priorités des organismes de recherche. En outre, il faut rééquilibrer le financement public de la recherche afin de soutenir les laboratoires, diminuer le poids des contraintes administratives et valoriser le parcours doctoral.

Selon Eva Joly :

Le développement de l’innovation écologique au sein du tissu industriel est indispensable. Il faut donc augmenter les dépenses de RetD. Pour ce faire, l’effort public de recherche civile doit être plus élevé, financé en partie par une réorientation du crédit d’impôt recherche.

Il faut favoriser l’émergence des PME innovantes et créer des conditions pour un développement de la RetD privée. Eva Joly prévoit de lancer des concours d’innovation, de proposer une fiscalité incitative et d’ouvrir le dialogue entre recherche et industrie.

Les PME doivent être accompagnées financièrement, ce ne doit plus être l’apanage des grandes entreprises.

Les régions doivent tenir un rôle plus important dans la RetD et être plus actives dans l’accompagnement de l’économie locale.

Le rôle des universités tient dans la formation des cadres et dans l’exploration des frontières des connaissances. Cependant, il ne doit pas être confondu avec celui des entreprises, bien que des relations ou des accompagnements entre les deux ne soient pas exclus.

Selon Nathalie Arthaud :

La recherche doit être une priorité, de fait, il est indispensable d’injecter des fonds importants dans la recherche. Des sommes non plus soumises à la « loi du marché » et aux spéculateurs mais en réponse aux défis humanitaires et environnementaux que nous devons affronter. Et c’est l’État, plutôt que les PME privées, au travers d’un travail collectif, qui doit en être garant.

Selon Nicolas Dupont-Aignan :

Dans un premier temps, dans le but de favoriser la RetD, il faut encourager les bons élèves à choisir des métiers scientifiques en valorisant ces métiers dans la société et en termes de salaire.

Il faut renforcer la dynamique de partenariat entre les acteurs de la recherche, des entreprises et de l’enseignement. Pour soutenir les initiatives des laboratoires de recherche, une Agence de RetD, en remplacement de l’Agence Nationale de Recherche, doit être créée, tout en conservant une part du budget pour la recherche de projets innovants.

Une séparation entre la recherche et l’enseignement doit avoir lieu. L’université doit conserver son rôle de transmission de la connaissance. Les organismes de recherche doivent oeuvrer au service de l’État. Aussi, les chercheurs et les enseignants doivent être fonctionnaires.

Selon Jacques Cheminade :

Les capacités créatrices de chacun doivent être prises en compte dans l’enseignement. Il faut revaloriser les postes de sciences physiques et améliorer le salaire des doctorants.

Pour développer un tissu de PME technologiques, la création d’une banque publique d’investissement ou d’un pôle financier public comprenant un secteur spécialisé dans les PME innovantes, est prévue.

Les PME seront soulagées de 3 % sur l’impôt sur les sociétés. Pour les PME de moins de 50 salariés, l’obligation des 35 heures sera levée, les déclarations fiscales simplifiées.

Les chercheurs devront pouvoir se consacrer à l’enseignement et inversement. Un lien CNRS – universités – entreprises devra être établi : l’ensemble CNRS – universités centré sur la recherche fondamentale et les entreprises sur la recherche appliquée.

Une journée par semaine, les professeurs d’université et les chercheurs du CNRS pourront intervenir en tant que consultants dans les entreprises. Le CNRS devra par ailleurs être rajeuni.

(Source : www.votonspourlascience.fr/blog/)

Par Sébastien Tribot

 

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

Modéliser un circuit intégré en graphène, à l’aide d’un crayon ionique

Plus que jamais au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène, matériau « miracle » par excellence, est un cristal bidimensionnel de carbone composé d’une simple couche sans défaut, dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier, de type rayons de nid d’abeille.

L’empilement de ces couches constitue le graphite, existant dans la nature. Le graphène est un des matériaux les plus résistants testés jusqu’à présent, il possède de remarquables qualités de conductivité et d’imperméabilité à la plupart des gaz, ce qui pourrait rendre son utilisation à l’échelle nano très intéressante. Son seul vrai défaut, et pas des moindres : sa production reste encore très problématique, et est particulièrement onéreuse.

Ce sont les fantastiques propriétés électriques de ce cristal bidimensionnel qui ont amené les scientifiques de tous bords à imaginer le futur des circuits intégrés, futur dans lequel le graphène aurait donc une place de choix. Une équipe de chercheurs de l’université de Floride a donc décidé dans cette optique de s’attaquer à l’un des obstacles majeurs à l’utilisation de ces feuilles d’un atome d’épaisseur dans la conception des circuits intégrés, à savoir comment produire le graphène de manière parfaitement fiable et à grande échelle.

Carbure de silicium (SiC)

L’équipe de scientifiques américains aurait récemment développé une nouvelle technique prometteuse de création de modèles de graphène, dont la précision du tracé pourrait se prêter idéalement à la conception et au dessin complexe d’un circuit intégré, technique s’appuyant sur un minéral presque exclusivement artificiel, le carbure de silicium (SiC). La forme monocristalline du carbure de silicium peut être considérée comme un semi-conducteur, alors que sa forme polycristalline est rangée dans la catégorie des céramiques.

L’obtention du graphène à partir du SiC, que l’on appelle graphène « épitaxié », n’a en soi rien de bien nouveau. Il suffit de chauffer sous vide le carbure de silicium, à 1300 degrés, pour que les atomes de silicium composant les couches externes du SiC s’évaporent, ne laissant alors plus que les atomes de carbone, qui finissent par se réorganiser en fines couches de graphène pur.

Ions Or et « crayon ionique »

Idéale pour créer de grandes feuilles de graphène, cette décomposition thermique présente toutefois des limites lorsqu’il s’agit d’imprimer une forme, un circuit ou un dessin précis après évaporation. Le processus de gravure ou de découpe habituellement utilisé pour la mise en forme a pour inconvénient de réduire la mobilité des électrons dans le matériau, une de ses qualités les plus précieuses.

L’idée de génie de l’équipe américaine pour limiter la croissance du graphène, et ainsi le cantonner dans les limites d’un tracé précis d’une épaisseur d’à peine une vingtaine de nanomètres, fut d’ajouter des ions Or au carbure de silicium, à l’aide d’un « crayon ionique ». Les ions Or ont la particularité de baisser d’une centaine de degrés la température à laquelle le graphène se forme, l’amenant à se former autour de 1200 degrés Celsius au lieu des 1300 degrés requis. Les ions Or laissent donc la possibilité à une fine couche de graphène de se former partout où elle est désirée, une fois le carbure de silicium porté à 1200 degrés (à cette température, le carbure de silicium pur ne forme pas de graphène), respectant ainsi le tracé exact voulu pour le circuit intégré, tracé esquissé par le crayon ionique.

Croissance sélective à plus faible température

L’utilisation de cette technique par l’équipe de l’université de Floride a permis à de créer, avec succès, des nanofils de graphène, et ce à plusieurs reprises. En affinant encore cette technique, les scientifiques espèrent pouvoir faciliter la formation et la croissance sélective du matériau miracle, mais à des températures encore moins élevées. Ces travaux ont fait l’objet d’une publication dans le journal de l’Institut Américain de Physique, « Applied Physics Letters ».

Par Moonzur Rahman

L’actualité du Graphène :