Croissance économique, Innovation et Recherche-Développement des entreprises : des liens complexes qui méritent d’être explicités

Quels bilans peut-on dresser en termes de croissance future, des programmes d’investissement déjà engagés en faveur de la RD et de l’Innovation ?

A titre de comparaison, quels sont les efforts réalisés par les Etats-Unis d’Amérique dans ce domaine ? (Etape 1)

Quels enseignements peut-on tirer de ces expériences passées ? Que conseillent de faire les Sciences Economiques en matière de nouvelle politique de Croissance ? (Etape 2)

Autant de questions auxquelles nous allons répondre avec pour objectif de mettre en perspective la question de la RD des entreprises avec les enjeux de la Croissance et de l’Innovation. Ce recul macroéconomique peut être utile avant que vous n’abordiez d’autres fiches, davantage centrées sur le processus de RD et de production des connaissances au sein des entreprises.

Malgré des efforts récents sur lesquels nous allons revenir en détails, les prévisions de croissance économique s’assombrissent de nouveau pour l’Europe et la France : le PIB de la zone euro se contracterait légèrement en 2012 (-0,2 %) puis progresserait faiblement en 2013 (+1,2 %), alors que la France résisterait à peine mieux (0,6 % en 2012 et 1,4 % en 2013). Or, c’est bien connu, le retour d’une croissance pérenne aurait de multiples avantages. Il viendrait soutenir l’emploi, alors que le taux de chômage risque, d’après l’OCDE, de dépasser en 2013  les 10% en France comme dans la zone euro.

Il permettrait également d’enclencher un désendettement, alors que cette dernière s’enlise dans la crise des dettes souveraine avec, toujours selon l’OCDE, un taux d’endettement (engagements financiers bruts des administrations publiques) qui frôle les 98 % du PIB. Il faciliterait enfin la mise en œuvre d’efforts bienvenus en matière énergétiques et climatiques, objectifs, absolument cruciaux à moyen-terme tant sur le plan économique qu’en terme de bien-être, que l’Union européenne s’est fixée en 2008 avec le paquet énergie-climat. Il est urgent de créer les conditions, qui ne sont pas réunies aujourd’hui en France notamment, permettant aux entreprises de produire les connaissances, sources des innovations futures et moteurs de la croissance.

Quels bilans peut-on dresser en termes de croissance future, des programmes d’investissement déjà engagés en France et en Europe ? 

A titre de comparaison, quels sont les efforts réalisés par les Etats-Unis d’Amérique en faveur de la RD et de l’innovation ? En 2011, le budget des Etats-Unis d’Amérique fit la part belle à l’éducation et la recherche, alors que l’ensemble des autres dépenses subissaient un gel (hors sécurité nationale). Cet effort portait principalement sur l’éducation dans le supérieur (universités) où les bourses d’études et de doctorat notamment augmentèrent très fortement dans le but d’atteindre deux objectifs : à court terme, en rallongeant la durée des études, on évitait que de jeunes travailleurs ne se retrouvent sur un marché du travail encore largement déprimé et, à plus long terme, en augmentant fortement la qualification des jeunes américains, on parie sur les réussites et les innovations de futurs créateurs.

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

En pleine crise, le fait que ce budget ait augmenté de plus de 30 % (par rapport à 2010) reflétait clairement (et aujourd’hui encore) la conviction américaine selon laquelle l’éducation et l’innovation sont les principaux moteurs de son économie et de sa croissance à long terme. Cette conviction est validée par les travaux des économistes de la croissance et de l’innovation.

Pourtant, et au contraire des Etats-Unis, l’Europe ne fournit pas encore autant d’effort en matière d’éducation supérieure, alors que l’enjeu pour elle est identique et consiste à élever son niveau de capital humain, afin d’être capable d’offrir la population qualifiée nécessaire aux entreprises, pour mener à bien des programmes de RD ambitieux. Le lien entre éducation et progrès technique réside en partie dans le fait que le niveau d’éducation affecte la croissance de long terme à travers un effet sur la vitesse d’adaptation aux changements technologiques.

Au moment où le débat sur le soutien de la croissance fait un retour remarqué en France, il est bon de rappeler ici que des efforts budgétaires avaient déjà été engagés en matière d’investissements d’avenir et de soutien de l’innovation dès 2007. Pour rappel, ces efforts ont porté principalement sur l’enseignement supérieur et la recherche, et ont été complétés par un grand emprunt national, en 2010, de 22 milliards d’euros. La création de grands campus d’écoles et d’universités qui, à terme, regrouperont un grand nombre de chercheurs et d’étudiants (favorisant une émulation forte) ainsi que de nouvelles structures de partenariats public-privé (instituts de recherche technologique…) sont toujours en cours de financement.

Bien entendu les effets positifs de ces mesures ne sont pas immédiats… mais le retard de la France est trop profond pour être optimiste. Pour preuves : la France investit aujourd’hui environ deux fois moins dans la formation de ses étudiants que les Etats-Unis, avec 11 000 euros par an et par étudiant, et reste bloquée, depuis une décennie déjà, autour des 2 % de PIB investis en recherche-développement (RD) contre déjà plus de 3 % outre atlantique. Au final, la stratégie de Lisbonne de 2000 qui consistait à atteindre les fameux 3 % de R-D dès 2010, pour chaque Etat membre de l’Union, a du être repoussé à l’horizon 2020, sans que toutes les raisons de ce raté n’aient été clairement tirées (la crise économique étant loin d’être le seul responsable).

Par ailleurs, force est de préciser que les deux-tiers de cet objectif devaient être rempli par les entreprises privées (et le restant par les Etats européens), dans lesquelles le nombre de chercheurs y est deux fois plus faible qu’aux Etats-Unis ou au Japon, avec seulement un peu plus de 3 chercheurs pour 1 000 emplois en Europe, contre plus de 7 dans les deux autres pays !

Faute de fournir autant d’effort dans les domaines de l’enseignement supérieur et de la RD des entreprises, la France et L’Europe risque donc de subir une croissance molle dans les années à venir, voire un décrochage économique à long terme par rapport aux Etats-Unis.

Quels enseignements peut-on tirer de ces expériences en matière de nouvelle politique de croissance ? Quels conseils tirer des travaux en Sciences Economiques dans ce domaine ?

De façon précise, Enseignement supérieur et Innovations des entreprises de petite taille sont deux compléments indispensables pour sortir la France d’une croissance molle. Les liens sont en effet étroits entre la croissance, la RD des entreprises et l’enseignement supérieur, et cela principalement à travers les notions d’innovations radicales et d’innovations incrémentales. Les premières modifient profondément les conditions d’utilisation de la technologie et, de ce fait, s’accompagnent d’un bouleversement technologique (passage du téléphone à internet par exemple) ; alors que les secondes, plus modestes et graduelles, regroupent les améliorations de techniques ou de produits déjà existants. Or ces deux types d’innovations n’ont pas les mêmes effets sur les taux de croissance.

Les innovations radicales renforcent la croissance de long terme. Les innovations incrémentales permettent quant à elles un rattrapage économique, à l’image de ce que fit l’Europe, sur la période 1945-1970, pour rattraper son retard de productivité par rapport aux Etats-Unis, grâce à un effort important dans l’enseignement primaire et secondaire, et dans des secteurs programmés et centralisés (énergie, transport…). Désormais, le renforcement du potentiel de croissance de la France nécessite de promouvoir à la fois l’innovation des entreprises et l’enseignement supérieur, pour sortir d’un développement jusqu’à présent trop basé sur les innovations incrémentales.

La capacité à produire des innovations radicales repose donc, au final, sur des Institutions qui ne sont pas les mêmes que celles ayant soutenu le développement des innovations incrémentales, lesquelles sont notamment favorisées par des investissements de long terme dans des entreprises de grande taille. Au contraire, l’innovation radicale requiert plus d’initiatives individuelles et de prise de risque que souvent seules les entreprises de petite taille (start-up, PME, entreprises de tailles intermédiaires…) sont capables de réaliser. L’innovation radicale exige aussi des ruptures techniques qui découlent généralement de travaux de recherche « pionniers » issus des universités.

Au regard de ce qui précède quelques conclusions en matière de politique économique peuvent être mise en avant.

Tout d’abord, un constat s’impose à propos du tissu industriel de la France, archétype du pays centralisé : il est constitué de grands et anciens groupes qui ont fait sa réussite par le passé. La France a désormais besoin d’entreprises plus réactives et innovantes dans une multitude de secteurs (numérique, santé, efficacité énergétique, hybridation des technologies…).

Ensuite, il apparait urgent, au moment où la discussion sur la croissance et le redressement productif bat son plein en France et en Europe, que l’environnement de ces entreprises évolue favorablement : par exemple qu’elles obtiennent enfin un accès bien réel au capital-risque, et qu’elles soient impliquées totalement dans les dispositifs d’investissements en RD déjà existants ou à venir.

Autant de points, pourtant essentiels, que le premier bilan du grand emprunt esquissé l’été dernier (conférence de l’Elysée du 27 juin 2011) laisse encore en suspens.

Par Pascal Da Costa

 

L’auteur

Diplômé du magistère d’économie de Paris 1 Panthéon-Sorbonne – ENS Ulm – EHESS et docteur en économie de Paris 1, Pascal da Costa est enseignant-chercheur et responsable des cours d’Économie à l’Ecole Centrale Paris. Ses travaux de recherche portant sur l’innovation, l’environnement et l’énergie, visent à déterminer les sentiers de croissance durable de nos économies, lesquels se fondent notamment sur des ruptures fiscales et technologiques.
 
 
 
 
 
 
 
 
 

 

 

 

 

 

 

 

 

 

 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

L’AIE fait sa révolution énergétique

L’Agence Internationale de l’Energie a publié le 11 juin le résumé pour décideurs du rapport Energy Technology Perspectives 2012. Pathways to a Clean Energy System  (ETP 2012).  Un panel de nouvelles technologies est prêt pour transformer le système énergétique mondial, offrant la perspective de favoriser la sécurité énergétique, de générer d’énormes retours sur investissement, ainsi que de réduire les impacts environnementaux, affirment les experts de l’Agence.

Investir 36 trillions de dollars pour économiser 100 trillions

La révolution énergétique n’ira pas sans investissements massifs, mais les bénéfices à long-terme dépassent très largement les coûts initiaux. Message-phare d’ETP 2012 : « Investir dans l’énergie propre, cela a du sens sur le plan économique ».  Un investissement de 36 000 milliards de dollars est nécessaire d’ici 2050 pour transformer en profondeur le système énergétique. C’est équivalent à 130 dollars par personne et par an affirment les experts (8 euros et demi par personne et par mois). Mais « Investir, ce n’est pas la même chose que dépenser » insistent-ils. Les 36 000 milliards investis permettront d’économiser 100 000 milliards de dollars (voir même 150 000 milliards selon les hypothèses retenues) du fait de la réduction du recours aux combustibles fossiles : charbon, pétrole et gaz naturel. Les bénéfices de ce plan sont donc colossaux : pour un euro investi, ce sont 3 euros d’économisés. Avec à la clé une baisse des émissions de CO2 compatible avec les recommandations des experts du climat.

« Quand les gouvernements vont-ils se réveiller ? »

La directrice de l’AIE, Maria van der Hoeven, a souligné qu’alors que, du fait de la crise économique  « nos efforts pour accomplir la transformation du système énergétique vers les énergies propres marquent le coup, je veux souligner l’énorme opportunité qu’il y a devant nous. » Et elle lance sans ambages un appel: « Maintenant que nous avons identifié les solutions et les nombreux bénéfices, quand les gouvernements vont-ils se réveiller et prendre conscience du danger de l’attitude contemplative, et adopter des politiques qui permettront de changer radicalement notre système énergétique ? Ne rien faire de plus, c’est dénier à nos sociétés le bien-être qu’elles méritent »

Découpler PIB et consommation d’énergie

L’intensité énergétique (énergie consommée par point de PIB) a diminué de 1,2% par an ces 40 dernières années. C’est insuffisant. En passant à 2,4% par an dans les 4 décennies à venir, alors cela conduira à une baisse de deux tiers de l’intensité énergétique d’ici 2050. Et c’est sur cette base que les experts ont construit leur scénario « D2S » (2°C) compatible avec le niveau de réduction des émissions de CO2 recommandé par le GIEC. Le découplage PIB / consommation d’énergie joue donc un rôle très important dans ce scénario. Les mesures en faveur de l’efficacité énergétique sont « presque toujours économiquement compétitives dans le long-terme, aident à réduire les émissions et contribuent à la sécurité énergétique ». L’énorme gisement que représente l’efficacité énergétique reste cependant sous-exploité, déplorent les experts. Ils invitent les gouvernements à mettre en place des mécanismes d’incitations financières qui « seront essentiels pour déverrouiller l’énorme potentiel de l’efficacité énergétique et permettent des investissements privés à grande échelle » 

L’électricité, cœur du système énergétique de demain

Les bénéfices d’une électricité à bas carbone vont au-delà du seul secteur de l’électricité, et concernent l’ensemble du système énergétique. L’électricité bas carbone a en effet le potentiel de réduire les émissions de gaz à effet de serre de l’industrie, des bâtiments (chauffage) et des transports. Par exemple, dans le cadre du scénario D2S « 90% des véhicules du parc automobile mondial de 2050 seront équipées de moteurs électriques », dont l’efficacité énergétique est très supérieure à celle des moteurs thermiques : un véhicule électrique consomme 4 fois moins d’énergie pour faire un kilomètre que son équivalent thermique.

Les énergies renouvelables domineront largement le mix électrique de 2050

 « L’électricité bas carbone est au cœur du système énergétique durable ». Les experts affirment que l’intensité carbone du kWh électrique  (masse de CO2 émise par unité d’électricité générée) peut être réduite de 80% d’ici 2050 grâce aux technologies bas-carbone. Et « les énergies renouvelables joueront un rôle crucial à ce sujet ».

Alors que la production électrique va doubler d’ici 2050, la part des énergies renouvelables passera de 19% aujourd’hui à 57% en 2050 dans le scénario D2S. Il s’agit principalement de l’éolien, du solaire et de l’hydro, avec les plus forts taux de croissance pour les deux premiers.  La part des énergies renouvelables sera de plus de trois fois supérieure à celle du nucléaire. Les fossiles (avec séquestration du carbone) combleront le quart restant. Cela correspond en valeurs absolues, à un accroissement des énergies renouvelables d’un facteur 6.

L’éolien et le solaire, à eux seuls, dépasseront d’environ 50% la part du nucléaire. « Intégrer une part beaucoup plus grande d’énergies renouvelables fluctuantes est possible » affirment les experts. En 2050, la part des énergies renouvelables variables (éolien et solaire) atteindra « entre 20% et 60% du mix électrique », selon les régions du monde.  Cependant, des goulots d’étranglement, empêchant une circulation optimale de l’électricité existent aujourd’hui dans les réseaux de plusieurs pays, comme par exemple l’Allemagne, Chine, Japon. Il est donc nécessaire d’investir dans les réseaux électriques.

Les experts constatent que « les énergies renouvelables sont dès aujourd’hui compétitives dans de nombreux marchés » ajoutant qu’elles «  vont prendre une part croissance dans la production électrique dans les années à venir ». Une analyse parfaitement en phase avec celle de l’IRENA (Agence Internationale des Energies Renouvelables, indépendante de l’AIE), qui vient elle aussi de publier une série de rapports à ce sujet.

La gestion de la demande, un levier majeur de flexibilité

Des réseaux électriques plus puissants et plus intelligents permettront une optimisation de la gestion de la demande (« demand response », dans le jargon des experts).

Une meilleure utilisation des technologies de chauffage a par exemple le potentiel de réduire de 25% le pic de demande électrique lié au chauffage d’ici 2050, ce qui permet d’éviter de recourir à de coûteux moyens de gestion de pointe. Une approche qui serait particulièrement pertinente en France, pays où la demande électrique est très thermosensible.

Autre exemple, l’approche « Grid-2-Véhicule » permet la recharge intelligente des véhicules électriques quand l’électricité éolienne et solaire sont abondantes, et au contraire la fourniture d’électricité au réseau par les batteries des véhicules électriques stationnés durant les périodes de pointe (« Véhicule-2-Grid »).

« En réalité, la gestion de la demande peut techniquement délivrer toute la flexibilité nécessaire » pour assurer l’équilibre du réseau électrique estiment les experts.   Les investissements dans les réseaux intelligents sont de plus très pertinents sur le plan économique : investir 1000 milliards d’euro dans les Smart-Grids permet d’envisager un retour sur investissement de 4000 milliards euros. 

S’équipant de panneaux solaires ou de micro-éoliennes, les consommateurs, devenus producteurs décentralisés, vont pouvoir participer au lissage du système électrique à travers la modulation de la demande et le stockage de l’énergie. « Permettre et encourager les technologies et les comportements qui optimisent l’ensemble du système énergétique peut génèrer d’énormes bénéfices économiques ». Il ne s’agit pas d’un changement de comportement s’inscrivant dans une logique punitive et régressive, mais au contraire de consommer l’énergie de manière éco-intelligente, à niveau de confort égal, ceci tout en économisant de l’argent. S’équiper par exemple d’un dispositif permettant la mise en marche de sa machine à laver ou la recharge de son véhicule électrique dès que l’énergie solaire et/ou éolienne est abondante comparativement à la demande globale sur le réseau relèvera du bon sens citoyen. Cette dynamique est dès aujourd’hui en marche au Danemark.

Au final,  « le système énergétique sera plus intelligent, plus unifié, et plus intégré qu’aujourd’hui  ».

Les énergies fossiles n’auront pas totalement disparues en 2050

L’augmentation absolue de la consommation de charbon dans le monde est « la tendance la plus problématique » concernant les émissions de CO2. Mais, compte-tenu de la très forte dépendance au charbon de nombreuses régions du monde, il continuera de jouer un rôle important estiment les experts. Il sera donc essentiel d’améliorer l’efficacité énergétique des centrales à charbon dans les 10-15 ans à venir. Les marges de progrès sont importantes : travailler avec des vapeurs à plus haute température permet par exemple d’envisager 670 grammes de CO2 par kWh, c’est-à-dire 30% de mieux que la moyenne actuelle.

Le gaz naturel est qualifié  d’allié « de transition », mais qui doit être utilisé comme outil de flexibilité favorisant l’intégration de hauts niveaux d’énergies renouvelables variables.

Les technologies de capture du carbone (CCS) constituent selon les experts le seul levier permettant à de nombreux secteurs tels que ceux de la production du fer, de l’acier, ou du ciment, de réduire massivement leurs émissions. Les experts de l’AIE estiment que cela serait une erreur d’abandonner cette technologie qui est contestée par les ONG environnementales.

Rio+20 en tête

Alors que le sommet Rio + 20 s’ouvre ce mercredi, l’AIE et l’IRENA ne sont pas les seules organisations à publier d’importants rapports. L’Organisation Internationale du Travail vient par exemple d’en publier un soulignant que le passage à une « Economie Verte » concernera 1500 millions d’emplois dans le monde (énergie, agriculture, pêche, sylviculture, bâtiments, transports) et génèrera au final un solde positif de 0,5 à 2% des emplois mondiaux totaux (3000 millions d’emplois), c’est-à-dire entre 15 et 60 millions d’emplois. Il permettra aussi à des millions de travailleurs de sortir de la pauvreté.

Par Olivier Danielo

 

En savoir plus

Release Preview de Windows 8 : quelles nouveautés ?

Longtemps attendue, la Release Preview de Windows 8 s’est vue proposée en téléchargement gratuit le 1er juin 2012. Parmi les nouveautés qu’elle présente, on note :

  • L’environnement Métro plus approfondi qu’avant. Davantage d’applications sont proposées, souvent remaniées et donc plus fonctionnelles. Citons en exemple les applications Voyages, Actualité et Sport, toutes trois conçues par Bing. Plus esthétiques et interactives, elles immergent davantage l’utilisateur. Elles joueront un rôle déterminant dans le succès que connaîtra ou non le système d’exploitation. Métro est également utilisable sur les tablettes tactiles ;
  • La lecture de contenu flash devient envisageable grâce à l’intégration directe de Flash Adobe sur la version Internet Explorer 10. En revanche, seuls les contenus Flash approuvés par Microsoft seront accessibles via Explorer 10. La version Chrome se différencie ainsi en affichant n’importe quel contenu Flash ;
  • Le menu « Démarrer » plie définitivement bagages ;
  • Les options de personnalisation de l’écran d’accueil sont plus nombreuses ;
  • Avec le Start Screen, les activités principales de l’utilisateur sont visibles directement. Ainsi, plus de perte de temps pour accéder aux dernières nouvelles ou aux informations utiles (météo, mails…) ;
  • La gestion du double écran se veut corrigée, ainsi Microsoft assure une meilleure prise en charge des configurations multi-écrans ;
  • De nouveaux gestes tactiles sont désormais supportés tels que le zoom, la rotation, le charm bar, le scroll ou l’app bar.

En outre, le système gagne en stabilité et en vitesse, notamment pour l’ouverture du bureau ou des applications. Selon Microsoft, ces performances en hausse sont liées à des optimisations du contenu multimédia. En cause, le taux d’occupation du processeur se révèle plus faible que celui de Windows 7. Autre avancée, les transitions entre les pages sont plus fluides, pour s’approcher du « temps réel ».

Et pour les professionnels ? Une version RTM (Released To Manufacturing) serait bouclée et disponible fin juillet. Mais pour l’heure, certains craignent que la Release Preview se destine plus au grand public qu’aux professionnels. Il faudra attendre la sortie finale pour confirmer ou infirmer ces doutes.

Windows a d’ores et déjà lancé son offre de mise à jour permettant de basculer de Windows 7 à 8. Cette migration vers Windows 8 sera accessible pour ceux qui achèteront un PC Windows 7 avant le 31 janvier 2013. Elle ne devrait pas coûter plus de 15 euros.

La version finale de Windows 8, quant à elle, devrait arriver pour le mois d’octobre 2012.  Un calendrier qui ressemble à s’y méprendre à celui de Windows 7, qui avait profiter de la période des fêtes pour effectuer un bon démarrage. En attendant, la Release Preview continuera d’évoluer. Microsoft assure d’ailleurs avoir gardé quelques surprises sous le coude pour la version finale.

Windows 8 Release Preview est disponible gratuitement ici

Par Sébastien Tribot, journaliste

 

A lire aussi :

Le futur « Windows 8 » de Microsoft conçu pour les PC comme les tablettes

Du nouveau sur Windows 8

L’essentiel de Reach (juin) 1/2

Registre d’intention pour la classification et l’étiquetage harmonisé

04/06/2012
Une nouvelle intention a été ajoutée au registre d’intention pour la classification et l’étiquetage harmonisés. Il s’agit de la 1-methylpyrrolidin-2-one (N° CAS : 872-50-4 et N° CE : 212-828-1). Plus d’informations sur :
http://echa.europa.eu/web/guest/registry-current-classification-and-labelling-intentions

La nouvelle version de IUCLID disponible

05/06/2012
La nouvelle version de IUCLID 5.4 est disponible sur http://echa.europa.eu/fr/view-article/-/journal_content/0aa0c0b2-8e88-40d7-9bdf-45ac65c2c351. Cette nouvelle version comprend des modifications avec des champs supplémentaires tels que les scénarios d’exposition, les substances PBT, les données sur l’évaluation des dangers ainsi que d’autres fonctionnalités.

Substances CMR : publication d’un rapport

04/06/2012
L’ECHA a publié le 4 juin un premier rapport sur les substances cancérogènes, mutagènes ou toxiques pour la reproduction (CMR) enregistrées au titre du règlement REACH ou notifiées au titre du règlement CLP. Le rapport fait le point sur les informations dont dispose l’Agence au mois d’avril 2012. Cette étude, dont les résultats sont provisoires, révèle que 60% des substances sont soit enregistrées sous REACH soit notifiées à l’inventaire C&L. Pour environ 40% des substances, aucune correspondance n’a pu être trouvée. De nombreuses raisons peuvent être invoquées concernant ces 40%, par exemple, certaines substances de l’annexe VI sont rares et peu susceptibles d’être mises sur le marché tandis que d’autres ont été remplacées par des substances moins dangereuses. L’Agence considère que cette première évaluation ne fournit toutefois pas un tableau complet de l’ensemble des CMR utilisées dans l’UE. Elle prévoit par conséquent d’analyser certaines lacunes d’information mises en évidence par le rapport. En particulier les substances classées CMR par l’industrie mais qui ne figurent pas pour autant dans l’annexe VI du règlement CLP. Le rapport complet est disponible sur :
http://echa.europa.eu/documents/10162/13562/cmr_report_en.pdf

Deadline du 19/06/2012 pour notifier des substances SVHC présentes dans des articles

06/06/2012
Tout producteur ou importateur d’articles doit notifier à l’ECHA les substances extrêmement préoccupantes (SVHC) contenues dans leurs articles lorsque les conditions énoncées à l’article 7.2 du titre II du règlement REACH sont remplies. Cette obligation de notification est applicable 6 mois après qu’une substance ait été inscrite à la liste des substances candidates à autorisation. Le 19 décembre 2011, 20 substances ont été ajoutées sur la liste des substances candidates à autorisation : l’échéance pour notifier ces substances est le 19 juin 2012.
http://echa.europa.eu/web/guest/view-article/-/journal_content/8034a9b1-df77-4228-b10b-afa874bb094a

Soumission du rapport de l’utilisateur en aval maintenant en ligne

06/06/2012
Les utilisateurs en aval peuvent dorénavant déclarer leurs utilisations à l’ECHA directement au moyen d’un formulaire en ligne. Ce formulaire cible les utilisations qui ne sont pas couvertes par le(s) scénario(s) d’exposition transmis par le fournisseur. Il remplace et simplifie la déclaration précédemment faite sous IUCLID. Plus d’informations sur :
http://www.echa.europa.eu/en/web/guest/view-article/-/journal_content/fb14c527-a1e2-4822-90e7-b5432a464846

Informations pour éviter les essais inutiles sur les animaux – deux nouvelles demandes

06/06/2012
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • Reaction mass of bis(2,2,6,6-tetramethyl-1-octyloxypiperidin-4-yl) 1,10-decanedioate and octane-1,8-diylbis[oxy(2,2,6,6-tetramethylpiperidine-1,4-diyl)] bis[2,2,6,6-tetramethyl-1-(octyloxy)piperidin-4-yl] didecanedioate

Les informations sur ces substances sont à soumettre pour le 19 juillet 2012.
http://echa.europa.eu/information-on-chemicals/testing-proposals/current

FAQ sur la diffusion et la confidentialité des informations des FDS dans IUCLID 5.4

07/06/2012
L’ECHA publie une FAQ sur la diffusion et la confidentialité des informations des FDS dans IUCLID 5.4. Cette FAQ est disponible sur :
http://echa.europa.eu/documents/10162/13651/questions_and_answers_sds_info_dissemination_en.pdf
Plus d’informations sur : http://echa.europa.eu/support/faqs

Evaluation plus approfondie des nanomatériaux dans REACH

08/06/2012
L’ECHA a proposé la mise en place d’un groupe de travail sur les nanomatériaux dans le cadre de REACH. L’ECAH diffusera très prochainement des bonnes pratiques destinées aux déclarants devant enregistrées leurs substances nanométriques pour le 31 mi 2013. Dans son évaluation des substances dans le nano-forme, l’ECHA utilise la recommandation de l’Union Européenne sur la nano-définition comme point de repère.
Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/e10a7d39-da18-4002-80bd-8a5afd0824f1

Cinq nouvelles substances extrêmement préoccupantes identifiées

12/06/2012
L’ECHA a identifié 5 nouvelles substances extrêmement préoccupantes. Les cinq SVHC identifiées sont les suivantes : le diboron trioxide ainsi que les colorants C.I. Basic violet 3, C.I. Basic bleu 26, C.I. solvant bleu 4 et 4, 4′-bis (diméthylamino) -4  »-(méthylamino) trityle alcool. Ces quatre colorants ne seront toutefois identifiés comme SVHC que si la concentration des impuretés de cétone de Michler ou de « Michler’s base » est égale ou supérieure à 0,1%.
Ces cinq SVHC seront inscrites dans la liste candidate lors de sa prochaine mise à jour, avec huit autres substances qui ne nécessitaient pas la participation du Comité des Etats membres. Ces substances pourront par la suite être soumises à autorisation.
Plus d’informations sur :
http://echa.europa.eu/web/guest/view-article/-/journal_content/59b3b3b2-a42d-477f-b3b1-0df21365e1e5

Newsletter de l’ECHA

13/06/2012
La 3ème newsletter de l’ECHA vient de paraitre. Au sommaire : journées des parties intéressées en mai à Helsinki, aperçu des mises à jour d’outils informatiques et leurs impacts, focus sur les cinq premières années de REACH et bien d’autres thèmes. Cette lettre est disponible sur :
http://echa.europa.eu/documents/10162/13584/echa_newsletter_2012_3_en.pdf

Votre opinion compte

13/06/2012
En 2011, l’ECHA mettait en place une base de données « lexique » accessible en 22 langues. Afin de recueillir les avis des personnes qui utilisent cette base, l’ECHA lance une enquête qui est disponible sur :
https://docs.google.com/spreadsheet/viewform?formkey=dDRGZmZtbzI4eENoSjNFSWROenFldUE6MQ
Accès à la base de données de l’ECHA :
http://echa.cdt.europa.eu/SearchByQueryLoad.do;jsessionid=B679A5AE3FDF1D53E54776C344DB3E38?method=load

Webinar pour les PME et REACH le 11/06/2012

13/06/2012
L’ECHA a organisé le 11 juin dernier une conférence en ligne sur les PME et REACH. Les présentations de cette conférence et les enregistrements sont disponibles sur le site de l’ECHA : http://echa.europa.eu/view-article/-/journal_content/b11ca4a0-d6a4-4273-b55d-9c6cff3542dc

Réservez d’ores et déjà les dates du 1er au 3 octobre 2012

Du 1er au 3 Octobre 2012, l’ECHA sera l’hôte de deux événements spécialement conçus pour les futurs candidats à l’autorisation. Le premier visera à accroître la compréhension globale de la procédure de demande d’autorisation. Le second sera plus centré sur les aspects pratiques sur la façon de préparer une analyse des alternatives et analyse socio-économique. Le nombre de places étant limitée, les participants seront sélectionnés par un processus de demande qui ouvrira ses portes au début de Juillet.

Conférences web organisées par l’UIC et le Ministère de l’Ecologie

Retrouvez ci-après la prochaine conférence web organisée par l’UIC :

  • 26 juin 2012 – Comment répondre au besoin d’identification des substances ?
  • 11 juillet 2012 sur les FDS

Pour chacune de ces conférences et les précédentes, l’UIC met en ligne les enregistrements et les présentations.
Plus d’informations sur : http://www.uic.fr/REACH-webinars.asp

Proposition visant à limiter quatre phtalates classés au titre de REACH ne se justifie pas

15/06/2012
Le Comité d’évaluation des risques (RAC) a adopté par consensus un avis concluant que la restriction proposée de quatre phtalates classés (DEHP, DBP, BBP, et DIBP) dans les articles ne se justifie pas. Suite aux conclusions du RAC, le comité des analyses socio-économiques de l’ECHA (SEAC) a conclu qu’ils n’avaient pas d’éléments suffisants pour un avis favorable. Le projet d’avis du SEAC sera soumis à consultation publique pendant soixante jours et leur avis définitif sera adopté en Décembre 2012 au plus tard.
Plus d’information sur :
http://echa.europa.eu/en/web/guest/view-article/-/journal_content/926431e7-3a71-4f06-b22c-9c6b54966df3

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Cadres : comment mieux gérer son temps ? (1/5)

Au cours du siècle dernier, la productivité dans les entreprises a été multipliée par 25, le temps de travail divisé par 2 et l’espérance de vie multipliée par 2… Autrement dit, nous disposons de plus de temps de vie, nous travaillons moins et de façon plus efficace.  Mais depuis quelques années, le mal-être, le stress, les risques psychosociaux deviennent des maux de plus en plus prononcés dans le monde du travail. En France, un cadre sur deux déclare être débordé par la quantité de tâches à accomplir et se plaint de manquer de temps. Pourquoi ces cadres débordés ont-ils tant de difficultés à appliquer, dans la durée, les principes – pourtant simples – d’organisation personnelle et de « gestion » du temps qu’ils ont appris ici où là ?

Ces questions nous conduisent à reconnaître que la mise en application de quelques «bonnes recettes de cuisine » ou autres règles de bon sens n’est pas aussi simple qu’il y paraît.  Intéressons nous aux causes de ces difficultés.

Dino Ragazzo

Dino Ragazzo a plus de 25 années d’expérience opérationnelle en milieu industriel notamment chez CEGELEC, Groupe ATANTIC, FRAMATOME (mise en service d’installations nucléaires).Il a été successivement Technicien commercial, Ingénieur d’essais, Directeur Technique, chef d’entreprise (PME d’ingénierie électrique et maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.Dino Ragazzo est également l’auteur de l’ouvrage :

MANAGER D’ELITE – Gestalt guide du leadership dans les organisations du XXIe siècle

Bénéficiez de 20% de réduction immédiate sur l’achat de cet ouvrage grâce à Instantanés Techniques en cliquant ici (code réduction : 1IT11).

Une recherche sur Google fait apparaitre 1 860 000 réponses pour l’expression « gestion du temps » et 196 000 pour « maîtrise du temps ». On peut en conclure que, dans notre monde francophone, il y a dix fois moins d’énergie investie pour le thème de la maitrise que pour celui de la gestion du temps. Rappelons que gérer c’est prendre en charge, administrer. Cette activité suppose que l’on va s’organiser pour pouvoir vivre avec ou à côté de la chose gérée. Pensez au stress par exemple. La maîtrise, par contre, réclame un investissement personnel supplémentaire. Maîtriser signifie dominer, soumettre à son autorité. Maîtriser son temps c’est donc faire en sorte de le contrôler et de lui donner la place qui sied à votre bon plaisir.

Mais quel est votre bon plaisir ? Quel genre de vie voulez-vous idéalement ? Pour quel destin êtes-vous sur cette terre ? La réponse à ces questions est une condition nécessaire à la maîtrise de votre temps. La pratique de ces fameuses règles d’organisation personnelle n’est pas tenable si elle ne cadre pas avec ces réponses fondamentales. Par exemple, pensez-vous que vous pourriez devenir suffisamment organisé et détendu dans votre métier d’ingénieur, si votre véritable vocation était de vendre des œuvres d’art ou de monter une brasserie ?

Les paragraphes qui suivent vont vous aider à mieux connaître ce qui est important pour vous et à mieux manager vos ambitions, votre bon plaisir …puis vos comportements,  pour maîtriser ce temps qui vous manque tant.

 

 

 

 

 

 

 

 

 

 

Les valeurs

Vos valeurs sont ces choses qui vous importent vraiment le plus et qui vous aident à donner du sens à votre vie. Les valeurs définissent le bien et le mal, le propre et le sale, le beau et le laid, le naturel et ce qui est contre nature, la norme et l’anormal, le rationnel et l’irrationnel, le cohérent et l’insensé… Quand vous vivez en accord avec vos valeurs, vos vies personnelles et professionnelles sont plus satisfaisantes. La bonne connaissance de vos valeurs vous aide à vous entourer de personnes dont les valeurs sont alignées avec les vôtres. Typiquement, quand vous cherchez à vous assurer que vos valeurs sont raisonnablement alignées avec celles des autres, vous renforcez l’intensité et l’efficacité de vos relations personnelles et professionnelles.

Lorsque vous ne respectez pas vos valeurs, vous souffrez d’un manque de consistance. Ce manque peut épuiser votre énergie positive. Par exemple, supposons qu’une de vos valeurs soit l’authenticité et que cela vous conduit par conséquent à ne pas mentir. Imaginez maintenant que vous soyez contraint de dire un mensonge. Vous gaspillerez alors beaucoup d’énergie à essayer de cacher ce mensonge, de peur d’être « démasqué » et d’avoir à en subir les conséquences si le mensonge était découvert.

Accordez-vous un peu de temps pour réfléchir sur ce qui compte vraiment pour vous. Le résultat de ce travail est fondamental pour la maîtrise de votre temps. Il vous permettra de prendre conscience plus aisément de ce qui est réellement important pour vous et de faire des choix quant aux tâches à exécuter en priorité. Programmez un temps pour vous « poser » et parcourir tranquillement la liste ci-après. Complétez vous-même cette liste à partir d’autres valeurs que vous aimez et qui ne seraient pas présentes ci-après.

Soyez sincère avec vous-même. Cet exercice a seulement pour ambition de vous aider à en apprendre un peu plus au sujet de vous-même et de vous offrir ainsi un accès plus facile à la congruence dans votre vie. L’exrcice peut paraître fastidieux, mais le résultat et très souvent très révélateur.
Evaluez les valeurs ci-dessous selon la règle de priorité suivante :

  • 1 = très important
  • 2 = important
  • 3 = peu important
  • 4 = pas important du tout.

Téléchargez le tableau suivant et complétez-le

Concentrez vous sur les valeurs les plus importantes (celles qui ont été classées N° 1). Regroupez celles qui vous semblent similaires sur la même ligne et reprotez-les sur une feuille. Le groupe de valeur que vous avez inscrit ci-dessus constitue vraiment vos valeurs fondamentales. Rapportez-vous à elles en cas de dilemme. Elles faciliteront votre processus de décision.

La seconde partie de cet article sera en ligne Lundi prochain.

Par Dino Ragazzo

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

Réaliser le coup parfait au squash

Qui eût cru trouver une arme, telle une fronde, dans un laboratoire de recherche ? Et qui eût cru qu’on puisse l’utiliser pour étudier un sport qui n’a même pas la noblesse d’être olympique, le squash ? Pourtant c’est bien ce qui s’est passé ces dernières semaines au laboratoire d’hydrodynamique de l’Ecole polytechnique (LadHyX). Car, pour se distinguer en recherche, il faut parfois savoir identifier la question que personne ne s’était posée. Ainsi, « pourquoi, au squash, taper près des coins rend imprévisibles les trajectoires ? » Pour rappel, ce sport, qui se joue dans une pièce fermée, consiste à envoyer avec une raquette une balle contre un mur et à profiter des parois adjacentes pour déstabiliser l’adversaire.

« Il y a eu moins de dix articles sur la physique du squash en trente ans et aucun ne s’intéresse au comportement de la balle lancée dans les arêtes entre sol et mur ou entre mur et sol, constate Philippe Brunet, spécialiste d’hydrodynamique au CNRS, au Laboratoire Matière et Systèmes Complexes de l’université Paris-VII. En particulier, personne ne peut expliquer ce qui est l’apanage des « grands » de ce sport, le coup qui tue. C’est-à-dire lorsque la balle, après le premier rebond, tape une arête et repart avec une très faible vitesse le long d’un mur ou semble rouler sur le sol, rendant quasiment impossible la remise en jeu. » Cette ignorance ne pouvait durer pour ce chercheur, également pratiquant de ce sport. Il a trouvé deux complices, Caroline Cohen et Baptiste Darbois-Texier, si passionnés d’activités sportives et de physique qu’ils en font leur thèse au LadHyX sous la direction de Christophe Clanet.

Les fameux coups qui tuent

Plutôt que jouer sur un vrai terrain avec des raquettes et s’échiner à taper dans les angles, ils ont préféré un protocole plus pratique : tirer les balles à l’aide d’une fronde dans un coin de Plexiglas et filmer la scène avec une caméra prenant 3 000 images par seconde. Une étuve leur permet de chauffer les balles pour les rendre plus bondissantes, comme en situation de jeu réel. A 70 °C, les balles repartent avec 70 % de leur vitesse initiale. A froid, ce pourcentage n’est que de 35 % environ. Mais ils ont parfois tant chauffé les projectiles que ceux-ci ont doublé de volume et ont rebondi comme des superballes, propriété évidemment écartée des expériences.

Plus d’une centaine de tirs plus tard, les conclusions sont tombées et seront publiées prochainement dans les comptes rendus d’un congrès sur la physique du sport qui s’est tenu en avril.

Première leçon, le ralentissement des balles, mesuré comme le rapport de la vitesse de rebond sur la vitesse initiale, ne tient ni à l’angle d’attaque ni aux vitesses. Tout dépend des points d’impact de la balle contre la première paroi, puis contre la seconde au moment du rebond. Le freinage est le plus important lorsque la balle touche simultanément deux parois, c’est-à-dire tape exactement dans un coin. A vitesse initiale égale, quelque 100 km/h, la vitesse finale peut être deux fois plus petite.

Seconde leçon, il est possible, indépendamment de la vitesse et de l’angle d’attaque, de réaliser un coup qui tue en tapant légèrement au-dessus du coin. La balle ralentit alors fortement et ne rebondit quasiment plus, semblant rouler au sol (si elle tape d’abord le sol, elle file tout près du mur). Il « suffit » que la différence entre les points de contact et de rebond corresponde à un demi-rayon de la balle, soit un centimètre environ. Pas facile à viser, certes…

L’explication se trouve dans la déformation de la balle. En tapant le mur avant le sol, la balle s’aplatit et se déforme beaucoup plus dans la direction verticale que dans la direction horizontale. Elle frotte donc plus sur le mur que sur le sol, sa vitesse est plus diminuée dans une direction que dans une autre et elle repart comme en rase-mottes le long du plancher. Cette intuition a été confirmée par une autre série d’expériences consistant à enduire les balles de glycérol, un liquide diminuant la friction des objets. Après quelques éclaboussures sur les blouses et le Plexiglas, l’équipe a effectivement constaté que ce traitement raréfie les fameux coups qui tuent.

En conclusion, pour que ce sport reste spectaculaire, les parois des salles doivent être le moins glissantes possible et les arbitres doivent surveiller les joueurs qui essuieraient leurs mains suantes dans les coins (ce qui ferait glisser les balles).

Par D.L

Source : LeTemps.ch

 

A lire également : Le ballon de la coupe du monde « trop rond » ?

Démantèlement des centrales nucléaires : pourrait-on faire simple ?

Le principe est de ramener le site à son état initial que les spécialistes appellent « le retour à l’herbe ». L’objectif du déclassement et démantèlement est de libérer partiellement ou totalement le site nucléaire sur lequel se trouve le réacteur pour le dédier éventuellement à d’autres usages. Ce travail se décompose en trois étapes principales :

  • Le combustible usé est retiré pour être entreposé ou retraité. Les différents circuits sont vidangés, les systèmes d’exploitation déconnectés et les ouvertures vers l’extérieur sont condamnées et scellées.
  • Les opérations de décontamination de la surface des bâtiments et du matériel sont menées à bien. Les équipements d’exploitation sont démontés, recyclés ou provisoirement entreposés, selon leur activité radiologique.
  • Tout ce qui reste de l’installation est démantelé et le site est libéré pour d’autres utilisations.

Les auteurs :

François Lempérière a participé à l’étude et/ou la réalisation de plus de 20 très grands ouvrages de Génie Civil : barrages (notamment pour le Rhône, le Rhin, le Nil et le Zambèze), centrales nucléaires, grands terrassements et ouvrages maritimes. Il a présidé pendant 15 ans les Comités Techniques sur le coût des barrages dans la Commission Internationale des Grands Barrages (C.I.G.B.)
Christian Ngô a fait de la recherche fondamentale en physique nucléaire pendant une vingtaine d’année avant de travailler en recherche appliquée dans plusieurs domaines. Il a écrit une douzaine d’ouvrages, seul ou en collaboration, sur différents sujets dont l’énergie et la physique nucléaire.

Environ 120 sites nucléaires sont actuellement en déclassement-démantèlement au niveau mondial. Une centrale nucléaire moyenne produit jusqu’à 10 000 m3 de déchets radioactifs dont la majeure partie sont de très faible radioactivité (béton et autres matériaux).

Plus de la moitié des coûts de démantèlement correspond aux structures de l’enceinte en béton du réacteur et de l’intérieur de cette enceinte.

L’objectif est de découper en moyenne plus de 10.000 m3 de matériaux de radioactivité très variable, mais souvent faible, pour les enterrer ailleurs sous quelques dizaines de mètres de remblais ; le chantier peut durer au moins dix ans avec des risques d’irradiation possibles pour les personnels réalisant le démantèlement, risques probablement très supérieurs aux risques humains à long terme de l’alternative que nous proposons ci-dessous.

Dans tous les cas il est nécessaire d’avoir un suivi radiologique rigoureux pendant tout le temps que dure le démantèlement.

A cela s’ajoute le fait que les déchets qu’ils soient radiologiquement très actifs ou non nécessitent un transport hors du site.

Alternative

Il est possible d’imaginer une alternative au démantèlement conventionnel qui serait moins coûteuse et plus rapide à mettre en œuvre. Elle serait la suivante :

  • Remplir de béton tout ou partie de l’intérieur de l’enceinte (ce peut être fait sans risque avec un béton fluide)
  • Remblayer 10 mètres au-dessus de cette enceinte, soit une colline de 60 m au-dessus du terrain naturel, d’une emprise totale de 10 hectares, moins importante que des terrils du Nord.
  • Engazonner et arborer la zone remblayée.

Tous ces travaux sont simples et peuvent être réalisés en deux ans. Cette solution permet de gagner 60% à 80% du coût de démantèlement (qui est peut-être sous-estimé). L’économie pourrait être partagée entre E.D.F. et la population locale, ainsi compensée pour les conséquences économiques de l’arrêt de la centrale.

Les radiations extérieures résiduelles seront faibles et n’empêcheront probablement pas l’accès sur la colline ainsi créée. Au pire, on dissuaderait à long terme l’accès d’un site boisé de 10 hectares au lieu d’interdire pendant 10 ou 20 ans l’accès d’un chantier de surface supérieure. Tout risque pour la nappe phréatique peut être évité.

Une étude souhaitable

Cette Alternative peut avoir des inconvénients et susciter des critiques ou des rejets a priori. Une étude de quelques mois permettrait d’évaluer ces inconvénients et de préciser :

  • La comparaison des risques d’irradiation liés aux 2 options.
  • Les détails de réalisation de l’Alternative.
  • L’ordre de grandeur de l’économie et de son utilisation partielle pour la population locale.

Le coût de cette étude serait très inférieur à un millième de l’économie envisagée. Bien qu’allant à l’encontre des solutions mises en œuvre actuellement, il serait néanmoins intéressant d’étudier cette alternative qui, du point de vue économique comme environnemental et radiologique, peut s’avérer très intéressante.

Conclusion

La solution de démantèlement proposée présente plusieurs avantages :

  • Elle diminue fortement les manipulations en zone active puisque les matériaux activés restent sur le site, et seront noyés dans le béton. Leur faible radioactivité n’induira pas de dégagement de chaleur notable dans le béton. La dose radiologique prise par les personnels assurant le démantèlement sera donc négligeable.
  • Il n’y a pas besoin de transporter des matériaux, même faiblement actifs, sur les sites de stockage qui peuvent être situés à une grande distance du réacteur en démantèlement puisque ceux-ci restent sur le site.
  • Le coût d’une telle opération de démantèlement est bien inférieur aux procédures classiques puisque tout se fait sur place et sans la manipulation d’une grande quantité de matière active, même faiblement. La colline engazonnée sur le site du réacteur démantelé peut être utilisée puisqu’il n’y a aucune radioactivité notable issue du sous-sol (le combustible irradié ayant bien entendu été enlevé avant l’opération de démantèlement et traité ailleurs). En effet, tout rayonnement est arrêté par le béton qui a été coulé dans l’enceinte du réacteur.
  • La commune sur laquelle est situé le réacteur continue à percevoir des taxes dont le montant est à définir puisqu’elle c’est elle qui héberge le réacteur démantelé.

Par François Lempérière et Christian Ngô

Existe-t-il un lien entre obésité et consommation de probiotiques contenant des Lactobacillus ?

A partir de différentes données issues de 82 études, les scientifiques ont montré qu’il pourrait exister un lien entre la consommation de certains probiotiques et la prise de poids. Cependant, cet effet semble être dépendant des espèces de Lactobacillus et de l’hôte considéré. De nouvelles études sont donc nécessaires pour éclaircir l’impact de la consommation de probiotiques enrichis en Lactobacillus sur le poids. Ce travail vient d’être publié dans la revue Microbial Pathogenesis.

En effet, les probiotiques ont été utilisés comme facteur de croissance chez les animaux de ferme depuis plusieurs décennies et sont largement consommés par l’homme. A partir d’une recherche exhaustive de la littérature, Matthieu Million et Emmanouil Angelakis ont pu identifier plus de 500 publications.  Avec l’aide des meilleurs spécialistes mondiaux dans le domaine de la méta-analyse médicale que sont Mical Paul et Leonard Leibovici (Israël), ils ont pu extraire les données de 82 études afin d’établir si il existe un lien entre la modification du poids et la consommation de probiotiques. L’originalité a été de mettre en commun les données humaines, les données issues de l’agriculture ou l’effet attendu est la prise de poids, et les données issues des animaux de laboratoire où un effet anti-obésité est recherché avant une utilisation potentielle chez l’homme. Les analyses ont été classées par hôte et par espèce de Lactobacillus.

A partir de 17 essais cliniques randomisés chez l’homme, 51 études chez les animaux de ferme et 14 études chez des modèles expérimentaux, ils ont retrouvé que l’administration de L. acidophilus était associée à un gain de poids significatif chez l’homme et chez l’animal. Les résultats étaient cohérents chez les humains et les animaux. Lactobacillus fermentum et Lactobacillus ingluviei ont été associés à une prise de poids chez les animaux. A l’inverse, Lactobacillus plantarum a été associé à une perte de poids chez les animaux et Lactobacillus gasseri a été associée à une perte de poids à la fois chez les humains obèses et chez les animaux.

Même si il existe des biais inéluctables et des conditions expérimentales extrêmement différentes entre les études, l’équipe du Professeur Raoult a montré ici que l’hypothèse d’un lien entre la consommation de probiotiques contenant des Lactobacillus et la régulation du poids était confirmée par l’analyse exhaustive de la littérature.

Cependant cet effet semble être dépendant des espèces de Lactobacillus ainsi que de l’hôte considéré. Lactobacillus acidophilus et Lactobacillus fermentum, deux espèces présentes dans des probiotiques largement commercialisés pour la consommation humaine, étaient associés  à une prise de poids. Les auteurs attirent donc l’attention sur le fait que de futures études prospectives ou rétrospectives comparant des personnes ayant consommés régulièrement ces probiotiques à des témoins sont absolument nécessaires pour préciser l’impact de la consommation de ces probiotiques sur le poids et notamment sur l’obésité acquise.

Publié par P.T

Source : Comparative Meta-Analysis of the effect of Lactobacillus species on Weight Gain in Humans and Animals. Matthieu Million, Emmanouil Angelakis, Mical Paul, Fabrice Armougom, Leonard Leibovici, and Didier Raoult. Microbial Pathogenesis.  Publié en ligne le 24 mai 2012.

Nouvelle version du logiciel IFS Application TM8

Les nouvelles fonctionnalités en matière de gestion commerciale d’IFS Applications 8, « IFS Trade Management », permettent aux détaillants, aux grossistes, aux distributeurs et aux fabricants d’offrir à leurs clients des mécanismes de remises et de rabais de plus en plus généralisés sur le marché.

IFS Applications 8 est aussi pourvue de solutions capables de gérer les rabais clients rétroactifs, le calcul automatique des frais de transport et la gestion des frais et remises d’emballage en fonction de la taille. Le nouveau composant pour la Planification des Stocks d’IFS Applications 8 permet une planification différenciée afin d’atteindre un juste équilibre entre la disponibilité du produit et le coût opérationnel.

De plus, le composant de stockage a été significativement amélioré afin de soutenir un rangement des stocks avancé, une navigation efficace dans la zone de stockage, un prévisionnel de stockage puissant et une logique de réservation en série. Avec la nouvelle fonctionnalité de durée minimale de conservation restante, les entreprises qui manipulent des produits à durée de conservation minimale sont capables de garantir une certaine durée de conservation lorsque le produit arrive chez le client.

De cette manière, le système s’assure que le vendeur ait le temps de stocker et de vendre le produit au client qui le consommera. Toutes ces fonctionnalités permettent de renforcer la chaîne d’approvisionnement.

Mais IFS Applications 8 se veut aussi une aide à la production, notamment avec la nouvelle fonctionnalité Component MRO. Celle-ci  couvre entièrement les processus de réparation après-vente, depuis l’accord, la réception et la réparation jusqu’à l’expédition et la facturation, très utile pour économiser de l’argent sur la maintenance et le SAV.

Par Audrey Loubens

ALLEMAGNE : Controverse sur l’étude par BASF des effets de nanomatériaux sur la santé

Le ministère de l’environnement allemand a récemment annoncé le lancement d’une étude sur les effets des nanoparticules sur la santé en partenariat avec l’Institut fédéral pour la sécurité et la santé au travail (BAuA) et BASF, l’un des leaders mondiaux de l’industrie chimique.
Un projet d’envergure, par sa durée – les études s’étaleront sur quatre ans – et son objet : les effets possibles à long terme sur les poumons d’une exposition à de faibles doses de nanoparticules. En fonction des résultats, des seuils maximaux d’exposition pourraient être définis afin de protéger les travailleurs.

Polémique sur l’objectivité des futurs résultats

Alors que le Ministre fédéral de l’environnement, Norbert Röttgen, se félicite de ce partenariat public-privé, soutenant que cette coopération entre organismes publics et industriel est inédite et exemplaire, d’autres remettent en cause, à l’avance, l’impartialité et l’objectivité des résultats. En cause : le fait d’avoir confié à BASF, à la fois juge et partie, la mise en oeuvre de cette étude. Car l’entreprise allemande est en effet l’un des principaux producteurs de nanomatériaux.

Certains voient en effet dans ce partenariat une source potentielle de conflit d’intérêt : « Comme si on avait demandé à Philip Morris d’évaluer la toxicité de ses cigarettes… » commentait ainsi le 16 mai « Napakatbra » sur le site Les mots ont un sens. Et Agnès Rousseaux de Bastamag de renchérir le 21 mai : « Pourrait-on confier une étude sur les méfaits du Mediator aux laboratoires Servier ? Ou une étude sur le risque nucléaire à Areva, ou sur les cancers de l’amiante au secteur du BTP ? ».

En 2010, Novethic avait souligné le rôle pionnier joué par BASF en matière de recherche, prévention et communication sur les risques associés aux nanotechnologies. Aussi avons-nous souhaité en savoir plus.

L’examen du site internet de l’entreprise confirme l’implication précoce et active de BASF dans le domaine de la recherche en toxicité sur les nanotechnologies ; l’entreprise y met d’ailleurs en avant le fait qu’elle est l’une des rares à réaliser elle-même des recherches sur les risques des nanomatériaux dans son propre service de toxicologie et écologie, dont elle publie effectivement les résultats sur son site internet. Parmi ces études, certaines établissent la toxicité de certains nanomatériaux; l’entreprise n’a donc pas caché des résultats confirmant les craintes relatives aux risques associés aux nanomatériaux. Pour autant, comment s’assurer que les quelques études en question ne sont pas l’arbre qui cache la forêt, autrement dit une façon pour l’entreprise de montrer patte blanche : « voyez, nous sommes honnêtes, vous pouvez nous faire confiance »… Novethic considérait en 2010 que les entreprises leaders dans le domaine de la chimie « ont une communication transparente parce qu’elles s’adressent à leurs clients potentiels et qu’elles souhaitent les convaincre. Elles sont, de plus, surveillées de près par les agences de sécurité sanitaire et environnementale et les ONG environnementales ».

Nous avons sollicité les Amis de la Terre Allemagne qui ont pu dialoguer directement avec BASF et nous transmettre des renseignements permettant d’éclairer la controverse.

Un encadrement strict du projet ?

BASF met en avant l’encadrement strict prévu pour le projet : selon l’entreprise, il a été conçu de façon à assurer une indépendance et une crédibilité maximales. Sa direction et sa coordination seront assurées par le ministère, l’évaluation des résultats par le BAuA, l’Agence fédérale de l’environnement et l’Institut fédéral pour l’évaluation des risques ; et un groupe consultatif externe de scientifiques internationaux accompagnera les recherches scientifiques (il sera composé de scientifiques de l’université de Rochester, de l’université de Duisburg-Essen, de l’Institut Fraunhofer pour la toxicologie et la médecine expérimentale, et de l’Institut néerlandais de santé et d’hygiène).

Pour autant, l’histoire et l’actualité témoignent malheureusement de ce que le nombre et le prestige des experts impliqués ne sont pas des remparts infranchissables contre les conflits d’intérêt.

Pas d’intérêt commercial en jeu ?

Qu’à cela ne tienne. BASF a un autre argument de taille : le choix s’est porté sur des nanoparticules fréquemment utilisées à l’échelle industrielle mais ne faisant pas partie des nanomatériaux fabriqués par BASF, qui revendique donc le fait de ne pas avoir d’intérêt commercial en jeu : des nanoparticules de sulfate de baryum (qui servent notamment à la stabilisation des matières plastiques) et des nanoparticules d’oxyde de cérium (utilisées comme catalyseur de carburant ou dans la dépollution des moteurs diesel).

Ceci dit, un additif à base de nano-oxydes de cérium serait commercialisé par la firme Rhodia sous le nom de Cérine Eolys®. Les esprits méfiants auront tôt fait de dénoncer l’existence d’un trust – « pourquoi pas une entente officieuse entre géants de la chimie pour minimiser les effets toxiques des nanos ? » – ou à l’inverse, de soupçonner le géant allemand de vouloir torpiller les activités de son concurrent français ?

Qui paie le bal mène la danse ?

Enfin, le communiqué de presse conjoint à BASF et au gouvernement allemand fait état d’un budget global de cinq millions d’euros, sans que soit précisée la répartition entre financements publics et financements privés.

Selon l’entreprise BASF, cette dernière apporterait 3,5 millions d’euros et l’Institut fédéral pour la sécurité et la santé au travail (BAuA) 1 million. Ce que l’entreprise considère comme un gage de sa volonté de participer à l’effort national de recherche sur les risques des nanomatériaux peut ici être retourné contre elle : selon l’adage « qui paie le bal mène la danse », il pourrait lui être reproché de vouloir ainsi influencer les résultats. Ce à quoi BASF rétorque qu’il lui est quasi impossible d’échapper à ce procès d’intention ; l’entreprise se retrouverait face au « dilemme » suivant : si elle ne faisait pas de recherche sur les risques, il lui serait alors reproché d’agir de manière irresponsable, l’Etat devrait alors prendre en charge cette recherche et le contribuable serait en droit de contester le financement sur fonds publics de recherches sur la toxicité de produits commercialisés et permettant à des entreprises privés d’engranger des bénéfices ; à contrario, si elle paye des chercheurs « indépendants » pour faire de la recherche sur les risques à sa place, l’indépendance de ces chercheurs est mise en cause.

C’est ainsi que BASF justifie le montage de ce partenariat pensé selon elle pour sortir de cette impasse. Elle déplore les soupçons qui pèsent sur l’honnêteté de sa démarche et souhaiterait que l’on croie en sa bonne foi : « il n’est pas dans l’intérêt de BASF d’investir de façon aussi massive dans la recherche sur les risques, si les différents participants remettent en question la fiabilité des résultats ».

Et en France ?

En France, des partenariats public / privé existent, notamment :

  • le programme Genesis, sur les nanomatériaux intégrant des nanotubes de carbone et des copolymères à architecture contrôlée, dont l’ANSES a en charge le suivi des données fournies par Arkema concernant toxicologie, de métrologie et de cycle de vie des produits.
  • NAUTILE (NAnotUbes et écoToxIcoLogiE), premier laboratoire de recherche pour l’étude de l’écotoxicité des nanotubes de carbone en milieu aquatique, impliquant lui aussi Arkema.

A la date de publication de cet article, l’avancée et l’appréciation de l’indépendance des expertises réalisées dans le cadre de ces partenariats public / privé restent à éclairer. Mais un certain nombre d’interrogations, réactions et suggestions plus générales nous parviennent via notre réseau de veilleurs français.

En France, l’ANSES produit des expertises dont l’indépendance est garantie notamment par les déclarations d’intérêt des chercheurs et un financement exclusivement public. L’INRS est lui financé par le FNPAT (Fonds National de Prévention des Accidents du Travail et des Maladies Professionnelles, alimenté par une taxe sur les entreprises) avec une gestion paritaire contrôlée par l’assurance maladie et le ministère du travail, donc, a priori aussi indépendante que possible des lobbies industriels.

Mais dans un cas comme dans l’autre, la responsabilisation des entreprises commercialisant des produits contenant des nanomatériaux n’est pas assurée, puisque la taxe qui alimente le FNAPT est payée par l’ensemble des entreprises – qu’elles aient ou non une activité touchant aux nanomatériaux.

Pour un certain nombre d’acteurs, une taxe payée spécifiquement par les entreprises commercialisant des produits contenant des nanomatériaux et finançant notamment la réalisation d’études de risques par des chercheurs indépendants serait une solution plus propice à répondre aux besoins de vigilance, de transparence, de confiance et d’indépendance de l’expertise. En avril dernier, douze ONG européennes – dont le Réseau Environnement Santé pour la France – ont demandé la mise en place d’un mécanisme d’auto-financement de la gestion des nanomatériaux, conforme au principe pollueur-payeur, pour soulager les contribuables et inciter les industriels à concevoir et adopter des solutions de substitution ».

Bien que contraire à la règle de la non affectation voulue par notre principe d’universalité budgétaire, un tel mécanisme a été mis en place pour les produits phytosanitaires à travers la taxe générale sur les activités polluantes (TGAP). Lors de la campagne présidentielle, le candidat François Hollande avait déclaré que « l’alerte citoyenne (associations, ONG…) doit déclencher des études approfondies opérées par des expertises contradictoires et non suspectes d’instrumentalisation par des groupes de pression ». La piste d’une TGA-nano (taxe générale sur les activités nano) sera-t-elle examinée par le gouvernement du nouveau président ?

Publié par P.T

Sources : l’équipe Avicenn

Pour aller plus loin : Formation sur les nanomatériaux : évaluer et prévenir les risques HSE

Pour une climatisation passive des bâtiments : les matériaux à changement de phase

Vincent Pessey d’Alcimed, société de conseil et d’aide à la décision appliquée aux sciences de la vie et à la chimie, explique que « les PCM (Phase Change Materials), placés dans les cloisons, fondent et absorbent l’énergie thermique excédentaire lorsque la température extérieure dépasse leur température de fusion (en journée) et se solidifient en restituant l’énergie accumulée lorsque la température redescend (la nuit) ». L’énergie est par conséquent stockée sous forme de chaleur latente. Les MCP peuvent être utilisés en climatisation passive voire en chauffage d’intersaison.

Les enjeux

Du fait du réchauffement climatique, la consommation d’énergie liée à la climatisation ne fait qu’augmenter, impactant fortement l’environnement. Limiter les besoins en climatisation est devenu un véritable enjeu. Les retours d’expérience montrent que les pics de température dans une pièce équipée de PCM peuvent être réduits de 3 à 4°C et la consommation d’électricité liée à la climatisation chuter de 30 %. Pouvoir stocker l’énergie évite également de recourir à de fortes épaisseurs de matériaux lourds comme le béton et de créer une forte inertie pouvant conduire à des surchauffes lors de charges internes importantes (ordinateurs dans les bureaux).

Daniel Quénard, du CSTB, souligne l’intérêt des PCM dans la rénovation des bâtiments tertiaires à structure légère, afin de renforcer leur inertie thermique et améliorer leur confort d’été. Si les PCM sont écologiques, ils sont aussi économiques : une étude réalisée en 2007 par le Centre de Thermique de Lyon évalue un retour sur investissement à 8 ans, ce qui est intéressant dans le contexte actuel du prix de l’énergie et de la raréfaction programmées des énergies fossiles, d’autant plus que les PCM ont une durée de vie très longue, identique à celle du bâtiment.

Intégration aux matériaux de construction

Le changement de phase a lieu selon les matériaux entre 19 et 27°C, températures correspondant aux valeurs limites respectivement fixées pour le confort d’hiver et d’été. Les MCP (paraffine, polymère, acide gras…) peuvent être incorporés dans les matériaux de construction (plâtre, béton, certains plastiques) et même dans une matrice de graphite, qui a l’avantage d’avoir une excellente conductivité thermique. Les paraffines, chimiquement stables, sont les substances les plus répandues.

Elles peuvent être conditionnées dans des billes de plastique microscopique  (microencapsulation) mélangées au plâtre ou au béton, ou bien incorporées dans les pores d’un matériau porteur (imprégnation), ce qui permet de les rajouter lors d’une rénovation. 3 cm d’enduit contenant 30 % de MCP sont équivalents à 18 cm de béton ou 23 cm de brique en termes d’inertie thermique.

Les MCP sont indestructibles, inertes et non toxiques ; ils ne nécessitent pas de maintenance. Outre les parois constitutives des bâtiments, les MCP peuvent aussi être intégrés dans les faux plafonds. Le CSTB précise qu’un système de ventilation nocturne optimise le relargage des calories, ce qui permet de régénérer plus efficacement les MCP.

Recherches et premières expériences 

Des produits commencent à être commercialisés (environ 50 €/m2), comme le Micronal® (paraffine dans des microcapsules de polymère) de BASF ou Energain® (composite paraffine/polyéthylène) de Dupont de Nemours : des références existent à l’étranger et des suivis expérimentauxin situ ont lieu en France. De nombreux autres types de matériaux et de mises en forme sont également à l’étude. Un autre type de MCP à transition solide/solide fait l’objet de recherches, car passer d’une phase solide à une autre permet d’emmagasiner plus de chaleur que les phases solide/liquide ; le fait qu’ils soient en permanence solides est intéressant pour la construction, parce que plus facilement conditionnables et utilisables tels quels.

Le CSTB estime que des points particuliers doivent encore faire l’objet d’améliorations et de recherches spécifiques : meilleure définition de la plage fusion/solidification, comportement au feu, caractérisation des produits secondaires éventuellement émis (nocivité potentielle), conditionnement et durabilité aux cycles fusion/solidification. Des recherches sont également engagées sur le couplage matériau à changement de phase et super isolant (VIP) pour réaliser des enveloppes légères présentant à la fois une bonne isolation et une inertie thermique significative. Les MCP ont sans aucun doute un avenir prometteur pour réduire les consommations de climatisation tout en préservant un bon niveau de confort pour les bâtiments à faible inertie.

Par Pascale Maes, Journaliste

 

A lire également :

Une antenne de 5 mm auto-adaptative

Travailler à une fréquence de 2.45 GHz se complique dès que l’on souhaite miniaturiser les systèmes.

Plus particulièrement, les antennes utilisées pour le lien radio entre objets communicants sont particulièrement sensibles à leur environnement : tout ce qui est proche vient perturber son fonctionnement et il est nécessaire d’adapter le design à chaque emplacement.

« Nous avons effectué un travail de miniaturisation à la fréquence 2.45GHz avec des puces de quelques mm. Ainsi nous sommes capables de placer l’antenne directement sur le packaging de l’objet », se félicite Christophe Delaveaud, chef du Laboratoire Antenne et Propagation, Service Technologie de la Communication et de la Sécurité – CEA/LETI/DSIS. Pour en arriver là, les chercheurs concentrent sur une puce de 0,5 cm² une antenne de 5 mm agile en fréquence, un circuit d’adaptation d’impédance et un circuit de contrôle-commande faible consommation.

Ainsi, contrairement aux produits du marché qui imposent une adaptation au cas par cas à leur environnement, celle-ci ne nécessite aucun réglage puisque la puce permet d’optimiser automatiquement le fonctionnement de l’antenne, quel que soit son emplacement.

Par Audrey Loubens, journaliste scientifique

DisaSolar mise sur le photovoltaïque organique fabriqué par impression jet d’encre

« Devenir le numéro 1 du photovoltaïque de 3ème génération ». Telle est l’ambition affichée par Stéphane Poughon, président de DisaSolar. L’entreprise, qui commercialise et installe des panneaux photovoltaïques flexibles « Thin films » dits de « 2egénération », prépare l’avenir et mène en parallèle le développement de panneaux dit de « 3e génération », ou photovoltaïque organique.

Son objectif est de mettre au point un procédé de fabrication de panneaux solaires organiques souples par impression. Pour y parvenir, la PME implantée à Limoges développe ses partenariats. Après les deux laboratoires publics CEA/INES et CNRS/XLIM et le Queens University canadien, c’est au tour du Holst Centre / Solliance aux Pays-Bas de s’associer à cette dynamique.

« Grâce aux compétences et aux forces conjuguées des 4 laboratoires de recherche avec lesquels nous coopérons, nous avons aujourd’hui les moyens de notre ambition » se félicite Stéphane Poughon. Pour compléter ce « cloud », DisaSolar peut aussi compter sur son partenaire Ceradrop, une PME spécialisée dans l’électronique imprimée et qui a pour mission le développement de solutions d’impression jet d’encre dédiées.

Par Audrey Loubens, journaliste scientifique

Un spécialiste des biotechnologies de la reproduction animale dématérialise sa gestion de flux d’informations

20 % : c’est la baisse réalisée en termes de consommation de papier et de consommables pour IMV technologies en 2011. Face à ces résultats encourageants, IMV renforce ses efforts et sollicite à nouveau la société Debucy, espérant accroitre à nouveau les économies de 20 % sur 2012.

Pour cela, le spécialiste dans le domaine du traitement du document et de gestion globale des flux d’information a proposé à son client une solution innovante fondée sur plusieurs leviers.

Parmi ceux-ci, le parc d’imprimantes et copieurs est uniformisé avec une seule marque pour faciliter la gestion dans l’entreprise, avec un contrat « coût copie parc unique ».

Ensuite, Debucy instaure un système d’authentification des utilisateurs sur les multifonctions, à partir des badges d’accès des salariés pour un accès et une limitation aux différentes fonctions.

L’utilisation des badges des salariés pour l’authentification directe sur les copieurs dans les zones de reproduction permet des économies d’impression importantes et une meilleure confidentialité des documents imprimées. Enfin, dans une optique de prévention anticipée sur la maintenance des matériels et les évolutions possibles du système, un suivi trimestriel du parc et du système est réalisé.

Par Audrey Loubens, journaliste scientifique

Une nouvelle classe de films minces réduit par 4 les dimensions des structures en électronique souple

Les travaux parus dans la revue ACS Nano présentent une nouvelle génération de matériau associant des polymères à base de sucres et des polymères issus du pétrole (polystyrène-silicié).

Cet hybride possède une structure capable de s’auto-organiser en cylindres de sucres dans un réseau de polymères issus du pétrole, chaque structure ayant une taille de 5 nanomètres, soit quatre fois moins que celle des structures actuelles issues uniquement de dérivés du pétrole.

Ci-dessus : Image de microscopie à force atomique d’un glycopolymère nano-organisé en cylindres de sucres dans une matrice de polystyrène-silicié. (© CERMAV (CNRS)

Ceci est possible grâce à la très forte incompatibilité entre les deux polymères utilisés qui les font se comporter comme de l’huile par rapport à de l’eau. Ce résultat, issu d’une collaboration franco-américaine pilotée par le Centre de recherches sur les macromolécules végétales (CNRS) et qui a donné lieu à deux brevets, fait tomber la limite de 20 nm pour la taille des structures fabriquées à partir de polymères synthétiques exclusivement d’origine pétrolière.

Cette barrière levée, il est désormais possible d’évoluer vers une nouvelle génération de dispositifs électroniques souples à très haute résolution comme la miniaturisation de la lithographie des circuits, une capacité de stockage de l’information multipliée par 6, une performance accrue des cellules photovoltaïques, des biocapteurs…

Par Audrey Loubens, journaliste scientifique

10 conseils pour une implémentation sécurisée de l’IPv6

Son expérience, acquise auprès des plus grands fournisseurs du trafic IPv6 dans le monde, motive Stonesoft à accompagner activement les organismes du secteur privé et du public vers une démarche IPv6 sécurisée et optimisée au niveau des coûts. La société met en avant 10 points clés qui aideront les DSI et RSSI  à mieux appréhender la sécurité de l’IPv6 et à établir leurs priorités.

“Beaucoup de personnes croient qu’il y a peu de différences entre les façons de sécuriser l’IPV6 et l’IPv4 : c’est faux.  Cette idée reçue est entretenue par le fait que l’on ignore comment il faut procéder et que, côté éditeur, on revendique des performances produits non-avérées dans un environnement réseau IPv6,” explique Laurent Boutet, expert avant-vente de Stonesoft.

Se servant de son vécu dans les déploiements IPv6 de grande envergure, Stonesoft préconise les actions suivantes pour assurer la sécurité :

  1. Réaménager votre réseau: Procédez à la restructuration de votre réseau IPv4 . Eliminez les fonctionnalités obsolètes et installez des mises à jour complètes en vérifiant que chaque composant du réseau est effectivement traité. Cette opération permet de commencer l’implémentation de l’IPv6 sur une base propre et permet d’éviter beaucoup de problèmes.
  2. Prévoir une introduction progressive: Inspirez-vous de la démarche de l’administration de la Sécurité Sociale aux US, qui travaille avec l’IPv6 depuis plus de 5 ans et planifie son implémentation complète sur une durée de six ans. Un processus déployé sur une durée définie vous permettra d’assurer le bon fonctionnement de l’IPv6 au sein de votre infrastructure, actuellement optimisée pour l’IPv4, et de maîtriser votre budget.
  3. Opter pour une solution à double pile : Le mode double pile est très avantageux, même s’il peut imposer des mises à jour de mémoire et de puissance au niveau routeur pour la gestion parallèle de l’IPv4 et l’IPv6. Le mode double pile est facile à mettre en place et assure le support des applications qui ne fonctionnent pas encore avec l’IPv6. Il permet aussi d’éliminer le besoin de tunnels qui sont associés aux problèmes de sécurité.
  4. Traiter correctement vos tunnels : Le guide publié par le NIST (The National Institute of Standards and Technology) nous conseille d’accorder le même traitement aux tunnels qu’aux liens externes : c’est-à-dire, d’y porter une attention particulière. Il faut inspecter chaque élément du trafic avant qu’il n’entre dans votre système ou ne le quitte. Cet examen implique de passer au crible tout le trafic IPv6, y compris celui qui est contenu dans les paquets IPv4. Pour mener cette inspection complète on a recours à des traitements anti-virus, des sondes de détection d’intrusions, le filtrage du trafic entrant, le filtrage des paquets et des proxies applicatives. Il faut aussi renforcer la sécurité en bout de tunnel avec des mesures comme l’authentification.
  5. Attention aux malfaiteurs: Des utilisateurs malveillants infiltrent déjà les réseaux IPV6 plus rapidement qu’ils n’ont frappé d’autres avancées. Les avertissements concernant les attaques connues sont plus que jamais d’actualité. Certaines attaques peuvent pénétrer votre réseau en profondeur avant que vous ne remarquiez la moindre anomalie, et deviennent ainsi plus dangereux. Ces attaques proviennent des scénarios qui sont presque trop faciles à utiliser. La mémorisation de chaque type d’attaque et une solution adaptée à chaque cas sont impossibles. Il faut être conscient du fait que si beaucoup circulent déjà, d’autres encore entreront en scène au fur et à mesure que le temps passe.
  6. Mise à jour avec un firewall certifié: Soyez prudent au niveau des revendications éditeur. S’ils ne sont pas vérifiés par un tiers, certains éditeurs se contentent de router un générateur de trafic vers leurs produits pour montrer qu’il fonctionne. Il ne faut prendre en compte que les produits certifiés. Les organismes de certification appliquent des méthodes d’évaluation connues et validées pour attester les capacités de votre firewall.
  7. Exiger l’authentification: L’authentification est d’une importance critique et devient de plus en plus facile à mettre en place. Stonesoft préconise l’utilisation d’un proxy HTTP/HTTPS pour se connecter à l’Internet. Si l’authentification est nécessaire ne serait-ce que pour se connecter au réseau, le risque de recevoir des visiteurs importuns est d’office réduit.
  8. Apprendre ses leçons : Il faut connaître la syntaxe IPv6. Même si elle ressemble à celle de l’IPv4, il y a des différences de base. La maîtrise de la syntaxe permet de mieux gérer des brèches de sécurité ou mettre en place des mesures nécessaires. Techniquement le protocole est connu depuis plus d’une décennie et il existe pléthore d’informations sur le sujet, dont un guide du  gouvernement des Etats-Unis de 188 pages.
  9. Appuyer sur le bouton d’arrêt: Interrompre les capacités IPv6 lorsqu’elles ne sont pas utilisées peut paraître simple en théorie… mais en pratique, différentes configurations cohabitent, comme par exemple l’activation par défaut du protocole. Il ne faut pas hésiter à vérifier à plusieurs reprises votre environnement pour vous assurer que le protocole n’est activé que lorsqu’il est utilisé. Il peut être astucieux d’investir dans un outil qui a la capacité de désactiver l’IPv6 en masse
  10. Savoir détruire: Même si pour une partie conséquente de votre réseau l’IPv6 est inactif, des visiteurs importuns peuvent quand-même surgir. Vous devez donc savoir les détruire avant que d’autres parties liés à votre système soient infectées. La connaissance de la syntaxe IPv6, est indispensable dans ce cas, notamment pour la mise ne place de firewalls et de filtrage de trafic efficaces.

Publié par P.T

source : Stonesoft

A lire également :

Le Pakistan s’équipe d’un parc photovoltaïque de 50 MW

Au Pakistan, les coupures d’électricité pouvant durer 18 heures par jour ne sont pas rares : dépendant des installations hydroélectriques pour sa production d’énergie, le pays ne peut éviter des pénuries et des fluctuations d’approvisionnement qui entravent son développement économique… et génèrent des conflits sociaux.

Pour y mettre un terme, le gouvernement a mandaté la société DACC Power Generation Company Limited (DPGCL) pour réfléchir à des sources alternatives de production d’énergie. Doug Melvin, Président de la DPGCL, résume : « A la demande du Président, le Premier ministre et son cabinet ont cherché comment éviter les pénuries d’électricité en engageant une source d’énergie propre, un développement économique durable et une création d’emplois au Pakistan. »

A l’issue de cette réflexion, le gouvernement a opté pour la construction de la plus grande centrale solaire photovoltaïque du pays. Pour stimuler les investissements dans ce domaine, il a supprimé les droits d’importation sur les systèmes solaires. Avec huit heures de soleil par jour en moyenne et des valeurs d’ensoleillement supérieures à 1 700 kWh par mètre carré et par an, les conditions climatiques au Pakistan sont idéales pour la production d’énergie solaire.

« Après une vaste étude de marché, DPGCL et Ensunt ont choisi Conergy pour les aider à construire le plus grand parc photovoltaïque du pays : le début d’un partenariat qui permet d’entrevoir d’autres projets d’envergure ! C’est le choix de la sécurité absolue, grâce à la qualité exceptionnelle des produits de Conergy, mais aussi parce que le fabricant allemand s’occupe de la planification et de la conception », argumente Doug Melvin.

Conergy aura donc en charge la planification globale, l’ingénierie et la conception du parc solaire. Il fournira des composants de qualité Premium, Ensunt se chargera de la mise en oeuvre au niveau local, avec les travaux de construction sur le site.

La centrale achevée comptera 210 000 modules Conergy PowerPlus montés sur environ 210 kilomètres de structure Conergy SolarLinea : ils produiront plus de 78 GWh d’énergie propre par an. Elle sera raccordée au réseau national d’électricité par quelques 140 onduleurs centraux Conergy IPG 300C, fournissant 30 500 ménages en électricité.

Les agriculteurs profiteront également de cette énergie propre, notamment pour alimenter les pompes à eau nécessaires à l’arrosage des cultures. Avec ce projet, le gouvernement pakistanais se donne les moyens d’améliorer la productivité des entreprises et de créer plus de richesse dans le pays.

Selon Marc Lohoff, membre du Comité de Direction Conergy Groupe et CSO (Chief Strategy Officer) de l’Asie Pacifique et de l’Amérique, « le potentiel du Pakistan est énorme : actuellement, seulement 63 % des pakistanais bénéficient d’électricité. En raison du caractère décentralisé de cette forme d’énergie et des hauts niveaux d’ensoleillement, le projet permettra de fournir à l’ensemble de la population une énergie fiable, propre et abordable. »

Publié par Carole Hamon

Un détecteur d’explosif mille fois plus sensible

Le système est composé d’un micro-levier en silicium de 200 microns de long pour 30 de large, nanostructuré par environ 500 000 nanotubes de dioxyde de titane alignés verticalement. Grâce à ces nanostructures, la surface du levier est accrue d’un facteur 100, augmentant d’autant la sensibilité du détecteur.

Le fonctionnement du système est simple : les particules d’explosif éventuellement présentes dans l’air modifient la fréquence de résonance du levier, témoignant ainsi de leur présence.

Ce détecteur original a été mis au point par une équipe de l’unité « Nanomatériaux pour systèmes sous sollicitations extrêmes » (CNRS / Institut franco-allemand de recherches de Saint-Louis), en collaboration avec le Laboratoire des matériaux, surfaces et procédés pour la catalyse (CNRS / Université de Strasbourg).

Les tests ont montré que ce dispositif est capable de détecter des concentrations de trinitrotoluène (TNT) de l’ordre de 800 ppq (soit 800 molécules d’explosif parmi 1015 molécules d’air) contre seulement 1 ppq pour les détecteurs actuellement existants, soit une sensibilité 800 fois supérieure !

Ce système révolutionnaire pourrait voir son champ d’application élargi à la détection d’autres substances que des explosifs comme des drogues, des agents toxiques ou des traces de polluants organiques.

Vue d’ensemble du microlevier nanostructuré par des nanotubes alignés de dioxyde de titane. La fixation de molécule de TNT sur ces tubes modifie la fréquence de résonance du dispositif, trahissant ainsi leur présence. © Fabien Schnell, NS3E

Par Audrey Louvens, journaliste scientifique

Une nouvelle application au service des décideurs hospitaliers

Lancé fin 2011, le programme « Hôpital Numérique », définit un plan de développement et de modernisation des Systèmes d’Information (SI) des hôpitaux français.

L’objectif est la mise en place d’un SI Décisionnel alimenté par des données de production, capable de produire un tableau de bord de pilotage médico-économique infra-annuel, et corrélant des indicateurs sur l’activité, la performance financière, les ressources humaines et la qualité : données mensuelles d’activité (nombre d’entrées et de journées, taux d’occupation, durée moyenne de séjour…), recettes liées à la Tarification à l’Activité (T2A) et taux d’exhaustivité mensuels des pôles et services, chiffres clés de l’hôpital…

Ceux qui bénéficieront de ce nouvel accès sont principalement les responsables de pôles, les cadres administratifs ou encore les médecins. Actuellement, le CHU de Nancy permet à ses chefs de pôle, comme à l’ensemble des médecins et cadres intéressés, de consulter les tableaux de bord de l’établissement directement depuis leur iPhone, et non plus uniquement via l’intranet de l’hôpital.

Aux Hospices Civils de Lyon, c’est le tableau de bord du Directeur Général qu’il est prochainement envisagé de diffuser sur son smartphone.

Par Audrey Loubens

Ubifrance organise une mission collective « smart grid aux États-Unis »

L’invitation est lancée ! Les pôles de compétitivité ENERGIE, coordonnés pour cette mission par le pôle S2E2, convient toute PME/ETI, appartenant au domaine des Smart Grid et Smart Building, à s’associer dès maintenant à la mission collective Smart Grid.

Même si la priorité est donnée aux PME, les grands groupes ou autres laboratoires pourront en faire partie, sous réserve de respecter un quota. L’objectif affiché est de nouer des partenariats avec les sociétés américaines, sachant qu’elles sont particulièrement intéressées par l’expertise française dans les domaines suivants : fabrication de batteries, fiabilité des équipements, solaire et grid distribution.

Le programme se déroule sur trois ou cinq jours, comprenant la participation au Great Lakes Symposium And The New Energy Economy à Chicago du 24 au 26 septembre, avec notamment la présentation de l’entreprise, des rendez-vous BtoB et des soirées networking.

Les deux jours suivant se dérouleront à Raleigh en Caroline du nord pour échanger avec les contacts locaux tels que Progress Energy, Piedmont Electric Membership, Power secure, Tantalus, Truveon…

Ce voyage est subventionné par la DGCIS et UBIFRANCE et coûte environ 2000 € pour les PME (vol et hébergement compris) pour l’ensemble de la mission et 1 500 € pour la seule partie Chicago.

Afin de préparer cette mission, Andrew Barbeau, l’organisateur du symposium américain à Chicago, se déplacera en France du 25 au 29 juin ou du 9 au 13 juillet, accompagné d’entreprises américaines et du cluster Illinois Smart Grid Regional Innovation.

Contact : [email protected]

Par Audrey Loubens, journaliste scientifique

Le contact entre fluides est optimisé par les tourbillons

Des chercheurs du Laboratoire Ondes et Milieux Complexes (LOMC/CNRS /Université du Havre) et de l’institut Benjamin Levich (City University of New York) aux Etats-Unis, ont comparé des simulations numériques à des résultats expérimentaux dans le cas d’un fluide visqueux. Les chercheurs se sont concentrés sur un système de cylindres concentriques rotatifs horizontaux, système très étudié au LOMC.

L’espace annulaire entre les cylindres est partiellement rempli et le cylindre intérieur est en rotation. Pour interpréter ce système, ils ont pris en compte les phénomènes de dynamique et les phénomènes aux interfaces. Les chercheurs ont observé deux zones principalesde recirculation (ou tourbillons) dans le fluide : l’une orbite autour du cylindre rotatif et une seconde en dessous.

Pour simuler le mouvement d’une cuillère pleine de miel qui tourne suffisamment vite pour l’empêcher de se détacher, ils ont fait disparaître la deuxième zone de recirculation en augmentant le taux de remplissage ou la vitesse du fluide.  Cette approche peut être généralisée pour une autre combinaison de fluides, et  peut également s’appliquer à une suspension de cellules et une huile contenant des nutriments généralement utilisées pour produire des médicaments ou des biocarburants dans des bioréacteurs.

Finalement, ces résultats pourraient aider à identifier les bons paramètres et les échelles de temps de mélange adéquats pour s’assurer que les nutriments nourrissent toutes les cellules de façon homogène, sans ségrégation.

Schéma de la vue transversale de l’écoulement d’un fluide entre deux cylindres concentriques. Le point rouge représente un point de stagnation et la croix verte indique la position d’une pointe

Par Audrey Loubens, journaliste scientifique

Air Liquide, Centrale Paris et le CNRS s’associent pour développer l’oxy-combustion

Subventionnée par l’Agence nationale de la recherche (ANR), cette chaire d’une durée de six ans vise à former de jeunes ingénieurs et docteurs et à organiser des travaux de recherche centrés sur la compréhension des phénomènes de combustion à haute pression pour des combustibles gazeux, liquides et solides (charbon, biomasse).

L’activité de la chaire sera organisée autour d’une plateforme numérique et expérimentale, implantée au laboratoire EM2C. Celle-ci sera équipée de systèmes de diagnostics avancés pour la mesure simultanée, à haute pression, des caractéristiques des flammes et des transferts de chaleur, ce qui est une première mondiale.

Pour rappel, l’oxy-combustion utilise de l’oxygène à la place de l’air pour la combustion. Combinée à un procédé de purification du CO2 cette technologie permet d’obtenir du CO2 prêt à être capté, stocké ou valorisé directement, ouvrant la voie à la production de vapeur et d’électricité décarbonée.

Air liquide, déjà investi dans l’option «Energie» de l’Ecole Centrale Paris, espère ainsi obtenir des modèles plus fiables et améliorer ses processus de dimensionnement des brûleurs à oxygène, pour des démonstrations à grandes échelles ou en géométries complexes.

Par Audrey Loubens

Un nouveau lab-car pour IFP Energies nouvelles

 

Pour concevoir ce lab-car, IFPEN s’est appuyé sur son expertise multiple dans le domaine de l’intégration véhicule et de l’ingénierie moteur : dimensionnement, modélisation, contrôle et évaluation de chaque composant et sous-système, calibration finale du véhicule…

IFPEN a mis au point les différents composants en laboratoire et sur bancs d’essais. Puis, à l’aide de la CAO (conception assistée par ordinateur) et des techniques de numérisation (scanners), IFPEN a réalisé l’intégration de la chaîne de traction et de son alimentation électrique à bord du véhicule.

IFPEN a ainsi développé et validé :

  • une chaîne de conception logicielle intégrant notamment des outils tels qu’un simulateur numérique détaillé, 
  • des plateformes permettant de tester expérimentalement les algorithmes de contrôle- commande et les composants (moteur à combustion, moteur électrique, batterie) en simulant l’environnement véhicule (techniques SIL et HIL), 
  • un logiciel d’optimisation énergétique multiparamètres,
  • une plate-forme d’intégration de modèles. 

La réalisation de ce lab-car est le fruit d’un travail pluridisciplinaire qui a fait intervenir différentes équipes de recherche spécialisées : bureau d’étude, électrochimistes, électriciens, électroniciens, mécaniciens, motoristes, ingénieurs de recherche en simulation, contrôle et essais.

IFPEN a également fait appel à plusieurs fournisseurs français : SAFT pour la batterie, Parker SSD Parvex pour le moteur électrique, Technomap pour le câblage, Ercteel pour l’électronique de puissance et Gonin Moteurs pour la transmission.

L’utilisateur de ce lab-car peut choisir de rouler en mode électrique ou hybride. Dans les deux cas, l’énergie est récupérée au freinage. La batterie peut être rechargée sur une prise de courant conventionnelle.

Avec cet outil d’essai avancé qu’il a entièrement conçu, IFPEN souhaite accélérer le développement d’innovations dans le domaine du véhicule électrique et hybride.

Publié par P.T

Source : Site IFP

Les cellules vivantes adaptent leur évolution aux forces mécaniques locales

A l’aide de substrats de micro-piliers déformables, les chercheurs de l’Université Paris Diderot, de l’Université Pierre et Marie Curie, du CNRS et du Mechanobiology Institute (Singapore, LIA CAFS CNRS) ont montré que les cellules vivantes exercent des forces, de l’ordre de la dizaine de nanomètres, en y adhérant. Non seulement ces forces augmentent avec la rigidité du milieu extérieur, mais l’adaptation des forces de tension résulte d’une réorganisation interne du cytosquelette d’actine de la cellule.

Ces résultats, parus dans la revue PANS, montre que le cytosquelette jouerait également le rôle de structure mécanosensible à grande échelle en adaptant son organisation à la rigidité du milieu extérieur, les filaments s’alignant davantage dans une même direction sur un substrat plus rigide pour exercer des forces plus importantes.

Or, on sait que la transmission de forces mécaniques entre les cellules et leur environnement conditionne la coordination des fonctions cellulaires comme l’adhésion, la migration ou encore la différentiation.

En fabriquant des zones contigües comprenant une partie molle et une partie rigide, les chercheurs ont pu mettre en évidence que leurs résultats pouvaient expliquer la capacité des cellules à migrer vers les zones les plus rigides du substrat, là où les forces exercées sont les plus grandes.

 

© SRK. Vedula & B. Ladoux 

Photo ci-dessous : Organisation du cytosquelette d’actine en vert sur un substrat dur de micropiliers, vue en microscopie de fluorescence. Chaque pilier de cette surface artificiellement créée par les chercheurs joue le rôle de capteur de forces mises en jeu lors du déplacement de la cellule et la modification des propriétés géométriques modifie sa rigidité. La distance entre les piliers est de 2 µm.

Par Audrey Loubens

Quatre leviers pour le développement des véhicules électriques

Dans un premier temps, ce sont principalement les entreprises qui sont visées par les constructeurs de véhicules électriques : tournées en ville, livraison du dernier kilomètre, autant d’utilisations intéressantes. C’est d’ailleurs dans cette optique qu’a eu lieu en 2010, la commande d’environ 50 000 véhicules effectuée par un groupement de 15 entreprises.

Diminuer le prix des batteries

La voiture électrique présente des avantages certains, outre l’aspect écologique, un coût de maintenance de 25 % inférieur à celui d’un véhicule thermique et un coût de recharge de quelques euros, encore que le prix de l’électricité devrait sérieusement augmenter en France dans les quelques années à venir. Mais le principal problème se situe dans le prix du véhicule et de ses batteries, considérablement plus cher que celui de leurs homologues thermiques. Maxime Mandin, Consultant Energie & Environnement chez Alcimed, explique :

     « En attendant les économies d’échelle ou la rupture technologique sur les batteries, Renault a compris la nécessité d’abaisser le ticket d’entrée dès maintenant et a donc opté pour la location systématique de la batterie. L’avantage pour le client, au-delà de mensualiser le coût d’achat de la batterie, est la garantie d’autonomie assurée par le constructeur, ce qui n’est pas négligeable au vu du manque de recul sur le vieillissement de ces batteries Lithium-ion, encore relativement récentes sur le marché. »

D’autres solutions sont envisageables en augmentant la valeur résiduelle des batteries ou en leur donnant une seconde vie (stockage stationnaire de l’électricité). Actuellement, selon les simulations citées par le cabinet Alcimed, un véhicule électrique ne devient rentable qu’à partir de 25 000 kilomètres par an…

Implanter des bornes de recharge rapide 

Actuellement la solution la plus fréquente pour la recharge consiste à brancher une simple rallonge sur du 220V : c’est la recharge dite « lente » (une dizaine d’heures pour une batterie de 20 kWh). La recharge rapide demande des bornes électriques dédiées, avec en amont une installation à forte puissance (40 kW) et en aval un câble renforcé pour éviter tout risque d’électrocution ou d’incendie (moins de 30 minutes pour la même batterie de 20 kWh).

Indispensable à une utilisation non aléatoire des véhicules électriques, ces bornes font l’objet depuis peu d’une obligation pour les nouvelles constructions, et par la suite pour les parkings déjà existants, ce qui devrait encourager leur développement.

Développer les ervices autour de la recharge

Ces bornes nouvelle génération présente l’avantage d’être « communicantes », lancer ou arrêter la charge à distance, connaître l’état de la charge, le tout à partir d’un smartphone. Mais des développements devront permettre à terme de consulter leurs situations ou d’effectuer des réservations. Les possibilités de services sont multiples, et de nombreux acteurs s’y intéressent comme l’explique Maxime Mandin :

     « Parmi eux, on retrouve les distributeurs d’électricité, les fabricants de bornes de recharge comme Schneider Electric, les constructeurs automobiles mais aussi les opérateurs de mobilité à l’image de Tomtom qui ambitionnent de passer du GPS amovible à l’ordinateur de bord central du véhicule (navigation, déclenchement des secours en cas d’accident, multimédia embarqué et peut-être gestion de la batterie et réservation des bornes de recharge à distance). »

Résoudre le casse-tête du réseau électrique

La recharge rapide, de loin la plus pratique, provoque un appel de puissance difficilement supportable par le réseau en cas d’adoption massive des véhicules électriques. Des outils de gestion de recharge doivent donc être étudiés : abonnement mensuel de forfaits de recharge (sur le modèle des forfaits téléphoniques), tarification dynamique pour encourager les conducteurs à recharger pendant les heures creuses, etc. Cela se révèle d’autant plus important que lors des pics de consommation, les producteurs d’électricité doivent mettre en route « des centrales d’appoint », souvent de vieilles centrales polluantes et fortement émettrices de CO2, ce qui ternirait sensiblement le bilan carbone des voitures électriques.

A terme, l’objectif est d’utiliser le véhicule électrique pour stabiliser le réseau, en l’utilisant comme un outil de stockage décentralisé (« Vehicle to grid »), scenario qui, selon Alcimed, « relève encore de la science-fiction ».

Aujourd’hui, selon l’étude, « le véhicule électrique pose malheureusement plus de problèmes qu’il n’apporte de solutions ». Ainsi conclut Jean-Philippe Tridant-Bel, Directeur de l’activité Energie & Environnement d’Alcimed :

     « L’enjeu est énorme mais cette transition coûteuse dont les bénéfices ne se ressentiront qu’à long terme ne se fera pas sans volontarisme politique… La France a une vraie carte à jouer avec l’une des électricités les plus compétitives au monde et 2 champions nationaux, Renault et Schneider Electric bien déterminés à devenir les leaders mondiaux des véhicules électriques et des bornes de recharge. »

(Source : Alcimed)

Par Claudine / blog EcoCO2

 

À lire aussi :

Les voitures en libre service Autolib’ enfin disponibles à Paris et en Ile-de-France

A quand les piles a combustible à hydrogène dans les voitures ?

 

EcoCO2

La réduction des émissions de gaz à effet de serre est un enjeu planétaire. Certes, mais pourquoi ? Comment puis-je y contribuer à mon niveau ? D’ailleurs quelle est mon empreinte carbone ? Mes consommations d’énergie sont-elles normales ?

Par une approche pédagogique et participative, Eco CO2 fournit des clés pour progresser : un portail et une lettre d’informations pour découvrir les actions de ceux qui agissent déjà ; des outils simples pour comprendre, évaluer, mesurer ; un blog pour partager nos bonnes pratiques ; une boutique pour trouver des solutions aidant à comprendre et maîtriser ses consommations d’énergie et son empreinte carbone.
 

Hitachi met au point un nouveau moteur sans néodyme

Ce dernier est habituellement employé avec un alliage de fer et de bore (NdFeB, formant un composé de formule suivante : Nd2Fe14B ). Il permet de fabriquer des aimants qui figurent parmi les plus puissants disponibles actuellement sur le marché.

Le moteur ainsi développé a un rendement de 93% et une puissance de 11 kW, ce qui le classe dans la catégorie IE4 de la norme internationale « IEC60034-31 » relative aux rendements énergetiques des moteurs, c’est-à-dire la catégorie la plus élevée.

Pour fabriquer le stator, la compagnie a utilisé des feuilles de fer laminé (d’une épaisseur de 25 micro-m), un matériau amorphe, permet d’obtenir une meilleure perméabilité magnétique que si de l’acier (matériau habituellement employé) avait été utilisé. Pour le rotor, l’aimant à la place de l’aimant en néodyme conventionnel est un aimant en ferrite, une céramique d’oxyde de fer, moins onéreuse.

Ce développement, s’il est intéressant d’un point de vue technique, l’est aussi pour le Japon et le reste du monde. En effet, la grande majorité (90%) du néodyme extrait provient de Chine, pays qui a récemment décidé de resserrer les restrictions imposées sur l’extraction des terres rares sur son territoire. Bien que le néodyme soit l’une des terres rares les plus abondantes, cette découverte permettrait de passer outre les surcoûts liés aux restrictions chinoises.

Hitachi annonce vouloir commercialiser ce moteur à l’horizon 2014.

Source : Bulletins électroniques

HyQ : le robot chien

Le robot baptisé HyQ, pour Hydraulic Quadruped, a été présenté à la conférence mondiale de robotique ICRA 2012 qui s’est déroulé du 14 au 18 mai dernier, à Saint Paul, Minesota. Le thème de cette année était  » Robot et automatisation : l’innovation pour les besoins de demain « .

(Crédits : HydraulicQuadruped)

HyQ est en mesure de faire face à différents types de situations et obstacles. Sa vitesse peut atteindre jusqu’à 2m par seconde selon le parcours.

HyQ, complètement réalisé en aluminium, mesure presque 1m de long et 98cm de hauteur. Son poids est de 70 kg, avec une alimentation électrique externe, ou de 90 kg lorsque l’alimentation électrique est interne. Le robot peut courir, sauter et se soulever en se reposant sur ses pattes arrières. Ceci lui permet de se déplacer avec une extrême liberté, et grâce aux mouvements de ses pattes, de déplacer des objets lourds qu’il trouve sur son chemin, tels que des pierres ou des débris métalliques.

Les chercheurs travaillent maintenant à une évolution du robot, et cherchent à le doter de bras et à lui intégrer un système hydraulique afin de s’abstraire de la nécessité d’avoir des câbles électriques. Il est également prévu de lui ajouter des capteurs.

(Source : http://www.bulletins-electroniques.com/actualites/70206.htm)

 

A lire aussi :

Des robots quadripèdes tout terrain

Un robot chinois précieux dans la gestion des accidents nucléaires

Réputation corporate : Total ou l’impossible équation communicante ?

Le 21 mai dernier, Yves-Louis Darricarrère, directeur général de la branche Exploration-Production de Total a poussé un ouf de soulagement en confirmant officiellement le succès de l’intervention technique menée quelques jours auparavant sur le puits G4 de la plate-forme d’extraction d’Elgin, située en mer du Nord à 240 kilomètres d’Aberdeen. Depuis le 25 mars, les ingénieurs de Total travaillaient en effet d’arrache-pied pour colmater la fuite affectant la plateforme et déversant quotidiennement 200 000 mètres cubes de gaz dans la mer.

Transparence avant tout

Côté communication, la mobilisation était également à son comble d’autant que la survenue de la fuite avait aussitôt impacté la valorisation boursière de Total.

En l’espace de trois jours, 7,5 milliards d’euros (1) s’étaient évaporés sous la pression inquiète des analystes et de l’opinion publique redoutant une catastrophe équivalente à celle de la plateforme Deepwater de BP dans le golfe du Mexique en juin 2010.

Les équipes de communication du pétrolier tricolore n’ont pas tergiversé. Sitôt l’accident connu, l’entreprise a immédiatement joué la carte de la transparence. Dans la foulée de l’annonce publique de la fuite accidentelle, Total a mis en place un dispositif de communication très complet s’appuyant sur un site Web de crise dédié dont les informations, les vidéos, les infographies et les communiqués de presse étaient systématiquement relayés en temps et en heure via les réseaux sociaux du groupe et ceux de la filiale britannique. En parallèle, plusieurs dirigeants sont montés en première ligne pour expliquer à intervalles réguliers l’avancement des opérations de colmatage et des investigations pour déterminer la cause exacte de la fuite.

Une stratégie de communication payante puisque l’action de Total en Bourse est rapidement repartie à la hausse tandis que la couverture médiatique de la fuite de gaz n’a globalement pas engendré de reportages assassins comme l’entreprise aurait pu le redouter. Même l’organisation écologiste Greenpeace est restée pondérée après avoir affrété sur place un hélicoptère et un bateau pour prendre le pouls de la situation et ne pas se contenter du simple flux d’information du pétrolier.

L’ombre de l’Erika et d’AZF évitée

Jacques-Emmanuel Saulnier, le directeur de la communication de Total, peut donc être satisfait. La gestion de la crise a été rondement menée. Elle a su de surcroît ne pas répéter les graves erreurs de communication que Total avaient commises lors du naufrage de l’Erika en 1999 et l’explosion de l’usine chimique d’AZF à Toulouse en 2001.

A l’époque, l’attitude du n°1 français pourtant épaulé par une grande agence de communication, avait longtemps fluctué entre silence embarrassé, recherche d’un tiers coupable et acceptation des faits du bout des lèvres. Seuls, un pénible communiqué de presse dix jours après le naufrage de l’Erika et une grosse campagne de communication orchestrée quelque temps plus tard avaient été donnés en pâture pour tenter de redresser l’image écornée de l’entreprise. En revanche, pas la moindre trace de résipiscence ou d’effort explicatif dans la bouche des dirigeants de l’entreprise. Total empruntera exactement la même posture communicante lorsque surviendra deux ans plus tard l’explosion mortelle de l’usine AZF près de Toulouse.

En choisissant cette fois de miser sur une approche plus ouverte, Total est indéniablement parvenu à amortir l’onde de choc médiatique et économique que pareille crise peut engendrer. Certes, le dossier n’est pas encore totalement clos pour le pétrolier avec notamment des menaces larvées pouvant ressurgir à tout moment comme la découverte de potentiels impacts environnementaux et/ou la confirmation d’éventuelles négligences dans les procédures d’exploitation et de sécurité au sein de la plateforme. Il n’en demeure pas moins que Total a su s’extirper avec dextérité d’une crise qui aurait pu dégénérer bien plus largement.

Lire la suite

 

Sources

(1) – Véronique Richebois – « La communication de crise à l’épreuve » – Les Echos – 6 avril 2012

 

Par Olivier Cimelière / Le blog du Communicant 2.0

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous ! « 

 

 

 

 

 

 

 

 

D’étonnantes nano-fibres plastiques fortement conductrices

En modifiant chimiquement des molécules de synthèse utilisées depuis plusieurs dizaines d’années dans l’industrie pour le processus de photocopie Xerox, les triarylamines, et en observant celles-ci à la lumière et en solution, Nicolas Giuseppone et ses collègues de l’Institut Charles Sadron avaient réussi en 2010 à obtenir pour la première fois des nanofils

Longs de quelques centaines de nanomètres, ces fibres sont constituées par l’assemblage dit « supramoléculaire » de plusieurs milliers de molécules.

Au cours d’une seconde étape, ces chercheurs ont étudié, en collaboration avec l’équipe de Bernard Doudin, de l’Institut de Physique et Chimie des Matériaux de Strasbourg (IPCMS) les propriétés électriques de ces nanofils. Et pour ce faire, ils les ont mis en contact avec un microcircuit électronique comportant des électrodes en or séparées de 100 nanomètres et ont appliqué un champ électrique entre celles-ci. Or ils ont observé que sous l’action d’un flash lumineux, les fibres se construisent uniquement entre les électrodes.

De plus, ces structures, qui s’avèrent aussi légères et flexibles que les plastiques, se sont révélées capables de transporter des densités de courant extraordinaires, supérieures à 2.106 Ampère par centimètre carré, approchant ainsi celles des fils de cuivre, qui plus est avec des résistances d’interface avec les métaux très faibles, 10.000 fois inférieures à celle des meilleurs polymères organiques actuels.

Reste à présent pour ces chercheurs à démontrer que ces fibres peuvent être intégrées industriellement dans des appareils électroniques miniaturisés (écrans souples, cellules solaires, transistors, nano-circuits imprimés …).

Source : Bulletins électroniques

L’industrie du béton présente son bâtiment à énergie positive

[Publié le 28 octobre 2010]

Entièrement construit en éléments préfabriqués en béton, sur le site du CERIB (Centre d’Études et de Recherches de l’Industrie du Béton), ÉnerGé a été imaginé pour démontrer grandeur nature les performances énergétiques des systèmes constructifs de l’industrie du béton : confort d’été par inertie thermique du béton, confort d’hiver par isolation thermique performante (performante ; consommation d’énergie primaire : 37 kWh/m2/an et production d’énergie solaire : 47 kWh/m2/an).  Il s’inscrit dans une démarche globale de développement durable (récupération des eaux pluviales, énergies renouvelables, arbres préservés pendant la construction, pompe à haleur air/air, participation d’acteurs locaux) et  illustre aussi la capacité de l’industrie du béton à réaliser des bâtiments esthétiques, s’intégrant parfaitement dans leur environnement, comme en témoignent ses originales façades et autres résilles en béton fibré ultra haute performance (BFUHP).

Ce bâtiment modèle est destiné à remplir une triple fonction :

  • une fonction de laboratoire, exclusivement dédié aux essais en caissons thermiques et enceintes climatiques de vieillissement accéléré ;
  • une fonction de vitrine permanente dans laquelle sont présentées les innovations de l’industrie du béton pour répondre aux enjeux du Grenelle Environnement ;
  • une fonction démonstrateur vis-à-vis des performances énergétiques et esthétiques que sont capables d’atteindre des ouvrages conçus et construits avec des produits préfabriqués en béton.

ÉnerGé se présente sous la forme d’un bâtiment d’un seul niveau de 440 m2 de surface intérieure, constitué de deux parties : une partie « fermée » à usage tertiaire de 222 m2, et une partie ouverte sur un côté constituant un show-room. Pour atteindre l’objectif de bâtiment basse consommation, les composants du bâti ont fait l’objet d’une sélection particulière en termes d’isolation thermique. Ainsi, l’enveloppe intègre des isolants de très forte épaisseur : entre 10 et 21 cm selon la partie d’ouvrage considérée (façade, dallage, toiture). C’est l’intégration des équipements d’énergie renouvelable qui fait passer ce bâtiment au niveau BEPOS (Bâtiment à énergie positive).

La conception particulière des panneaux de façades, avec des panneaux librement dilatables, assure la continuité thermique entre les différentes parties de l’enveloppe. Ces panneaux sont des produits de qualité, existants sur le marché, et bénéficiant de la nouvelle marque NF Éléments architecturaux en béton fabriqués en usine. Les parties claires sont constituées d’un double vitrage intérieur à l’argon et rupture de pont thermique, d’une lame d’air et d’un simple vitrage extérieur. Une attention toute particulière a porté sur la réduction de tous les ponts thermiques potentiels dans ce type de construction.

Les façades sud, résilles en béton fibré ultra haute performance (BFUHP) sont coiffées de 18 m2  de cellules photovoltaïques en silicium cristallin (2,5 kW), les autres façades étant réalisées en panneaux double peau d’épaisseur totale 30 cm avec isolant thermique intégré dans l’âme des panneaux (U = 0,21 W/m2/K). La toiture en dalles alvéolées en béton précontraint avec 21 cm d’isolant, sont revêtues d’une membrane d’étanchéité intégrant 163 m2 de cellules photovoltaïques souples en silicium amorphe (8,6 kW).

Consommation énergétique : un premier bilan

ÉnerGé a fait l’objet d’une conception particulière afin de réduire au maximum sa consommation énergétique. Une pompe à chaleur air/air réglable (COP : 3,56) assure à la fois les fonctions de chauffage et de ventilation. Lorsque la température extérieure est trop basse, l’appoint est obtenu par une batterie électrique. Le réseau de soufflage/reprise d’air intègre des pièges à son afin de limiter le niveau sonore à l’intérieur du volume chauffé. Pour sa part, l’éclairage a fait l’objet d’exigences spécifiques pour le hall et les locaux techniques : l’équipement est du type fluo-compact basse consommation

Afin de maintenir le bâtiment à son niveau d’exemplarité, un suivi énergétique est au programme pendant trois ans. Il consiste à mesurer les consommations et les productions, pour savoir in fine comment le bâtiment va vivre et évoluer. C’est aussi un des aspects très novateurs du projet. Mais, dès à présent, un premier bilan provisoire a été dressé à la fin du premier semestre 2010 :

  1. 1er constat : la production électrique est légèrement supérieure à ce qui a été pris en compte dans l’étude de faisabilité (+ 15 % environ) mais ce résultat est à moduler, d’une part car les calculs pris en compte dans la conception ont été volontairement pessimistes au regard de la réalité, et d’autre part, la période d’observation, de 6 mois seulement, est sans réel recul par rapport aux données moyennes trentenaires prises en compte dans le dimensionnement. De plus, l’hiver 2010 a été marqué par une période d’enneigement et de froid rigoureux plus longue pour la région ;
  2. 2ème constat : la consommation d’eau de réseau sur la même période de référence de 6 mois a diminué de 17 %, du fait de la mise en œuvre de la récupération d’eaux pluviales en toiture (réservoir en béton de 13.000 l) ;
  3. 3ème constat concernant la consommation énergétique (éclairage + chauffage) : la consommation relative au chauffage seul est supérieure aux données du projet, car la stabilité en température du bâtiment n’est pas encore réalisée (les thermiciens considèrent qu’au moins une saison complète de chauffe est nécessaire). A l’inverse, les consommations d’éclairage sont meilleures que celles envisagées, représentant moins de 10 % de la consommation énergétique totale.