La tour Elithis, prouesse technologique et symbole de l’éco-construction

[Publié le 6 avril 2009]

Livrée fin mars, la tour Elithis de Dijon est un bijou d’éco-construction. Ce bâtiment, qui doit son nom à la société d’ingénierie qui occupe les nouveaux bureaux, est arrondie et mesure 33,5 mètres de hauteur. Elle accueille 5.000 m² de bureaux répartis sur neuf étages, mais ce sont surtout les chiffres concernant sa consommation d’énergie qui font de cette réalisation une prouesse révolutionnaire en matière d’économies d’énergie.

L’œuvre du cabinet Arte Charpentier Architecte rejettera ainsi six fois moins de gaz carbonique qu’un immeuble classique. Mais la véritable innovation réside dans le fait qu’Elithis est un bâtiment à énergie positive qui peut produire plus d’énergie qu’il n’en consomme. Au niveau financier, les économies annuelles se chiffrent entre 115.000 et 150.000 euros. Ce type de construction est encore assez rare en France, mais il s’agit là d’un exemple dont les ingénieurs du bâtiment vont devoir s’inspirer, comme le souligne Philippe Pelletier, président du comité stratégique du plan bâtiment issu de la loi Grenelle : « ce qui est très exceptionnel aujourd’hui devra être généralisé en 2020 pour les bâtiments tertiaires ».

Une consommation énergétique propre quasi nulle

Ainsi, le chauffage de la tour est émis par une chaudière fonctionnant aux granulés de bois, et ne sera activé que pendant la nuit. Le jour, la chaleur émise par les occupants et les machines servira à réchauffer l’ensemble de la tour.

Ensuite, Elithis fonctionne sans climatisation. En effet, fabriquer du froid nécessite trois fois plus d’énergie que pour du chauffage. Pour diminuer l’effet des rayons du soleil lorsqu’il est au zénith, la partie la plus exposée du bâtiment a été recouverte d’un bouclier thermique transparent en résille. Le procédé semble efficace, puisque les calculs montrent que l’effet du rayonnement solaire se trouve atténué de 80 %. Des panneaux isolants de 12 cm d’épaisseur à base de ouate de cellulose renforcent également l’isolation thermique du bâtiment.

L’énergie produite le sera par des panneaux photovoltaïques placés sur le toit, et qui génèreront 75.000 kWh/an. L’eau de pluie, elle, sera récoltée pour ensuite servir dans les sanitaires.

Atteindre l’énergie positive grâce aux employés

Au final, la consommation annuelle du bâtiment s’élève à 20 kWh/m². « Notre idée est d’amener les gens à changer de comportement », note Thierry Bièvre, le président de la société Elithis. En effet, les innovations technologiques qui ont permis au chantier Elithis d’aboutir à une des tours les plus écologiques du monde ne trouveront leur efficacité qu’à travers une évolution des comportements.

Les salariés d’Elithis seront donc des acteurs du « succès énergétique » de la tour. Ainsi, dans le but de passer à une consommation annuelle énergétique nulle, et donc effectivement à un bâtiment à énergie positive, il sera demandé aux employés de prendre l’escalier pour se rendre aux premier et deuxième étages. Deuxième exemple, le ménage se fera en journée, afin d’éviter d’allumer les lumières inutilement. Des lumières qui ne fonctionnent d’ailleurs qu’avec des luminaires à économie d’énergie, la nuit.

Ainsi, les bâtiments de demain devront s’inspirer des innovations en matière d’économies d’énergies. Mais ce n’est pas suffisant. La responsabilité de chacun des utilisateurs de ces bâtiments sera tout aussi importante pour créer des ensembles à faible consommation d’énergie. Quoi qu’il en soit, et pour mesurer le chemin qu’il reste à parcourir au niveau français, on estime que la tour Elithis possède 40 ans d’avance sur le plan climat 2004.

L’industrie du béton présente son bâtiment à énergie positive

[Publié le 28 octobre 2010]

Entièrement construit en éléments préfabriqués en béton, sur le site du CERIB (Centre d’Études et de Recherches de l’Industrie du Béton), ÉnerGé a été imaginé pour démontrer grandeur nature les performances énergétiques des systèmes constructifs de l’industrie du béton : confort d’été par inertie thermique du béton, confort d’hiver par isolation thermique performante (performante ; consommation d’énergie primaire : 37 kWh/m2/an et production d’énergie solaire : 47 kWh/m2/an).  Il s’inscrit dans une démarche globale de développement durable (récupération des eaux pluviales, énergies renouvelables, arbres préservés pendant la construction, pompe à haleur air/air, participation d’acteurs locaux) et  illustre aussi la capacité de l’industrie du béton à réaliser des bâtiments esthétiques, s’intégrant parfaitement dans leur environnement, comme en témoignent ses originales façades et autres résilles en béton fibré ultra haute performance (BFUHP).

Ce bâtiment modèle est destiné à remplir une triple fonction :

  • une fonction de laboratoire, exclusivement dédié aux essais en caissons thermiques et enceintes climatiques de vieillissement accéléré ;
  • une fonction de vitrine permanente dans laquelle sont présentées les innovations de l’industrie du béton pour répondre aux enjeux du Grenelle Environnement ;
  • une fonction démonstrateur vis-à-vis des performances énergétiques et esthétiques que sont capables d’atteindre des ouvrages conçus et construits avec des produits préfabriqués en béton.

ÉnerGé se présente sous la forme d’un bâtiment d’un seul niveau de 440 m2 de surface intérieure, constitué de deux parties : une partie « fermée » à usage tertiaire de 222 m2, et une partie ouverte sur un côté constituant un show-room. Pour atteindre l’objectif de bâtiment basse consommation, les composants du bâti ont fait l’objet d’une sélection particulière en termes d’isolation thermique. Ainsi, l’enveloppe intègre des isolants de très forte épaisseur : entre 10 et 21 cm selon la partie d’ouvrage considérée (façade, dallage, toiture). C’est l’intégration des équipements d’énergie renouvelable qui fait passer ce bâtiment au niveau BEPOS (Bâtiment à énergie positive).

La conception particulière des panneaux de façades, avec des panneaux librement dilatables, assure la continuité thermique entre les différentes parties de l’enveloppe. Ces panneaux sont des produits de qualité, existants sur le marché, et bénéficiant de la nouvelle marque NF Éléments architecturaux en béton fabriqués en usine. Les parties claires sont constituées d’un double vitrage intérieur à l’argon et rupture de pont thermique, d’une lame d’air et d’un simple vitrage extérieur. Une attention toute particulière a porté sur la réduction de tous les ponts thermiques potentiels dans ce type de construction.

Les façades sud, résilles en béton fibré ultra haute performance (BFUHP) sont coiffées de 18 m2  de cellules photovoltaïques en silicium cristallin (2,5 kW), les autres façades étant réalisées en panneaux double peau d’épaisseur totale 30 cm avec isolant thermique intégré dans l’âme des panneaux (U = 0,21 W/m2/K). La toiture en dalles alvéolées en béton précontraint avec 21 cm d’isolant, sont revêtues d’une membrane d’étanchéité intégrant 163 m2 de cellules photovoltaïques souples en silicium amorphe (8,6 kW).

Consommation énergétique : un premier bilan

ÉnerGé a fait l’objet d’une conception particulière afin de réduire au maximum sa consommation énergétique. Une pompe à chaleur air/air réglable (COP : 3,56) assure à la fois les fonctions de chauffage et de ventilation. Lorsque la température extérieure est trop basse, l’appoint est obtenu par une batterie électrique. Le réseau de soufflage/reprise d’air intègre des pièges à son afin de limiter le niveau sonore à l’intérieur du volume chauffé. Pour sa part, l’éclairage a fait l’objet d’exigences spécifiques pour le hall et les locaux techniques : l’équipement est du type fluo-compact basse consommation

Afin de maintenir le bâtiment à son niveau d’exemplarité, un suivi énergétique est au programme pendant trois ans. Il consiste à mesurer les consommations et les productions, pour savoir in fine comment le bâtiment va vivre et évoluer. C’est aussi un des aspects très novateurs du projet. Mais, dès à présent, un premier bilan provisoire a été dressé à la fin du premier semestre 2010 :

  1. 1er constat : la production électrique est légèrement supérieure à ce qui a été pris en compte dans l’étude de faisabilité (+ 15 % environ) mais ce résultat est à moduler, d’une part car les calculs pris en compte dans la conception ont été volontairement pessimistes au regard de la réalité, et d’autre part, la période d’observation, de 6 mois seulement, est sans réel recul par rapport aux données moyennes trentenaires prises en compte dans le dimensionnement. De plus, l’hiver 2010 a été marqué par une période d’enneigement et de froid rigoureux plus longue pour la région ;
  2. 2ème constat : la consommation d’eau de réseau sur la même période de référence de 6 mois a diminué de 17 %, du fait de la mise en œuvre de la récupération d’eaux pluviales en toiture (réservoir en béton de 13.000 l) ;
  3. 3ème constat concernant la consommation énergétique (éclairage + chauffage) : la consommation relative au chauffage seul est supérieure aux données du projet, car la stabilité en température du bâtiment n’est pas encore réalisée (les thermiciens considèrent qu’au moins une saison complète de chauffe est nécessaire). A l’inverse, les consommations d’éclairage sont meilleures que celles envisagées, représentant moins de 10 % de la consommation énergétique totale. 

Plan Bâtiment Grenelle : quel rôle pour les acteurs de la construction des villes ?

[Publié le 27 octobre 2011]

En matière d’environnement, la France a décidé d’engager une démarche particulièrement volontariste. Le plan Bâtiment est à l’image de cet engagement et fait figure de référent au niveau international. Un objectif ambitieux donne le cap à horizon 2050 : diviser par cinq la consommation moyenne d’énergie dans l’ensemble des bâtiments.

Le terrain d’action, pour le moins hétérogène, ne simplifie pas la tâche : il s’agit des parcs résidentiels (maisons individuelles, logements en copropriété et HLM) et du tertiaire privé et public (locaux,  bureaux administratifs, écoles, commerces, entrepôts…). Cet ensemble devra progressivement être conduit vers une nouvelle norme de construction, à l’horizon 2020 : des bâtiments à énergie positive (c’est-à-dire qui consomment moins d’énergie qu’ils n’en produisent).

Alors que l’utilité économique du projet n’est plus à démontrer, la question, aujourd’hui, est la suivante : la France a-t-elle les moyens de son ambition ? Autrement dit, comment faire évoluer la demande d’habitations HQE alors que le taux de renouvellement du parc par la construction est de 1 % par an, que la population concernée est très hétérogène et que les maîtres d’ouvrage de la rénovation énergétique sont principalement des non professionnels ? Faut-il inciter ou obliger, mobiliser ou contraindre ?

Le dispositif actuel a fait le choix de la mobilisation en s’appuyant sur plusieurs leviers. Le premier est la recherche de la maîtrise des charges de fonctionnement – préoccupation importante pour les ménages qui peuvent consacrer jusqu’à 10 % de leurs dépenses en frais de chauffage ! Le second levier est l’impact du diagnostic de performance énergétique (DPE) sur la valeur des biens immobiliers. Enfin, les engagements pris en matière de développement durable par les grands groupes impliquent que les grands propriétaires d’actifs tertiaires s’engagent sur des parcs de qualité en matière énergétique.

Cependant, au-delà de ces facteurs incitatifs, plusieurs interrogations demeurent.

La première d’entre elles : le financement. Ne faut-il pas faire intervenir des tiers investisseurs, alors qu’entreprises et ménages restent peu enclins à dégager du budget pour ce type de dépense, et qu’aucune incitation n’est prévue pour le parc tertiaire ? À l’heure actuelle, le crédit d’impôt et l’ éco prêt à taux zéro sont des leviers incitatifs pour le parc privé. La rénovation des bâtiments publics de l’État est financée principalement par l’administration utilisatrice. En revanche, pour les autres biens, l’État recherche la participation d’opérateurs privés sous forme de contrat de performance énergétique notamment, en partenariat public-privé, nécessitant  flux financiers ou  tiers-investisseurs. La Caisse des dépôts a, d’ailleurs, amorcé une réflexion à ce sujet.

Ensuite, l’épineuse question de la garantie de performance et sa potentielle réglementation : sur quels critères évaluer l’évolution de la consommation ? De quelle manière mesurer le ROI ? Une première piste consiste en une garantie réelle de consommation au compteur. En cas de dépassement, l’entreprise de rénovation dédommage le propriétaire qui rétrocède une partie de la somme aux locataires pour compenser le dépassement de charges. Quant à la réglementation, elle est sans doute nécessaire, mais non urgente et très complexe.

Dernière interrogation majeure : de quelle manière ordonnancer des actions de rénovation souvent engagées de manière anarchique, sans vision de long terme ?

Quoi qu’il en soit, cette « révolution énergétique »  ne pourra s’opérer sans la transformation d’une offre principalement portée par de petites entreprises artisanales. Trois axes de travail majeurs se dégagent pour les acteurs du bâtiment :

  • apprendre à mieux travailler ensemble afin de développer un véritable processus industriel ;
  • lancer à grande échelle de nouvelles actions de formation pour qualifier la plupart des entreprises ;
  • et mettre en réseau les différents acteurs pour garantir une plus grande rigueur et qualité de service.

Dans cette optique, les travaux ont déjà commencé, les fédérations du bâtiment ayant accepté le principe selon lequel seules les entreprises qualifiées pourront réaliser des travaux subventionnés, et qu’il leur revenait de définir le moyen d’identifier clairement ces dernières. Par ailleurs, les appels d’offres publics devraient aussi intégrer cette exigence de qualification.

Au cœur de cette transformation de l’offre, la capacité des entreprises du bâtiment à penser et à accomplir différemment leur mission, et sans nul doute, l’émergence de nouveaux métiers, sinon de nouveaux acteurs : à titre d’exemple, des architectes, ou encore des assistants à maîtrise d’ouvrage qui accompagneraient les choix et veilleraient à l’efficacité des processus de rénovation.

 

Par Philippe Pelletier, avocat spécialisé en droit immobilier et président du comité stratégique du « Plan Bâtiment Grenelle »

 

(Source : La Fabrique de la Cité)

 

Plus d’informations sur le Plan bâtiment Grenelle ici

 

News Environnement : Mai 2012

Réchauffement climatique : tablez plutôt sur 1,4 à 3 °C d’ici 2050 !

Une équipe de chercheurs de l’Université d’Oxford qui s’est appuyée sur près de 10.000 simulations de l’évolution du climat, a montré que d’ici 2050, le réchauffement climatique atteindra 1,4°C à 3°C, ces deux chiffres étant « également probables ». C’est-à-dire un réchauffement sans doute égal ou supérieur à 2 °C, la limite généralement fixée par les scientifiques au-delà de laquelle les effets seront importants et potentiellement très perturbants. La « barre des deux degrés » dépassée dès 2050, c’est bien plus tôt que de nombreuses simulations ne le laissaient entendre jusque là. Beaucoup envisagent en effet une hausse d’au moins 2 °C, mais seulement d’ici la fin du siècle. Les résultats de cette étude ont été publiés dans Nature Geoscience.

Ces résultats sont obtenus en générant un très grand nombre de simulations différentes grâce à du temps de calcul donné par des volontaires sur leurs ordinateurs domestiques. En s’inscrivant sur Climateprediction.net, un particulier met à disposition son PC pour effectuer une petite portion des très nombreux calculs requis pour simuler le climat mondial.

Le modèle couplant atmosphère et océans utilisé dans cette étude est particulièrement complexe, et prend en compte certaines des incertitudes que des prévisions antérieures, se fondant sur des modèles plus simples, ont pu avoir négligées. De plus, ce modèle a été testé sur les 50 dernières années, pour vérifier qu’il peut bien prévoir rétrospectivement les évolutions du climat effectivement observées.

L’intérêt de cette étude provient précisément du fait qu’elle fait appel à un très grand nombre de simulations. La compréhension incomplète des processus physiques qui sous-tendent trois aspects majeurs du système climatique (sensibilité de l’état d’équilibre, rythme d’absorption de la chaleur par les océans et rôle des aérosols) conduit à des incertitudes dans la détermination de l’évolution des températures mondiales au cours du prochain siècle. Pour réduire ces incertitudes, la modélisation repose, pour le moment, sur deux approches d’échelle : soit rassembler les résultats issus de nombreuses modélisations souvent simplificatrices, soit utiliser les quelques modélisations complexes disponibles couplant les interactions océans-atmosphère, qui sont plus précises mais existent en plus faible nombre.

Comme le souligne le Dr Ran Rowlands de l’Université d’Oxford et auteur principal de l’article, cette approche de réaliser un grand nombre de simulations, avec des versions de modèles choisies délibérément pour tenir compte d’un large ensemble de comportements, peut seule gérer les incertitudes présentes dans un système aussi complexe que l’est notre climat. Le professeur Mylles Allen, également d’Oxford, précise : « la plupart des prévisions du réchauffement mondial sont fondées sur l’éventail de résultats des différents groupes qui contribuent au programme de comparaison de modèle spécifiquement établi pour obtenir ces prévisions. Ces groupes ne cherchent pas à explorer l’ensemble de la fourchette d’incertitude, d’où le besoin de projets comme le nôtre ».

Cette approche innovante dans la modélisation du climat qui utilise le concept du calcul distribué ainsi que la disponibilité d’ordinateurs non utilisés chez les particuliers (à l’image du désormais célèbre programme SETI@home [1] lancé en 1999, ou plus récemment de Genome@home) pour générer un très grand nombre de simulations, marque peut-être l’avenir des modélisations du système climatique.

Sur le plan des résultats en matière de hausse des températures mondiales, ceux-ci sont particulièrement inquiétants et soulignent le besoin d’agir très rapidement au niveau mondial pour réduire les émissions de gaz à effet de serre.

Source : Bulletins électroniques

Photosynthèse artificielle : un nouveau catalyseur qui change la donne

KTH) ont mis au point un catalyseur moléculaire, à base de ruthénium, qui permet d’oxyder l’eau en oxygène et hydrogène à une vitesse comparable à celle de systèmes photosynthétiques naturels.

Dans le champ des énergies renouvelables, la recherche se concentre depuis plus de 30 ans sur la mise au point d’un processus de photosynthèse artificielle qui permettrait de développer l’utilisation de l’énergie solaire. Le problème central dans ce système qui utilise la lumière pour produire directement de l’hydrogène est la vitesse d’oxydation de l’eau, les catalyseurs connus étant toujours trop peu efficaces.

L’équipe de KTH a produit un catalyseur [Ru(bda)(isoq)2] qui accélère l’oxydation à une vitesse jusqu’ici jamais atteinte : la fréquence de production d’oxygène est supérieure à 300 molécules par site et par seconde. Ce résultat est pour la première fois comparable à la vitesse de la réaction dans des systèmes in vivo, qui va de 100 à 400 molécules par seconde. Ce record mondial ouvre de nouvelles perspectives pour l’énergie solaire ainsi que d’autres sources d’énergie renouvelable. Avec ce système, la lumière du soleil peut notamment être utilisée pour convertir le dioxyde de carbone en différents carburants tels que le méthanol.

Licheng Sun, professeur de chimie organique à KTH et co-auteur de l’article qui présente ce résultat estime que la vitesse atteinte grâce à ce catalyseur rend par exemple envisageable la création de grandes infrastructures dans le Sahara pour produire de l’hydrogène. Il pourrait aussi permettre la conversion de l’énergie solaire en électricité avec une efficacité bien supérieure à celle des meilleures technologies aujourd’hui disponibles sur le marché.

La prochaine étape est de rendre cette technologie accessible et donc compétitive par rapport aux carburants d’origine fossile. L’équipe poursuit son travail dans cette direction. Les recherches sont financées par la fondation Wallenberg et l’Agence suédoise de l’énergie.

Source : Bulletins électroniques

Un rapport fait le bilan de dix ans d’exploitation pétrolière en mer

Le programme HAVKYST (océan et zones côtières) [1] du Conseil Norvégien de la Recherche [2] (RCN) a produit un rapport [3] regroupant les résultats de 65 projets de recherche menés entre 2002 et 2011 pour l’étude de l’impact de l’exploitation pétrolière sur le milieu marin.

L’activité pétrolière devrait croitre dans les années à venir dans les mers septentrionales, qui sont considérées par beaucoup comme des zones plus vulnérables. La Mer de Barents, par exemple, bénéficie d’un écosystème très riche, et les eaux au large des îles Lofoten sont considérées comme un des sites de reproduction les plus importants de l’hémisphère Nord pour plusieurs espèces de poissons.

L’objectif de deux sous-programmes de HAVKYST, nommés PROOF et PROOFNY, a été d’évaluer les éventuels effets à long terme des rejets opérationnels et accidentels de l’industrie pétrolière offshore. Rien dans les résultats ne suggère que les organismes marins des régions arctiques et subarctiques seraient plus vulnérables à ces rejets que des organismes similaires vivant ailleurs sur le plateau continental norvégien. Des différences de vulnérabilité ont été démontrées entre les espèces des zones arctiques et celles de zones bien plus tempérées, notamment face aux émissions d’eau de production (extraite en même temps que le pétrole et le gaz, et généralement réinjectée dans les gisements) et de déblais de forage, mais ces différences sont minimes. Il apparaît cependant que l’effet de ces émissions est plus long en conditions arctiques.

Les résultats des travaux de recherche montrent que les émissions d’eau de production sont préoccupantes. Cette eau, composée de plusieurs substances plus ou moins toxiques, pourrait être la cause d’effets négatifs sur la santé et la reproduction de plusieurs espèces de poissons et d’invertébrés. Même si les études indiquent un effet globalement modéré et limité à un diamètre de dix kilomètres autour du puits de forage, le risque d’un impact environnemental accumulé important n’est pas à exclure. Les effets à long terme des fluides de forage (fluides à base d’eau utilisés, entre autres, pour stabiliser la pression pendant le forage et transporter les déblais) ne sont pas connus. Ces fluides ont un effet généralement limité dans le temps et l’espace, mais il n’est pas exclu qu’une émission prolongée puisse avoir un impact plus étendu sur les sédiments du fond marin.

« Ce rapport fournit une connaissance interdisciplinaire unique et représente un formidable outil pour une meilleure étude de l’impact environnemental des rejets en mer. Il apporte également une contribution importante au débat mettant en question l’exploitation pétrolière dans la Mer de Barents, les îles Lofoten et la région de Vesteraalen. », annonce Fridtjof Unander [4], Directeur de la division Energie, Ressources et Environnement du Conseil Norvégien de la Recherche. « Ces dix années de recherche ont d’ores et déjà contribué à l’amélioration des outils de modélisation pour la surveillance de l’environnement sur le plateau continental norvégien et de nombreuses mesures ont été prises par l’industrie. », ajoute-il.

Source : Bulletins électroniques

News informatique : Mai 2012

L’industrie des jeux vidéo, un secteur stratégique pour le Royaume-Uni

Le 22 avril 2012 s’est tenue au Westminster Media Forum une conférence sur l’avenir de l’industrie du jeu vidéo au Royaume-Uni. L’occasion de se féliciter des mesures prises par le gouvernement pour soutenir le secteur et de rappeler les défis à venir.

Avec un chiffre d’affaires qui, suivant les rapports, se situe entre deux et quatre Md£ en 2010, le secteur du jeu vidéo au Royaume-Uni dépasse celui de la musique et du cinéma. Il est le premier en Europe et le troisième dans le monde. Le Royaume-Uni a vu naître de grands noms de l’industrie tels que Rockstar North, développeur du jeu Grand Theft Auto ou encore Eidos Interactive, producteur de la série Lara Croft. L’industrie des effets spéciaux est également en pleine croissance au Royaume-Uni : + 16,8% entre 2006 et 2008.

En février 2011, NESTA (la fondation pour la promotion des sciences, des technologies et de l’art) a publié un rapport préconisant une meilleure formation des élèves britanniques à l’informatique. Cette étude, initiée par Ian Livingstone, Président de Eidos, a conduit le Ministre pour l’éducation Michael Gove à annoncer le 11 janvier 2012 une refonte du programme scolaire en matière de TIC, concédant que le cursus actuel est inadapté pour préparer les élèves aux carrières du jeu vidéo. Un des objectifs annoncés sera la formation des élèves du secondaire (lycée) à la programmation informatique.

L’annonce du budget britannique 2012-13, le 21 avril, a été l’occasion d’appuyer plus encore son soutien à l’industrie. Le Chancelier de l’Echiquier, George Osborne, a ainsi déclaré dans son discours budgétaire [1] à la Chambre des communes une nouvelle ambition industrielle, celle de « transformer la Grande Bretagne en centre technologique de l’Europe », en ajoutant que « cela commencera avec le monde numérique ». Plus concrètement, il a été annoncé la mise en place d’un abaissement fiscal (tax relief) d’ici avril 2013 pour les industries du jeu vidéo, de l’animation et de la création télévisuelle. Cette aide de l’Etat, qui devra être soumise pour approbation à la Commission européenne, sera mise en place après organisation d’une consultation nationale. Reste à déterminer le montant du crédit d’impôt, selon la proposition de l’association des professionnels du secteur, la TIGA (Trade Association for Game Industry), il pourrait atteindre 25% des coûts de production des jeux vidéo jusqu’à trois millions de livres, et 20% au-delà.

Si elle est adoptée, cette mesure constituera l’un des trois piliers de la stratégie britannique de soutien aux industries numériques créatives. Les deux autres étant l’accès aux financements et la formation des élèves britanniques aux technologies de l’information et aux mathématiques. L’industrie du jeu vidéo britannique se félicite de cette annonce et en appelle désormais à une reconnaissance de la valeur stratégique du secteur au niveau européen, notamment avec la mise en place de mesures similaires à celles pratiquées pour le cinéma (programme MEDIA, directive sur les services de médias audiovisuels, critères pour les aides d’Etat pour le cinéma). En France, depuis 2005, le crédit d’impôts jeux vidéo permet aux entreprises du secteur de bénéficier jusqu’à 20% de crédit sur leurs dépenses dans la limite de trois millions d’euros par exercice. Cette mesure à été citée de nombreuses fois en exemple lors des débats au Westminster Media Forum.

Même si les détails du crédit d’impôt ne sont pas encore connus, le gouvernement vient de donner un nouveau signal positif clair aux industries numériques créatives, en particulier au secteur du jeu vidéo. Si la France a été citée en exemple pour son crédit d’impôt jeu vidéo, le Canada a également été présenté comme l’un des meilleurs modèles avec un accès facilité aux financements et une formation précoce des élèves aux technologies de l’information. Les représentants de l’industrie du jeu vidéo souhaitent maintenant orienter leurs efforts sur la question de l’accès aux financements pour les PME.

Source : Bulletins électroniques

Le soleil en version numérique pour une meilleure compréhension de son activité

Elena Khomenko, chercheuse à l’Instituto de Astrofisica de Canarias (IAC), va réaliser une simulation de l’activité solaire afin de comprendre mieux les processus ayant lieu au sein de notre étoile. Un travail de recherche qui va occuper des superordinateurs pendant plusieurs millions d’heures !

Le soleil, un astre méconnu

Notre étoile nous réserve encore bien des mystères. Après plusieurs siècles d’observation, ses rythmes sont bien connus. Le soleil suit un cycle de 11 ans, durée pendant laquelle il oscille entre repos et forte activité. Celle-ci se manifeste notamment par une évolution de la présence de tâches solaires à sa surface. Depuis quelques mois, le soleil s’est réveillé et son activité devrait connaître un maximum au début de l’année 2013. Pendant ces phases, l’activité à la surface peut être intense et des jets de matières et de particules sont expulsés à grande vitesse dans l’espace.

Il y a quelques semaines un avis de tempête solaire avait été déclenché. Une de ces éruptions avait en effet projeté des particules en direction de la Terre. Si cette arrivée de matière est synonyme d’un magnifique spectacle d’aurores boréales, elle est aussi dommageable pour les satellites. Ces derniers n’étant pas protégés par l’atmosphère, et moins par le champ magnétique terrestre, ils sont plus exposés. Des mesures peuvent être prises en amont afin de minimiser les dégâts. Cependant, il serait bon de pouvoir bénéficier d’une bonne météo solaire et pour cela il est nécessaire de mieux comprendre les causes de ces cycles d’activités.

Une seule voie de recherche : la simulation

Les modèles décrivant le fonctionnement du soleil ne parviennent pas pour l’instant à expliquer l’origine des cycles d’activité du soleil et, encore moins, à prédire l’apparition de fortes tempêtes solaires. Le nouveau cycle d’activité a commencé en 2008 après un minimum plus long que d’habitude. Si les cycles sont à peu près réguliers, ils ne sont pas non plus d’égale intensité. Le cycle actuel est prévu pour être le plus faible depuis un siècle par exemple.

Les prévisions actuelles se basent non pas sur une compréhension du fonctionnement de notre étoile mais sur des extrapolations par rapport aux observations réalisées sur les cycles passés. C’est ce qu’Elena Khomenko souhaite transformer avec son projet de recherche. Le soleil est une boule de plasma – gaz de particules chargées électriquement – très chaud dont le coeur est en fusion et qui produit un intense champ magnétique complexe. Khomenko souhaite modéliser mieux la nature de ce plasma et son interaction avec le champ magnétique afin de comprendre comment naissent les tâches solaires et débusquer les causes à l’origine des éruptions solaires.

Elle souhaite ainsi développer un modèle informatique permettant de simuler l’activité solaire en surface, là où se produisent ces évènements. La chercheuse voit une faille dans les modèles actuels de la surface solaire. Ils ne prennent pas en compte le fait que le plasma peut être relativement froid à certains endroits, entraînant des phénomènes locaux. Pour résoudre les équations complexes qui régissent ces phénomènes, il est nécessaire de disposer d’ordinateurs très puissants et d’un temps de calcul conséquent. Des conditions qui n’étaient pas réunies jusqu’à présent.

En août 2011, Khomenko a obtenu un financement d’excellence pour 5 ans, une Starting Grant de l’European Research Council [1], et peut aujourd’hui mener à bien son travail qui va la conduire à utiliser des millions d’heures de calcul sur les superordinateurs MareNostrum du BSC de Barcelone et sur le calculateur La Palma aux Canaries, tous deux membres de la Red Española de Supercomputación (RES) [2]. Au final, la chercheuse espère que ses résultats permettront de prédire à l’avance si des variations de l’activité à la surface de notre étoile entraîneront des phénomènes éruptifs.

Source : Bulletins électroniques

Projet collaboratif de recherche sur les dynamiques de contenus des médias sociaux

Des chercheurs en informatique de gestion à l’Université de Munster (Rhénanie-du-Nord-Westphalie) lancent, avec des chercheurs des universités de Munich (Bavière), de Potsdam (Brandebourg) et de Stuttgart-Hohenheim (Bade-Wurtemberg), un projet qui analyse les médias sociaux et leurs dynamiques de communication dans le réseau mondial. Il est financé à hauteur de 800.000 euros par le Ministère fédéral de l’enseignement et de la recherche (BMBF).

Ce projet a été motivé par les actualités en Allemagne : protestations de citoyens sur la toile, montée du Parti Pirate, ou encore pour l’étranger, le rôle de Facebook et de Twitter dans le « printemps arabe », montrent bien que la communication politique sur Internet est différente de celle des médias traditionnels. Mais la façon dont les réseaux se structurent sur le web et dont les opinions s’y forment, sont des domaines que la science connaît encore peu, et pour lesquels elle ne possède pas d’outils méthodologiques appropriés. Dans ce projet coordonné par l’Université de Münster, et qui intègre des informaticiens, des mathématiciens comme des spécialistes des réseaux sociaux, ces instruments sont actuellement mis au point.

Le principal objectif est d’automatiser l’analyse de contenu afin de faire face au montant croissant et complexe des textes échangés sur l’Internet. Les documents sur des thèmes choisis seront identifiés, stockés, et évalués en fonction du contenu et des aspects formels. Les réseaux formés par ces contributions seront alors analysés statistiquement (degré de centralité, de connectivité, etc.), de sorte que les canaux de distribution et l’influence des noeuds individuels soient traçables.

La coordination du projet a été confiée à Stefan Stieglitz, Professeur d’informatique de gestion, qui, avec son groupe de recherche, développe l’analyse computationnelle automatisée des médias sociaux. En utilisant l’un des logiciels spécialement développés par son équipe, de grandes quantités de données peuvent être recueillies sur un sujet précis, pour former la base empirique de l’analyse structurale et donner une meilleure compréhension des processus de formation d’opinion sur les réseaux électroniques.

Ce projet rappelle la présentation de l’entreprise Human Intelligence Machine (Heidelberg, Bade Wurtemberg), au salon IFA de Berlin [1], sur ses stratégies d’analyse de données et d’intelligence automatisée appliquée à l’étude des médias sociaux, passant du data mining, au contrôle dynamique et à l’analyse automatique, et ayant pour but une explication plus fine de phénomènes sociaux comme les tendances, les buzz ou les manifestations spontanées. Récemment, l’Université technique de Berlin a également développé un système de recommandation sémantique qui interprète les contenus en ligne.

Source : Bulletin électroniques

 

 

Savoir si une tâche est vraiment urgente pour mieux gérer son temps

Le sondage mené par Sciforma et Zebaz, respectivement spécialistes des solutions Web de gestion de portefeuilles de projets et service d’annuaire participatif de sociétés et de coordonnées de décideurs en France, met en avant le décalage entre l’impression de l’urgence et la vraie urgence.

En effet, 89 % des Français disent travailler dans l’urgence tout en estimant seulement un quart des tâches comme réellement urgentes. Or,  57 % des Français dépassent allègrement les 35 heures de travail hebdomadaire pour compenser ces soi-disant urgences quotidiennes et 95 % d’entre eux voient leur vie personnelle en être affectée.  

Du coup, 81 % d’entre eux estiment ne plus maîtriser l’agenda de leur journée de travail avec pour conséquence une augmentation du stress : 60 % des Français se déclarent plus stressés qu’il y a cinq ans et 70 % plus qu’il y a 10 ans.

La principale cause de ce sentiment d’urgence réside dans l’apparition des nouvelles technologies, smartphone et boîte mail. Selon cette étude, 84 % des Français pensent que ces outils perturbent leur concentration et pour 89 %, ils renforcent le sentiment d’urgence. Pour s’en sortir, la majorité dresse des listes de tâche à faire, pour la journée ou pour la semaine. Mais cela se révèle insuffisant puisque finalement, à la fin de leur journée de travail, les sondés déclarent n’avoir réalisé en moyenne que 43 % des tâches qu’ils avaient prévues. On est loin du compte…

En effet, à ces situations de pseudo-urgence vient se greffer la difficulté pour les travailleurs de se concentrer suffisamment longtemps sur leur travail. Ainsi, 23 % disent ne pas pouvoir travailler plus de 10 minutes sans être interrompus et 67 % disent ne pas pouvoir rester concentrés plus de 30 minutes sans être dérangés !

Ils sont principalement interrompus par leurs collègues, des problèmes techniques ou les réunions, pas toujours productives.  Le constat est alarmant et il devient urgent, – pour de vrai cette fois –, de revoir les modes d’organisation aujourd’hui défaillants et d’en finir avec une gestion trop souvent à court-termiste des entreprises.

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

La nouvelle productivité au travail

Stress : mieux gérer temps de travail et temps personnel

Les nouveaux bâtiments publics en France

Le futur ministère de la Défense, « le projet Balard »

Le site Balard devrait être effectif d’ici 2015. Il réunira les états-majors (EMA, EMAT, EMM, EMAA), la Direction Générale pour l’Armement (DGA) ainsi que les directions et services du Secrétariat Général pour l’Administration (SGA). Par la mutualisation des moyens de fonctionnement, le site devrait être ainsi plus économe : le ministère doit vendre plusieurs sites parisiens dont il n’aura plus l’utilité pour une somme comprise entre 700 et 800 millions d’euros.

Le futur ministère de la Défense est un projet architectural ambitieux, qui accueillera 9 300 personnes pour une surface de 330 000 m2. Les conditions de travail du personnel se verront améliorées par la création de centres de restauration, de chambres d’hébergement pour le personnel militaire, d’une piscine, de crèches, de centres de soins, d’amphithéâtres, de salles de conférence, etc.

Les travaux ont débuté en mars dernier. Outre la conception de nouveaux bâtiments, le projet prévoit la réhabilitation de bâtiments existants. La conception et la réalisation de la construction ont été confiées à Bouygues Bâtiment Ile-de-France.

La maintenance et les services des bâtiments seront assurés pendant 27 ans par Exprimm, Thales et Sodexo. Ce regroupement d’entreprise porte le nom d’« Opale Défence ». Quant aux financements, il s’agit d’un contrat de partenariat public-privé (PPP). Ce n’est qu’en 2045 que l’État en sera propriétaire, au terme d’un loyer de 3,5 milliards d’euros.

[1/9]

Le Centre Hospitalier Sud Francilien

Le Centre Hospitalier Sud Francilien, situé entre les villes d’Evry et de Corbeil-Essones, devait être le projet emblématique des PPP (partenariat public-privé), témoin de « la modernisation de l’État ». Le groupe privé Eiffage, en charge de la construction de cet hôpital ambitieux et moderne, avait pour mission de réunir plusieurs établissements en un site unique. Pas moins de 110 000 m2 de surface pour ce nouvel ensemble et plus de 1 000 places disponibles.

Un projet pharaonique, que certains qualifient aujourd’hui de « scandale d’État ». En cause, la non-utilisation de cet hôpital depuis un an. Aux 8 000 erreurs constatées par les huissiers, 130 sont des défauts de construction importants : une biberonnerie oubliée au service de néonatalogie, des installations électriques hors-norme, ou encore des meubles en aggloméré vecteur de microbes.

Résultat, Eiffage réclame 175 millions d’euros à l’État pour les travaux demandés par le Centre hospitalier, qui n’a qu’un souhait depuis juin 2011, sortir du PPP. En attendant l’ouverture du Centre, l’affaire est portée devant les tribunaux.

[2/9]

Le futur zoo de Vincennes

Créé en 1934, puis fermé depuis novembre 2008, le parc zoologique de Vincennes avait débuté sa rénovation en décembre 2011, par la pose symbolique de la première pierre. La transformation du parc se poursuit et d’ici fin 2012, le bâtiment des girafes pourrait être livré. Puis, en novembre et décembre 2013, la volière et la serre tropicale devraient être finalisées.

L’objectif du futur zoo est d’immerger le spectateur dans un voyage à travers la planète, de lui faire découvrir des espèces menacées d’extinction. Les cinq continents seront représentés pour témoigner de la différence des écosystèmes. La biodiversité animale ne sera pas en reste, puisque le projet compte 175 espèces et plus d’un millier d’animaux, de quoi sensibiliser le public à la préservation de la nature et des espèces.

La rénovation représente un coût de 167 millions d’euros, dont 30 millions sont financés par l’État et 10 millions par le Muséum d’Histoire naturelle. Le reste, à savoir 127 millions d’euros, sera financé par Bouygues, le Crédit Foncier et la Caisse des Dépôts.

L’ouverture au public est prévue pour 2014 avec l’espoir d’atteindre une moyenne annuelle d’1,4 millions de visiteurs.

[3/9]

Le nouveau parc des expositions de Toulouse

Situé sur l’île du Ramier à Toulouse, classé « zone inondable », le parc actuel ne peut s’agrandir. Pour répondre aux ambitions de Toulouse, quatrième ville de France, le nouveau parc des expositions doit être implanté à Aussonne, aux côtés du Cancéropôle et de la Fabrique urbaine. Il disposera de 100 000 m2 de surface utile comprenant une grande halle de 15 000 m2, 40 000 m2 de halls ainsi qu’une aire d’exposition extérieure de plus de 15 000 m2 et des espaces complémentaires d’accueil, de restauration et de billetteries. Le parking silo aura une capacité de 4 500 visiteurs. La proximité de l’aéroport est un argument de taille pour l’organisation de manifestations à vocation nationale ou internationale.

C’est l’agence néerlandaise, Office for Metropolitan Architecture, qui a remporté l’appel à projets lancé en 2009 par le Grand Toulouse. La construction débutera fin 2013. Le coût des travaux est estimé à 191 millions d’euros, auquel vient se greffer une enveloppe de 40 millions d’euros afin de couvrir les accès et les dessertes.

[4/9]

Le nouvel Hôtel de Région pour la région Rhône-Alpes

Conçu par l’architecte Christian de Portzamparc, le nouvel Hôtel de Région pour la région Rhône-Alpes a d’ores et déjà été investi en mai 2011 par 1 400 agents et 156 élus. Situé au sein du quartier Confluence de Lyon, l’édifice créé en considérant les principes de développement durable et de qualité architecturale, est ouvert sur toutes ses faces, utilisant le vide entre les espaces.

Sur les 25 000 m2 de bureaux que comprend l’hôtel régional, s’articule une salle de délibérations de 1 570 m2 et des salles de commissions. Le coût de la construction s’est élevé à 147,1 millions d’euros. Néanmoins, la collectivité espère réaliser 79 millions d’euros d’économies de loyer sur 20 ans en mettant un terme à la location de sept sites, laissant 25 à 30 millions d’euros à la charge de la région.

[5/9]

Le nouvel hôtel de ville de Montpellier

Situé dans le quartier de Port Marianne, au sud de Montpellier, le nouvel hôtel de ville regroupe la plupart des services municipaux depuis son ouverture en novembre 2011. Sa construction a nécessité 39 mois de travaux et 130 millions d’euros (116 initialement).

La conception de l’édifice est signée par les architectes Jean Nouvel et François Fontès : une structure moderne en acier et en verre, dont les façades du cube affichent les couleurs gris, noir et bleu. Contemporain et écologique, le bâtiment dispose de 1 300 m2 de panneaux photovoltaïques intégrés sur les toits afin de limiter les dépenses en énergie. L’emplacement n’est pas anodin puisqu’il est tourné vers la mer, « son destin historique » selon François Fontès, symbole de la volonté d’extension de l’agglomération vers le Sud.

Désormais, 960 agents ainsi que 61 élus investissent les 500 bureaux répartis sur les 12 niveaux que comprend la surface de 27 000 m2.

[6/9]

Le futur hôtel de la région Auvergne

À la suite de difficultés financières et d’incertitudes sur l’avenir des collectivités territoriales, les travaux du futur hôtel du Conseil Régional d’Auvergne avaient stoppé. La première pierre a été posée en décembre 2011 et le nouveau siège devrait voir le jour fin 2013.

L’objectif est de regrouper les services pour une meilleure gestion du travail et de l’information et de réduire les coûts de loyer à 2,23 millions d’euros. L’architecte Bruno Mader s’est vu sélectionné pour imaginer le bâtiment qui doit comprendre 10 000 m2 de surface utile, une passerelle d’1,3 hectares et un parking sous-terrain de 7 500 m2 pouvant accueillir 300 véhicules.

Le projet se pose sur la base « haute qualité environnementale » en optant pour une démarche de développement durable. Construit à Montferrand, le long du boulevard Léon Jouhaux, il prévoit l’utilisation importante de bois, l’optimisation des consommations énergétiques ainsi que la pérennité des performances environnementales. Le Conseil Régional d’Auvergne entend ainsi servir d’exemple concernant les exigences liées au développement durable à prendre en compte dans les projets de construction.

[7/9]

Le nouvel hôtel du département de Gironde

Inauguré à Bordeaux, le 15 novembre 2011, le nouvel hôtel du département de Gironde s’élève sur 6 étages, pèse 42 000 tonnes et dispose de 18 368 m2 de surface utile. Les travaux d’extension ont nécessité 600 pieux, soutenus par plus de 100 tonnes de ferraillage afin de rendre le sol stable. Un hall de 1 000 m2 s’ouvre sur la ville par de larges baies vitrées, le bâtiment jouit ainsi de la lumière naturelle pour éclairer les bureaux. Par ailleurs, un espace d’exposition fait la jonction entre le hall et un amphithéâtre de 250 places. Le Conseil Général bénéficiera ainsi d’un meilleur cadre de travail et pourra libérer des surfaces de bureaux, économisant ainsi d’importantes charges locatives. Cela permettrait à l’extension d’être amortie en moins de 25 ans.

La conception du nouvel hôtel aura nécessité 9 ans, afin de respecter les principes de « haute qualité environnementale ». Le choix de la géothermie, qui consiste à utiliser la chaleur du sol en profondeur, illustre bien cet esprit écologique. Fin 2012, 850 des 1 700 agents départementaux quitteront le quartier Mériadeck pour s’installer dans ce nouveau bâtiment.

[8/9]

De nouveaux ensembles culturels à Quimper

Trois ensembles culturels et touristiques complémentaires sont au programme pour la ville de Quimper. Notamment, le projet participatif du Pôle Max Jacob dédié à l’expérimentation, qui accueillera des expositions et des spectacles vivants. Il se veut un espace de vie et de rencontres, tourné vers les arts plastiques, les musiques actuelles et la culture bretonne. Sa construction s’élève à 11,9 millions d’euros.

Par ailleurs, le centre-ville de Quimper devrait voir naître un centre des congrès au sein du « Chapeau Rouge » entre 2012 et 2015. Il a pour but de développer le tourisme d’affaires, en apportant un ensemble cohérent aux événements d’envergure nationale ou internationale. Cela représente un budget de 5 millions d’euros.

Enfin, il y a le projet de réhabilitation de Penvillers. Le projet a pour vocation de transformer le parc des expositions, autrefois vétuste, en un lieu attractif, fonctionnel et convivial. Coût des travaux : 8 millions d’euros.

[9/9]

Par Sébastien Tribot, journaliste

Les grands chantiers en Chine

Le TGV chinois

Le réseau ferré à grande vitesse chinois, dont la construction a été lancée en 2007, est aujourd’hui le plus long du monde avec 13 000 kilomètres de voies prévues cette année, puis 16 000 kilomètres en 2020. La compagnie CRH (China Railway High-speed), utilise des trains Bombardier, Alstom, Tangshan et Siemens.

L’année dernière, la collision entre deux trains à Wenzhou avait obligé le gouvernement à ralentir le développement du réseau. Sur certains tronçons, la vitesse a été limitée à 300 km/h au lieu de 350. Plus récemment encore, un segment de ligne de 300 mètres s’est effondré à la suite de fortes pluies.

Cela n’a pas empêché le groupe public CSR de présenter il y a peu le CRH500, un train futuriste capable d’atteindre les 500 km/h. Construit en fibre de carbone et de magnésium, ce modèle expérimental ultra-léger ne dépasserait toutefois pas le record français de 574,8 km/h.

[1/10]

Nouvelles villes

Pour faire face au développement des grandes cités ainsi qu’au besoin d’une nouvelle classe moyenne de se loger en périphérie, le gouvernement souhaite créer une dizaine de villes. Un enjeu important au service d’une nouvelle image chinoise et du développement écologique. Alors que le premier projet de « ville verte » de Dongtan semble avoir été annulé, la Tianjin Eco City devrait être terminée en 2020.

Situé à 150 km de Beijing, le projet comportera éoliennes, panneaux solaires et techniques de récupération d’eau de pluie. L’ensemble sera basé sur un système de superposition mêlant espaces verts et transports en commun. L’Éco City prévoit 350 000 personnes.

L’essor de Hong Kong est spectaculaire, aussi le gouvernement a décidé de construire de nouvelles cités sur trois zones situées au nord-est : Kwu Tung North, Fanling North et Ping Che/Ta Kwu Ling.

[2/10]

Le parc de centrales nucléaires en augmentation

Alors que la catastrophe à Fukushima aurait pu geler les projets de centrales, la Chine prend le contre-pied en accélérant la construction de réacteurs et de centrales de « troisième génération ». En quelque sorte, une version « low-cost » des EPR français. La Chine prévoit de passer de 15 à 70 gigawatts en 2020 et 200 GW en 2030.

Alors que l’électricité chinoise provient à 75 % du charbon, la politique est bel et bien tournée vers le développement du nucléaire. En tout, 25 chantiers ont été entrepris et devraient compléter ceux existants, pour la plupart sur les côtes et soumis à des risques sismiques. Ce qui engendre naturellement inquiétudes et critiques sur la capacité des centrales à résister aux tremblements de terre. Et de surcroît, l’aptitude du gouvernement à gérer de plus en plus de centrales.

[3/10]

Les plus hauts gratte-ciel

Parmi la quinzaine de gratte-ciel prévus ou en construction, citons le China 117 Tower à Tianjin, le Kingkey Finance Center Plaza à Shenzhen, les tours jumelles de Guangzhou, le Wuhan Greenland Center, la Yuanda Tower ou encore la Shangai Tower. Débutés en 2008 pour s’achever en 2014, les travaux de la tour China 117 Tower ont été suspendus en janvier 2010. Ce qui devrait occasionner un retard d’au moins un an pour cette tour de 597 mètres de hauteur et de 117 étages.

Située dans la ville de Wuhan, la tour Wuhan Greenland Center contiendra d’ici 2016, 119 étages de bureaux et d’appartements compris sur une hauteur de 606 mètres. La Shangai Tower dont l’inauguration est prévue en 2014 devrait mesurer 632 mètres, aura 127 étages pour une surface de 380 000 m2. Elle sera aux côtés du Centre Mondial des finances et de la Tour Jinmao.

[4/10]

La construction du réseau autoroutier

Synonyme de modernisation et d’efficacité, le réseau autoroutier se développe à vitesse grand V en Chine, afin de désenclaver les zones montagneuses et agricoles les plus isolées. Il devrait atteindre les 100 000 kilomètres en 2020. Derrière les États-Unis, la Chine fait figure de deuxième réseau autoroutier dans le monde. Et ce grâce à un développement phénoménal, de l’ouverture de la première autoroute Shangai-Jiading en 2008 aux 60 000 kilomètres construits depuis 2008. Ainsi, 34 autoroutes devraient voir le jour.

[5/10]

Hainan : l’île spécialisée dans le tourisme

L’île tropicale de Hainan, à l’extrême sud de la Chine, devient chaque jour un peu plus une destination touristique à la mode. Bénéficiant de conditions agréables toute l’année et de 1 530 kilomètres de côtes, l’État renchérit en multipliant les projets. De nouveaux hôtels, des entreprises spécialisées se développent et ce grâce aux avantages économiques, aux investissements publics et aux conditions administratives spécifiques.

Résultat, le nombre de touristes est en hausse constante, tout comme l’élévation du niveau de vie et le produit intérieur brut de la deuxième plus grande île, après Taïwan. D’ici 2020, Hainan, aidée par cette stratégie d’État, espère compter sur une plus forte internationalisation de la clientèle et ainsi devenir une destination touristique mondiale.

[6/10]

Un pont géant entre Hong Kong et Macao

Un pont colossal d’une longueur de 36 kilomètres reliera les îles de Hong Kong et de Macao avec la ville de Zuhai. Il s’agit en réalité d’une succession de ponts et de tunnels sous-marins. Cela devrait en faire le plus long pont maritime du monde.

Les travaux débutés en 2009 devraient aboutir en 2016. Le budget est estimé à 10 milliards de dollars. Néanmoins, la construction du pont répond à la volonté de développement de villes telles que Zuhai ou Zhongshan qui désirent s’intégrer au pôle commercial de Hong Kong. De fait, le réseau de transport en sera optimisé et les échanges touristiques facilités.

14 000 véhicules sont attendus pour l’inauguration du pont en 2016 et jusqu’à 49 000 en 2035.

[7/10]

Barrages en Chine

La Chine a décidé de construire de nouveaux barrages et entend augmenter de 50 % sa production hydroélectrique. Pour l’heure, le charbon répond à plus de 70 % des besoins énergétiques. Il y avait déjà le barrage des Trois Gorges, mis en service en 1999. Malgré les inquiétudes mondiales quant aux retombées de plus en plus fortes sur les populations et l’environnement, la Chine souhaite augmenter la cadence. Les projets de barrages ne cessent de se multiplier.

Pour commencer, le barrage de Xiaowan placé sur le fleuve du Mékong. Parmi les huit barrages en projet sur les sites de Congguojiao, Manwan, Dachaoshan, Nuozhadu, Ganiaba, Jinhong et Mensong, celui de Xiaowan devrait produire 4 200 MW d’électricité et sera ainsi le plus important de Yunnan. Les autorités ont interdit l’accès au chantier pour éviter la polémique concernant le déplacement des populations et la destruction de la nature.

[8/10]

Aéroports

La Chine projette la construction de nouveaux aéroports d’ici 4 ans. Alors que certains sont en cours de rénovation ou d’élargissement, 24 aéroports se construisent actuellement dont le deuxième aéroport de Pékin-Beijing. La Chine devrait posséder 240 sites d’ici 2020, dans le but d’augmenter la capacité du trafic, de développer les échanges et le tourisme. Cela fait suite à la forte augmentation du trafic aérien. Ces nouvelles structures devraient raccorder les centres économiques.

[9/10]

Projets loisirs

  • Disneyland à Shangaï : le parc d’attractions proposera des billets moins chers que le Disneyland concurrent de Hong Kong. Situé dans la zone de Pudong, le projet, dont les travaux devraient s’achever en 2015, s’étendra sur 3,9 km2. Le style chinois sera mis à l’honneur.
  • Le parc aquatique de la rivière d’Anning : il sera composé d’une série de bassins, d’un Spa, d’espaces verts et d’un lagon entouré d’une plage de sable. Le parc se veut écologique, résolument tourné vers l’utilisation de technologies liées au développement durable. On note entre autres, les panneaux solaires et le toit végétalisé.

[10/10]

(Source : L’internaute)

Par Sébastien Tribot, journaliste

Réduire la consommation de carburant grâce à des revêtements de routes plus durs

Une étude récente conduite par des ingénieurs en génie civil du prestigieux Massachusetts Institute of Technology (MIT) est arrivée à une conclusion pour le moins intéressante : il serait en effet possible de réduire la consommation de carburant d’un véhicule grâce à l’utilisation de revêtements de routes plus durs. Équiper les routes américaines de chaussées plus dures pourrait, selon eux, faire baisser la consommation de carburant d’environ 3 %, correspondant à une économie totale de près de 273 millions de barils de pétrole brut chaque année.

Ces routes plus « dures » pourraient aussi permettre de réduire les émissions annuelles de dioxyde de carbone de près de 46,5 millions de tonnes, à l’échelle des seuls États-Unis, toujours d’après l’étude publiée dans un bulletin évalué par les pairs. Parmi la multitude de rapports et d’études concernant les routes américaines, cette étude favoriserait la modélisation mathématique par rapport aux expérimentations grandeur nature sur chaussée, évaluant ainsi « l’effet qu’aurait la déflexion de la chaussée sur la consommation de carburant, et ce à travers tout le réseau routier américain », précise un porte-parole du MIT.

Les auteurs du rapport, le professeur Franz-Josef Ulm, – professeur de génie civil au MIT, spécialiste des matériaux poreux et de leurs propriétés mécaniques – , ainsi que Mehdi Akbarian, –  étudiant au célèbre institut situé à Cambridge – , ont modélisé les forces physiques impliquées lorsqu’un pneu de voiture standard roule sur la chaussée. Les deux auteurs, soutenant que l’énergie se disperse de manière à ce que la déflexion maximale de la charge se trouve derrière la trajectoire suivie par le véhicule, en déduisent que les roues du véhicule gravissent de manière continuelle une pente à déclivité légère, augmentant donc la consommation de carburant. A titre de comparaison, marcher dans le sable requiert nettement plus d’énergie que marcher sur une surface plus dure.

L’inégalité, la rugosité d’une route ainsi que la déflexion de la trajectoire engendreraient une surconsommation allant de 26 500 à 34 000 litres par mile chaque année, sur des routes très fréquentées. D’après les deux auteurs du rapport, ces chiffres pourraient être réduits de 80 % à l’aide d’un revêtement mieux adapté. Loin de vouloir opposer l’asphalte au béton, ils mettent en avant l’évolution possible de l’épaisseur de certaines couches du revêtement, ainsi que l’amélioration de la composition de celles-ci, évoquant même un composite béton-asphalte.

Rien n’est dit par contre sur le coût d’un changement d’une telle envergure : le réseau routier américain est le plus long du monde, avec plus de 70 000 kilomètres d’autoroutes et près de 6,1 millions de kilomètres d’autres routes. D’autre part, la fabrication du béton rejette des quantités non négligeables de dioxyde de carbone. Enfin, quid de l’usure des pneus avec un revêtement plus dur ?

Par Moonzur Rahman, journaliste scientifique

 

A lire aussi :

Des pneus qui « roulent mieux »

Record mondial : Pic de 50% d’électricité solaire en Allemagne

L’Allemagne a frôlé la barre symbolique des 20 GW de puissance solaire délivrée durant les dernières semaines, mais samedi 26 mai, c’est la première fois qu’elle a été franchie avec un pic à 22 GW équivalent à la puissance délivrée par une vingtaine de réacteurs nucléaires. Le réseau électrique allemand a supporté sans problème cette très forte pénétration solaire.  Norbert Allnoch, directeur de l’Institut de l’Industrie des Energies Renouvelables  (IWR) a déclaré que « jamais auparavant un pays n’avait produit autant d’électricité photovoltaïque. Cela montre que l’Allemagne est capable de satisfaire une grande partie de ses besoins en électricité à partir de l’énergie solaire »

Le lundi 28 mai, alors que la demande allemande était d’environ 45 GW à la mi-journée (pentecôte), le solaire a fournit 18 GW. Si le vent avait été plus fort, la puissance éolienne installée (30 GW) aurait alors permis à l’Allemagne de vivre durant quelques heures avec de l’électricité 100% renouvelable (solaire, éolien, biomasse, hydro) et marquer ainsi le franchissement d’une seconde étape historique. Mais le vent a été particulièrement faible, ne permettant de délivrer qu’1 GW d’éolien. Ce n’est que partie remise.

Sortir du nucléaire grâce aux renouvelables

Le gouvernement fédéral d’Allemagne a fermé 8 des 17 réacteurs nucléaires suite à la catastrophe nucléaire de Fukushima au Japon. Cette fermeture  correspond à un trou de 32,5 TWh d’électricité. Selon une étude réalisée par l’Institut du Développement Durable et des Relations Internationales (IDDRI, SciencesPo) sous la direction d’Andreas Rudinger ce déficit de production a été comblé  à 59% (19,2 TWh) par les énergies renouvelables qui ont très fortement augmenté entre 2010 et 2011, à 35 % (11,4 TWh) par une modification du solde exportateur qui reste cependant positif, et  à 6% (1,9 TWh) par une réduction de la demande électrique.

Pour Andreas Rudinger, « d’une part la décision de sortir du nucléaire apparaît comme une constante de la politique énergétique des dix dernières années. D’autre part, la sortie du nucléaire a toujours été prise en compte dans l’élaboration des politiques climatiques nationales. En ce sens, les décisions post-Fukushima ne constituent ni un renversement brutal de la politique nucléaire existante, ni un obstacle majeur à la réalisation des objectifs de réduction des émissions de gaz à effet de serre ». Le pays va fermer les 9 centrales nucléaires restantes avant 2022, ceci tout en respectant ses engagements en matière de réduction des émissions de gaz à effet de serre.

« L’Allemagne ne compte pas sur de nouvelles centrales à charbon pour pallier l’arrêt progressif de ses réacteurs d’ici 2022. En regardant de plus près les scénarios énergétiques sur lesquels est fondé l’Energiekonzept, on s’aperçoit ainsi que les centrales fossiles actuellement en construction (pour une puissance cumulée de 10 GW) visent en premier lieu à remplacer des centrales vétustes et polluantes par des centrales plus efficaces» précise le chercheur.

Un cap clair : 35% d’électricité renouvelable dès 2020 et 80% dès 2050

En 2011, l’Allemagne, qui dispose pourtant d’un gisement hydroélectrique bien inférieur à celui de la France, a produit 20% de son électricité (16,4% en 2010)  à partir de sources renouvelables (Eolien: 7,6%, Biomasse : 5,2%, Solaire: 3,2%, Hydro : 3%). Le pays s’est fixé un objectif de 80% à horizon 2050. Selon une étude Frost &Sullivan, 36% de l’électricité allemande sera d’origine renouvelable dès 2020, ce qui est parfaitement en phase avec l’objectif du gouvernement allemand (35%).

La montée en puissance des énergies renouvelables fluctuantes implique d’optimiser les outils de flexibilité afin d’adapter l’offre et la demande, notamment les réseaux électriques. Ces derniers permettent d’une part les échanges d’électricité entre le nord et le sud du pays et avec les pays voisins et d’autre part de mutualiser les capacités de stockage comme par exemple les Stations de Transfert d’Energie par Pompage (STEP) scandinaves, autrichiennes, suisses et allemandes. Pour Olav Hohmeyer du German Council on the Environment (SRU), organisme qui conseille le gouvernement fédéral en matière de choix énergétiques « une électricité 100% renouvelable est possible pour l’Allemagne et l’Europe à horizon 2050 (et même 2030 si nécessaire). Le système reposera principalement sur l’éolien et le solaire. Les interconnexions et le pompage-turbinage joueront un rôle crucial. »  

Selon le gouvernement fédéral, le solaire allemand conduit aujourd’hui à un surcoût moyen de 4 milliards d’euros par an (0,1% du PIB national), surcoût équivalent à 4 euros mensuels par habitant et répercuté sur la facture des consommateurs (particuliers et entreprises). D’ici environ 5 ans, selon les experts, le solaire PV aura atteint la parité réseau et les subventions pour les nouveaux projets ne seront plus nécessaires.

Le secteur des énergies renouvelables emploie plus de 350000 personnes en Allemagne, et la filière solaire photovoltaïque est celle qui génère le plus d’emplois par unité de puissance installée.

Par Olivier Danielo

Pour en savoir plus :

  • L’impact de la décision post-Fukushima sur le tournant énergétique allemand :

http://www.iddri.org/Publications/Collections/Idees-pour-le-debat/L-impact-de-la-decision-post-Fukushima-sur-le-tournant-energetique-allemand

  • SRU Report Pathways towards 100% renewable electricity system :

http://www.umweltrat.de/SharedDocs/Downloads/EN/02_Special_Reports/2011_10_Special_Report_Pathways_renewables.html

  • Weltrekord: Deutsche Solaranlagen produzieren erstmals Strom mit über 20.000 MW Leistung :

http://www.iwr.de/

L’essentiel de Reach (mai) 2/2

Pré-enregistrement tardif des substances à enregistrer en 2013

Afin de bénéficier du régime transitoire pour l’enregistrement des substances dans le cadre de REACH, les déclarants doivent pré-inscrire leurs substances phase-in. Ces substances doivent être pré-enregistrées au 31/05/2012 pour pouvoir bénéficier de l’enregistrement en 2013.
Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/269805eb-972d-46b3-bac1-a5e81a170260

Modification de l’annexe XVII (restrictions)

16/05/2012
Un règlement paru au Journal officiel de l’UE le 16 mai 2012 acte la restriction visant le fumarate de diméthyle (DMFu) avec l’inscription de cette substance à l’annexe XVII du règlement REACH. L’utilisation et la mise sur le marché de cette substance dans des articles en concentration supérieure à 0,1 mg/kg sont interdites dans toute l’Union européenne. Cette mesure entre en vigueur le 5 juin prochain.
Le texte est disponible sur :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:128:0001:0003:FR:PDF

Le support du CHESAR est temporairement suspendu

15/05/2012
Le service d’assistance de l’ECHA suspend temporairement le soutien Chesar jusqu’à la mise en application de Chesar 2.0 prévue pour la fin Juin 2012. Ceci permettra à l’ECHA de concentrer ses efforts sur les essais finaux de la nouvelle version et la préparation de la documentation pour soutenir le nouvel outil.
Site web du CHESAR : http://chesar.echa.europa.eu/
FAQ du CHESAR : http://chesar.echa.europa.eu/faq

Informations pour éviter les essais inutiles sur les animaux – onze nouvelles demandes

18/05/2012
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • 3-((5-(3-(Dodecanoyloxy)-2,2-dimethylpropylideneamino)-1,3,3-trimethylcyclohexyl)methylimino)-2,2-dimethylpropyl dodecanoate (N° CE : 700-071-4) : toxicité orale, toxique sur la reproduction
  • peroxyde de [1,3-phénylènebis(1-méthyléthylidène)]bis[tert-butyle] / [1,3-phenylenebis(1-methylethylidene)]bis[tert-butyl] peroxide (N° CAS : 2212-81-9 et N° CE : 218-664-7) : toxicité orale, toxique sur la reproduction, accumulation dans les milieux aquatiques / sédiments
  • téréphtalate de bis(2,3-époxypropyle) / bis(2,3-epoxypropyl) terephthalate (N° CAS : 7195-44-0 et N° CE : 230-565-0) : toxicité orale, toxique sur la reproduction (2 demandes)
  • fraction de distillation de chlorosilanes (test propose avec le dichloro(dimethyl)silane (N° CAS : 75-78-5)) : toxique par inhalation, toxique sur la reproduction
  • néononanoate de vinyle / vinyl neononanoate (N° CAS : 54423-67-5 et N° CE : 259-160-7) : toxicité orale

Les informations sur ces substances sont à soumettre pour le 2 juillet 2012.
http://echa.europa.eu/information-on-chemicals/testing-proposals/current

 

 

Publication d’un exemple de rapport sur la sécurité chimique

21/05/2012
L’ECHA a publié un rapport donnant des astuces et des conseils aux déclarants sur la façon d’améliorer la qualité des informations fournies. Le rapport fournit un résumé de toutes les informations pertinentes à utiliser lors de la réalisation de l’évaluation de la sécurité chimique. Les déclarants sont tenus de soumettre un rapport sur la sécurité chimique (CSR) dans le cadre de leur dossier d’enregistrement pour les substances fabriquées ou importées à plus de 10 tonnes ou plus par an.
Ce rapport est disponible sur : http://echa.europa.eu/documents/10162/13634/csr_illustrative+example_en.pdf
Informations sur le rapport sur la sécurité chimique :
http://echa.europa.eu/regulations/reach/registration/the-registration-dossier/chemical-safety-report

Les présentations et enregistrements des 7èmes journées des parties intéressées sont disponibles

24/05/2012
L’ECHA a publié sur son site les présentations et enregistrements des 7èmes journées des parties intéressées. Retrouvez l’ensemble sur : http://echa.europa.eu/en/view-article/-/journal_content/40bb6ef5-03b0-496f-8c4c-a8f8d04ab68c

Mise à jour du guide sur les informations requises et l’évaluation de la sécurité chimique / nanomatériaux

25/05/2012
L’ECHA a publié trois nouvelles annexes, mettant à jour les chapitres R.8, R.10 et R.14 du Guide sur les exigences requises et l’évaluation de la sécurité chimique (IR & CSA). Ces annexes se focalisent sur l’évaluation de la sécurité chimique et de nouvelles recommandations pour l’enregistrement des nanomatériaux.
http://echa.europa.eu/web/guest/view-article/-/journal_content/df181193-8b2c-433a-8c80-f7fcf7546077

Webinar pour les PME et REACH

30/05/2012
L’ECHA organise le 11 juin prochain une conférence en ligne sur les PME et REACH.
Programme : http://echa.europa.eu/documents/10162/13563/smes_and_reach_webinar_agenda_en.pdf

Conférences web organisées par l’UIC et le Ministère de l’Ecologie

Retrouvez ci-après les prochaines conférences web organisées par l’UIC :

  • 1er juin 2012 -Vous enregistrez au 31 mai 2013 : les étapes clés.
  • 12 juin 2012 – Importateurs de substances ou mélanges : êtes-vous concernés par REACH ?
  • 26 juin 2012 – Comment répondre au besoin d’identification des substances ?

Une autre conférence est programmée le 11 juillet sur les FDS mais elle a atteint le nombre limite de participants.
Pour chacune de ces conférences, l’UIC met en ligne les enregistrements et les présentations.
Plus d’informations sur : http://www.uic.fr/REACH-webinars.asp

Enregistrement du 31 mai 2013 – liste des substances

Le 31 mai 2013 est la date limite pour l’industrie d’enregistrer toutes les substances produites ou importées dans l’Union Européenne à plus de 100 tonnes par an. Les substances phase-in destinées à être enregistrées avant le 31 mai 2013 sont répertoriées sur le site de l’ECHA à l’adresse : http://www.echa.europa.eu/reach-2013.
Cette liste fait suite à une enquête de l’ECHA (pré-déclarants ayant indiqué 2013 comme étant leur date limite d’enregistrement).

Une page web pour les utilisateurs en aval

L’ECHA a mis en ligne une page spécifique pour les utilisateurs en aval : qu’est-ce qu’un utilisateur en aval, quel est son rôle, quelles sont ses obligations ?
Retrouvez les éléments sur :
http://www.echa.europa.eu/web/guest/regulations/reach/downstream-users

Publication d’informations sur les substances notifiées conformément à la directive 67/548/CEE

31/05/2012
Avant l’entrée en vigueur de REACH, les sociétés notifiaient leurs nouvelles substances en vertu de la directive 67/548/CEE (notification dite de substances nouvelles -NONS). L’ECHA a commencé à rendre l’information disponible à partir des notifications NONS sur son site web. Les informations sont disponibles sur : http://www.echa.europa.eu/web/guest/view-article/-/journal_content/a7d2798d-f007-465d-9861-6de45a77b871 et sur http://echa.europa.eu/information-on-chemicals/registered-substances

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Bientôt une capsule pour décontaminer les boissons irradiées ?

Parmi toutes les inquiétudes concernant de possibles attaques terroristes avec du matériel nucléaire, ou le souvenir encore récent de la contamination environnementale consécutive – et toujours en cours – à la catastrophe nucléaire de Fukushima Daiichi, la contamination des aliments et la présence d’éléments radioactifs dans les boissons telles que l’eau, le lait ou encore les jus de fruits pourrait bien être l’un des sujets majeurs de préoccupation.

Allen Apblett, chimiste canadien et chercheur à l’université d’Oklahoma State Stillwater, aurait mis au point une capsule capable de débarrasser une boisson contaminée de plus d’une douzaine de substances radioactives ou non radioactives. S’inspirant d’une méthode ayant déjà fait ses preuves dans l’extraction de l’uranium et de métaux lourds présents dans l’eau de mer ainsi que dans la décontamination d’eau fortement contaminée, Apblett n’aurait eu selon lui qu’à adapter la méthode au problème.

La capsule contiendrait des nanoparticules composées d’oxydes métalliques tels que l’alumine, à même d’absorber aussi bien les éléments radioactifs que la plupart des métaux lourds. Les éléments de la série chimique des actinides (y compris l’uranium et le plutonium), le strontium, et les métaux lourds tels que le plomb, le cadmium et l’arsenic se concentreraient alors dans la capsule, qu’il suffirait ensuite de retirer de la boisson. D’après le chimiste, il suffirait d’une douzaine d’heures pour nettoyer une bouteille de lait de tout son strontium, sans en altérer le goût.

Par Moonzur Rahman, journaliste scientifique

Cloud : l’État soutient le projet Andromède porté par SFR et Bull

Le cloud computing français révèle bien des surprises. Quelques temps auparavant, Orange, Thalès et la Caisse des Dépôts confirmaient la création d’une co-entreprise dédiée à l’infrastructure de cloud computing. Sous le nom de « projet Andromède », cette société française bénéficiait du soutien de l’État, via le Fonds national pour la Société Numérique (FSN), à hauteur de 75 millions d’euros. À présent, c’est au tour de son concurrent, le tandem SFR-Bull, de toucher cette aide. La raison de ce double investissement de l’État ? Laisser toutes ses chances au cloud computing à la française. Il faut dire qu’à l’heure actuelle, la France a presque dix ans de retard sur les États-Unis.

Les deux projets disposeront d’un financement propre de 225 millions d’euros chacun, soit un cumul de 450 millions d’euros dédié au cloud français.

Concernant la répartition du capital, SFR en détiendra 47 %, contre 20 % pour Bull et 33 % pour la Caisse des Dépôts. Quant au projet concurrent, la répartition est plus ou moins la même :  Orange 44,4 %, Thalès 22 % et la Caisse des Dépôts 33 %. Le projet Andromède prévoit la création de 400 emplois, dont 300 ingénieurs en R&D et techniciens supérieurs, contre 1 000 pour le consortium privé Orange-Thalès.

L’objectif est de permettre aux entreprises et administrations qui le souhaitent, d’accéder à « une gamme de services de cloud computing sécurisés couvrant les besoins en ressources informatiques, des plus courants aux plus critiques ». Les questions de sécurité sont au premier plan, notamment en ce qui concerne la souveraineté des données dans le secteur de la défense.

Les deux partenaires ont annoncé leur volonté d’un écosystème « ouvert » pensé pour s’adapter aux systèmes d’information des entreprises et organisations afin de faciliter leur transition vers le cloud. Au travers d’un réseau de partenaires étendu, la société fonctionnerait en indirect. Dans les 18 mois qui viennent, des data centers de nouvelle génération devraient être construits. De sorte que « l’énergie numérique soit produite par tous les types de partenaires : intégrateurs, éditeurs, industriels du hardware comme HP ou IBM, mais aussi pour les opérateurs télécoms », précise Pierre Barnabé, directeur général de SFR Business Team.

D’ici 2015, SFR-Bull espère détenir 15 % du marché français, estimé à 2,5 milliards d’euros. Au-delà du simple marché français, les ambitions sont européennes, voire internationales, puisque la volonté affichée est clairement de concurrencer des entreprises telles que Google, Amazon, ou encore Microsoft. Il s’agit d’un enjeu majeur pour le gouvernement, d’un point de vue compétitivité dans le domaine du stockage de données, directement associé à l’économie et au développement durable.

Par Sébastien Tribot

 

A lire aussi :

SFR et HP poursuivent leur association autour du cloud computing

Dassault Systèmes et SFR, associés sur le Cloud

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

NI présente son nouveau contrôleur NI PXIe-8115

Voici donc un nouveau contrôleur embarqué. Le PXI Express 3U se veut en effet deux fois plus performant en terme de puissance de traitement mais propose aussi de nouveaux périphériques : six ports USB 2.0, deux ports dédiés à l’affichage pour la connexion de plusieurs écrans, deux ports Gigabit Ethernet, ainsi que des ports GPIB, série et parallèles, permettent par exemple d’optimiser l’utilisation des emplacements d’un châssis PXI pour les modules de mesure.

Le NI PXIe-8115  possède aussi une mémoire DDR 3 1333 de 2 Go extensible jusqu’à 8 Go pour des applications nécessitant beaucoup de mémoire. Combiné au châssis NI PXIe-1082, ce contrôleur convient particulièrement à l’analyse intensive, au traitement de signaux et d’images et à l’acquisition de données haute vitesse. Le NI PXIe-8115 possède encore un atout : la technologie Turbo Boost d’Intel. Elle permet d’augmenter automatiquement la fréquence d’horloge en fonction du type d’application.

Sa capacité à fonctionner en mode double cœur ou monocœur hautes performances en fait un outil idéal pour le contrôle industriel et les tests automatiques hautes performances notamment. Enfin, le contrôleur NI PXIe-8115 permet d’effectuer des diagnostics de la mémoire ROM et du disque dur, d’où une maintenance facilité et un temps d’immobilisation réduit.

Par Audrey Loubens

Nouvelle norme sur l’aménagement durable des quartiers d’affaires

La philosophie de la future norme : De l’amélioration du cadre de travail et de vie jusqu’à la lutte contre le changement climatique, via une meilleure intégration des Quartiers d’affaires dans le tissu urbain et le territoire environnant, la future norme se veut de qualité. Elle définit ce qu’est un Quartier d’affaires et précise les questions de gouvernance en présentant concrètement comment élaborer une politique d’aménagement durable. Diagnostic initial, identification des enjeux, élaboration d’un plan d’action, mise en œuvre et fonctionnement puis évaluation : toutes les étapes clés, complétées des bonnes questions à se poser, sont présentées dans une approche d’amélioration continue.
 
Cette norme, qui pourra faire l’objet d’une évaluation de la part d’un organisme tierce partie, permettra de comparer les performances des Quartiers d’affaires en matière d’aménagement durable et de renforcer ainsi leur attractivité économique.
Le Quartier d’affaires, existant ou à venir, est analysé tout au long de son cycle de vie d’un point de vue environnemental, économique et social. Les impacts peuvent ainsi être évalués selon des critères précis.

Qui peut intervenir dès aujourd’hui ?

Aménageurs, investisseurs, constructeurs, promoteurs et bailleurs sont particulièrement concernés par la norme, mais également les collectivités locales et les entreprises situées dans les Quartiers d’affaires, ou leur fournissant des services. Tous sont invités dès maintenant à consulter le texte, afin de l’enrichir de leurs commentaires :
Pour découvrir la future norme et donner son avis (jusqu’au 30 juillet 2012)

Petit historique

La norme, aujourd’hui proposée en enquête publique, a été réalisée sur la base d’un guide, publié par l’ISO en 2011, proposant des principes généraux de gestion du développement durable dans les Quartiers d’affaires et une méthode pour les mettre en œuvre et améliorer leur performance.
Des aménageurs et des entreprises ont sollicité AFNOR en avril 2011.

Leur volonté était de disposer d’un document contribuant à l’harmonisation des référentiels existants afin de disposer d’une base commune pour améliorer, évaluer et comparer les performances des Quartiers d’affaires. Plusieurs grands acteurs* sont engagés depuis pour élaborer une famille de normes répondant aux besoins spécifiques des Quartiers d’affaires. Ces travaux sont présidés par Anne-Marie Roméra, Directrice du Département Economie et Développement Local à l’Institut d’Aménagement et d’Urbanisme d’Ile-de-France.
 
L’enquête publique est la dernière étape avant la publication de la norme. Tout un chacun peut émettre son avis sur le contenu de la norme en cours de définition. Les commentaires seront remis à la commission en charge du projet qui en étudiera la pertinence en septembre, à l’occasion d’une réunion où tous les contributeurs seront invités.
 

Des lobbyistes demandent plus d’efforts sur l’efficacité énergétique des bâtiments

Les normes sur l’efficacité énergétique en Europe font l’objet de débat depuis un an. Dans ces discussions, l’adaptation des constructions aux normes environnementales est centrale. Selon la Commission, les bâtiments représentent 40 % de la consommation d’énergie et génèrent 36 % des gaz à effet de serre.

Des déchets comme matériaux de construction

Rendre les habitations et les entreprises plus efficaces, et l’énergie qui les alimente plus durable, sont deux objectifs mentionnés dans nombre de textes européens. L’objectif de l’UE est de réduire la demande énergétique des constructions résidentielles et commerciales de plus de 80 % d’ici 2050.

Ceci passe par une meilleure isolation, et par des conceptions écologiques (l’utilisation de déchets comme matériau de construction, par exemple). Bruxelles souhaite ainsi réduire l’empreinte environnementale des nouvelles constructions. Pour Adrien Joyce, directeur d’EuroACE, un lobby bruxellois d’entreprises pour l’efficacité énergétique des bâtiments, l’Europe doit faire des efforts « de toute urgence ». Lors d’une conférence sur la construction durable, qui s’est déroulé à Amsterdam à la mi-mai, il a appelé à l’accélération des améliorations pour les constructions, qu’elles soient neuves ou anciennes.

1,2% des bâtiments rénovés chaque année

« En faisons-nous assez pour relever les défis de la durabilité ? La réponse est non », s’est interrogé M. Joyce, qui est aussi architecte. Cependant, les bâtiments ne sont que très lentement rénovés en Europe. Seuls 1,2 % des bâtiments sont modernisés chaque année. Le taux de nouvelles constructions est encore moins élevé. Il atteint 1 %, selon les chiffres du secteur. Près de 9 structures existantes sur 10 seront encore debout en 2050.

Objectifs contraignants

En juin 2011, la Commission a fait une proposition de directive qui présente des mesures contraignantes. Pour M. Joyce, ces dernières sont impératives. L’UE manque l’occasion de faire de l’efficacité une « mine » énergétique du futur, a-t-il affirmé. Sans ces objectifs contraignants en faveur de la conservation par exemple, l’Europe n’atteindra pas ses objectifs pour 2050. Les gouvernements qui ont décidé de supprimer les subventions destinées aux énergies renouvelables sous le coup de l’austérité ont commis une erreur, a-t-il ajouté.

Occasions manquées

De plus, d’autres occasions de réduire l’empreinte environnementale des habitations et des bâtiments commerciaux tout en développant les énergies renouvelables ont peut-être été manquées. D’après Oliver Rapf, dirigeant du BPIE, une organisation qui évalue les constructions en Europe, le cadre réglementaire de l’UE sur la construction durable a eu des résultats mitigés, notamment en raison du grand nombre de règles et de normes, contraignantes ou non, et de leur non-respect. « C’est l’un des grands points faibles de ces normes : leur respect n’est pas dûment contrôlé », a expliqué M. Rapf à EurActiv. Une meilleure intégration des politiques qui relèvent à présent des lois et des objectifs sur l’utilisation des terres et l’efficacité des bâtiments (notamment la directive européenne relative à la performance énergétique des bâtiments, les règles de construction et les normes régissant les marchés publics) pourraient combler certaines lacunes en matière de mise en oeuvre, selon M. Rapf.

Fonds européen pour la rénovation

« Il est clair que nous avons besoin d’un cadre politique intégré pour que toutes les pièces du puzzle s’emboîtent de manière intégrée », a-t-il expliqué. L’organisation de M. Rapf a publié l’année dernière un rapport (en anglais) qui explique que le pétrole et le gaz naturel restent les sources d’énergie dominantes pour les habitations en Europe du Sud, du Nord et de l’Est. Le charbon, dont l’exploitation génère des gaz à effet de serre, est la première source utilisée en Europe centrale et orientale. A elles seules, les habitations représentent 68 % de la consommation d’énergie finale des bâtiments. Le rapport préconise la création d’un fonds européen visant à encourager la rénovation, et à établir des exigences contraignantes. Le cadre réglementaire de l’UE devrait être réorienté et plus ambitieux. « Il faut faire des efforts importants pour transposer la réglementation européenne dans les droits nationaux et l’appliquer, afin d’encourager une rénovation profonde des bâtiments », peut-on encore lire dans ce rapport.

Source : EurActiv.fr

Ouverture du premier restaurant certifié HQE Construction

Le restaurant de Revel en Haute-Garonne est un exemple de la politique ambitieuse menée par McDonald’s en matière d’environnement depuis plus de 15 ans. Eau, énergie, déchets, biodiversité, confort et qualité sanitaire – tous les grands enjeux ont été pris en compte dans cette construction.

Cette certification intervient après la première certification HQE™ Exploitation d’un restaurant, également attribuée à McDonald’s, pour le restaurant de Plaisance-du-Touch. Il s’agit de la première fois en France qu’un restaurant obtient la certification NF Bâtiments Tertiaires – Démarche HQE™ (Haute Qualité Environnementale) Construction, attribuée par Certivéa, filiale du Centre Scientifique et Technique du Bâtiment. Cette certification, qui récompense la réduction des impacts environnementaux de l’ensemble du projet en prenant en compte les différentes étapes de la vie du bâtiment et de ses utilisateurs, vient formaliser le très haut niveau de performance du restaurant, ce dernier étant aligné sur les critères du référentiel HQE™ d’octobre 2011, à la fois le plus récent et particulièrement exigeant.

« La certification HQE™ Construction est une grande fierté pour mes équipes et moi-même, et nous sommes très heureux de recevoir ce certificat, tant pour l’action en faveur de l’environnement de vie de nos clients qu’en récompense de notre mobilisation », a déclaré Didier Ragot, franchisé du restaurant de Revel.

Un cahier des charges particulièrement exigeant

Pendant le chantier, afin d’atteindre un faible impact environnemental, McDonald’s s’est engagé à réduire les nuisances sonores et visuelles, et la quasi-totalité des déchets, eux-mêmes fortement diminués, a été recyclée. Une vérification des performances thermiques du gros oeuvre a été par ailleurs réalisée, de manière à déceler à temps les éventuelles défaillances et ainsi à y remédier. Le choix des produits, matériaux et procédés de construction a été également pensé dans l’objectif d’optimisation des impacts environnementaux (bilan Carbone® des matériaux de construction, des COV (Composés Organiques Volatils)) et formaldéhyde des matériaux de construction en contact avec l’air intérieur et utilisation de bois certifié non toxique et provenant de forêts gérées durablement.

Afin de préserver la ressource en eau, des urinoirs, dits « secs », ont été installés dans les toilettes hommes ; ce dispositif permet une économie d’eau équivalente à la consommation d’une famille de 4-5 personnes par an. La récupération des eaux de pluie contribue par ailleurs pour moitié aux besoins en eaux des sanitaires et l’arrosage des espaces verts. L’ensemble de ces mesures a permis de réduire la consommation en eau du bâtiment de 50% (par rapport à un bâtiment standard). Le restaurant dispose des technologies les plus efficaces en matière d’approvisionnement en énergie : le toit du restaurant est équipé de 81 m2 de panneaux photovoltaïques qui produiront assez d’électricité pour couvrir 60% des besoins de l’éclairage de l’ensemble du restaurant, extérieurs inclus.

Les équipements de chauffage et de climatisation des locaux par air pulsé utilisent des pompes à chaleur de haute performance, intégrant les derniers progrès de cette technologie. A noter en particulier l’usage d’une pompe à chaleur géothermique pour l’eau chaude sanitaire. La totalité des dispositifs d’éclairage, intérieurs ou extérieurs, est à haut rendement lumineux (ampoules basse consommation ou LEDs fonctionnant au regard de la luminosité extérieure). En complément, un système sophistiqué de sous-comptage, qui permet une analyse détaillée des consommations par type d’usage, optimise le fonctionnement des équipements et réduit encore les dépenses inutiles, tout en détectant les éventuelles défaillances et consommations anormales.

un bilan électromagnétique complet réalisé

Concernant la préservation de la biodiversité, toutes les surfaces hors bâti, voiries, terrasses et parking ont été agrémentées d’une végétation locale, non invasive, non allergène et propice au développement de la biodiversité locale. En parallèle, des fossés de réinjection pour les eaux pluviales dans les nappes phréatiques ont été creusés, et aménagés en zones de biodiversité protégée. Enfin, pour nos clients et le personnel, la qualité sanitaire de l’air intérieur a fait l’objet d’une attention particulière avec notamment le contrôle des teneurs en formaldéhyde et COV des revêtements intérieurs.

Par ailleurs, un bilan électromagnétique complet a été réalisé. Celui-ci démontre que les normes et recommandations usuelles sont largement respectées, et, notamment que les équipements de cuisine émettent peu, de part une conception très étudiée. C’est après l’audit des 14 cibles du référentiel que le restaurant McDonald’s de Revel a reçu la certification NF Bâtiments Tertiaires – Démarche HQE™ – Construction.

« Cette certification vient récompenser les efforts entrepris par McDonald’s France pour réduire l’empreinte environnementale de ses restaurants. En relevant ce défi technique nous dressons notre feuille de route pour nos futurs restaurants », a souligné Alain Velut, Directeur Construction nationale de McDonald’s France.

Patrick Nossent, Président de Certivéa a par ailleurs salué cet engagement : « cette première Certification HQE obtenue en phase réalisation sur la base du référentiel dit « Générique » publié fin 2011, démontre la pertinence de celui-ci pour des bâtiments jusqu’alors non couverts par la certification. Elle ouvre la voie aux acteurs des secteurs de la restauration qui souhaitent comme McDonald démontrer leur engagement environnemental. »

Bâtiment et environnement

Chaque mois, la rédaction de la Veille Actualité vous propose de redécouvrir les bases documentaires des Techniques de l’Ingénieur.

Le Grenelle de l’environnement RT 2012 après la RT 2005 bouleverse considérablement les bases de la construction mais aussi les règles de l’urbanisme. La nouvelle manière d’aborder la construction comprend l’environnement immédiat et le cycle de vie de tous les éléments constructifs avec leur déconstruction et leur recyclage.

Dans cette base documantaire spécial construction, découvrez :

  •     Tous les concepts et informations nécessaires et utiles pour un «acte de construire responsable» dans le cadre des nouvelles contraintes réglementaires et sociétales,
  • Comment «construire avec le site», en tenant compte de l’emplacement de la construction; optimiser l’emplacement des pièces,
  • Une aide à l’amélioration de l’efficacité énergétique : maîtrise de l’énergie et énergies renouvelables.

En savoir plus

Nanotechnologies et nanomatériaux pour la construction – Génie civil — ouvrages d’art

La France compte environ 7 000 km d’autoroutes et 12 000 km de routes nationales. Le réseau de routes départementales et communales – dit « réseau secondaire » – avoisine, pour sa part, le million de kilomètres. Le réseau ferré de lignes à grande vitesse (LGV) approche désormais les 2 000 km, tandis que le réseau ferroviaire électrifié classique avoisine les 15 000 km. Ces infrastructures linéaires s’enchevêtrent grâce à 230 000 ponts routiers et 50 000 ponts ferroviaires. Elles requièrent plus de 50 000 murs de soutènement et sont rendues plus directes grâce au percement de près de 1 000 km de tunnels, routiers ou ferroviaires.

Avec 10 % de notre électricité d’origine hydraulique et près de 80 % d’origine nucléaire, nous possédons également plus d’un millier de barrages de toute taille et une soixantaine de centrales nucléaires. Et le réseau d’assainissement de nos eaux usées, quasi-totalement enfoui, est aussi dense que la France de surface.

Ce patrimoine énorme, essentiel pour la bonne marche du pays, repose essentiellement, à l’exception de la route, sur l’utilisation du béton et de l’acier (le premier contenant d’ailleurs une bonne dose du second). La place du béton pourrait encore augmenter avec son introduction éventuelle dans la construction de lignes ferroviaires à très grande vitesse (LTGV), en substitut du ballast. Ce patrimoine demande à être surveillé, entretenu et réparé. La tendance à la prolongation de la durée de vie des ouvrages ne fait que renforcer ce besoin de durabilité. Par ailleurs, le béton est l’objet d’une quête de performances mécaniques de plus en plus élevées – évolution justifiée par les défis à relever et aussi par le gain de matière et, dans certaines circonstances, de surface utile que cette amélioration permet – et de mise en œuvre de plus en plus rapide. Compte tenu de la nature physico-chimique du béton ou, plus exactement, de son liant – le ciment Portland – la maîtrise de ces questions relève dans une large mesure des nanosciences.

Le patrimoine routier repose pour sa part, du moins dans notre pays, sur un béton particulier dans lequel le liant n’est autre que du bitume. Ce béton particulier, qualifié d’« enrobé bitumineux », peut prendre des formes variées, plus ou moins compactes, comme son homologue cimentaire. Le bitume est lui-même, et de plus en plus, un produit formulé. Sa mise en œuvre et ses propriétés dépendent de la maîtrise de la matière à l’échelle moléculaire et supramoléculaire.

Ce dossier est consacré aux évolutions que les nanosciences et les nanotechnologies (« NS & NT ») peuvent apporter, non seulement aux deux liants – ciment Portland et bitume – qui viennent d’être mentionnés – et à leurs bétons, mais aussi, plus généralement, à la conception, à l’auscultation et au suivi des ouvrages, y compris de la route.

En savoir plus

Performance énergétique des bâtiments existants – Études de cas

Cet article se situe dans le contexte de la directive européenne de décembre 2002 traitant de la performance énergétique des bâtiments neufs et existants, ainsi que dans le contexte renouvelé de la réduction drastique de la consommation énergétique des bâtiments consécutif au Grenelle de l’environnement.

La directive européenne 2002/91/CE sur la performance énergétique des bâtiments a été adoptée par le Parlement européen et le Conseil de l’union européenne le 16 décembre 2002 et publiée au Journal officiel des communautés européennes le 4 janvier 2003. Cette directive impose aux états membres l’adaptation de leur réglementation énergétique aux bâtiments existants et aux spécificités régionales.

L’article s’inscrit dans le cadre des travaux de transposition de la directive dans la réglementation française, pour ce qui concerne les bâtiments anciens, en référence au considérant n° 10 de la Directive. Par ailleurs, à la suite du Grenelle de l’Environnement, le comité opérationnel « Rénovation des bâtiments existants » a proposé des objectifs et des perspectives d’action de niveau d’exigences élevées.

L’objectif de cet article est de proposer deux études de cas permettant d’appréhender la caractérisation de la performance énergétique des bâtiments existants. Il expose un outil d’aide à la décision développé par l’Agence Internationale de l’Energie pour la caractérisation et la réhabilitation énergétique des bâtiments d’enseignement. Puis, il présente une autre étude visant à la caractérisation de la performance énergétique des bâtiments anciens. Cet article sera complété par un article décrivant le modèle numérique en cours d’élaboration, pour approcher la performance énergétique du bâti ancien et illustré par des suivis expérimentaux sur sites.

En savoir plus

Le nombre : la construction de notre réel

[Cet article a été publié initialement sur le blog MyScienceWork]

On peut imaginer que lorsque les hommes des premières civilisations sortaient leurs bêtes pour les faire paître, ils mettaient dans un sac un galet pour chacune d’entre elles. Ainsi, de retour au village, ils pouvaient s’assurer qu’aucune ne manquait à l’appel en retirant du sac un galet pour chaque bête. Cette méthode, dite de bijection, dénote une certaine notion de la quantité et de l’égalité, mais nous sommes encore loin du nombre au sens où on l’entend, car avant d’acquérir une intelligibilité indépendante de sa représentation physique, un grand travail d’abstraction a été nécessaire.

Comme beaucoup d’animaux, l’homme possède dès l’enfance une notion innée du nombre : il sait comparer deux quantités, et comprend qu’en ajoutant quelque chose à un ensemble celui-ci sera plus grand. Mais si la compréhension du nombre et l’acquisition d’un langage sont innées, l’expression du nombre relève en revanche de la construction linguistique. Par exemple, le point commun entre deux oiseaux et deux gouttes d’eau est leur quantité, mais pour préciser cette quantité et inventer le mot «deux», il faut d’abord faire abstraction de la nature des quantités mises en jeu. Dénombrer deux oiseaux comme deux gouttes d’eau n’a donc rien d’évident.

OU on the BBC: The Search For Life – The Drake Equation (cc)

L’homme a développé un langage propre capable d’exprimer le nombre. Il a fallu des millénaires à l’humanité pour passer de la notion de quantité aux nombres. En tant que langage, celui-ci est une création pratique motivée par la nécessité de communiquer sur les quantités. Les nombres entiers en sont l’exemple le plus simple : ils permettent le dénombrement des bêtes d’un troupeau ou de faire l’inventaire des ressources, deux activités vitales pour la survie des premiers hommes. Or, comme tout langage, les nombres véhiculent une certaine vision du monde. Ils révèlent et conditionnent notre rapport au réel. Les pythagoriciens avaient bâti toute leur représentation du monde sur les entiers et les rapports d’entiers. Ils virent leur univers s’effondrer lorsqu’il fut démontré qu’aucun entier ou rapport d’entiers ne pouvait mesurer la longueur de la diagonale d’un carré de côté 1 (c’est-à-dire la racine carrée de deux). En effet, le travail d’abstraction ne s’est jamais arrêté, et aujourd’hui, plus personne n’est choqué par la racine de deux. A chaque nouveau problème, c’est en fournissant un effort d’abstraction supplémentaire que l’homme a fait progresser sa conception du nombre, et donc du réel.

Les nombres négatifs furent introduits en occident vers l’an 1000 pour rendre possible n’importe quelle soustraction. Aujourd’hui couramment utilisés, ils ne furent pourtant pas facilement acceptés. Comment une quantité d’oiseaux ou de gouttes d’eau pourrait-elle être négative? Et que dire des nombres complexes, apparus au XVI ème siècle, qui font intervenir la racine carrée de nombres négatifs ? Pendant longtemps, ils ont été considérés comme des artifices calculatoires sans réalité physique. Pourtant en physique quantique, leur usage s’avère indispensable, car certains objets, comme la fonction d’onde, ne peuvent être décrits sans leur concours. Les nombres complexes ont alors acquis à nos yeux une réalité physique.

Ainsi, à chaque nouvelle étape de la construction du nombre, l’homme s’est interrogé sur leur nature et sur leur réalité. Par exemple, les sumériens ne connaissaient pas le chiffre zéro, et les grecs anciens ne considéraient pas le 1 comme un nombre, car pour eux, un, c’était « l’être » lui-même, et non une quantité. C’est en faisant fi de la nature des quantités qu’ils posent alors la question de leur réalité. Des nombres négatifs aux nombres réels, la capacité d’abstraction de l’homme lui a permis de transcender cette question et d’accomplir de nombreux progrès, à tel point que l’homme utilise maintenant des nombres si loin de notre expérience quotidienne qu’ils semblent au profane totalement contraires au bon sens. Aujourd’hui, les sciences cognitives nous offrent un regard inédit sur la question : il ne s’agit plus de philosopher, mais d’étudier directement notre rapport au nombre et à la réalité. Nous avons d’ores et déjà certaines pistes mais ces explorations n’en sont qu’à leurs débuts,  et les prochains développements devraient s’avérer passionnants.

par Flavien Decarreaux / Blog MyScienceWork

[Cet article a été publié simultanément sur le blog MyScienceWork et sur le blog Naked science du collectif d’étudiants du club de journalisme du CRI qui publie mensuellement un numéro regroupant des articles, un portrait de thésard, une interview dans un laboratoire, un micro-trottoir…]

My ScienceWork

Le blog My ScienceWork est dédié à l’actualité multidisciplinaire de la recherche. L’équipe MyScienceWork vous invite à découvrir ses articles d’actualité/recherche/portrait/opinion en français et en anglais.

Cas d’étude : Microsoft ou comment une multinationale américaine a su se « franciser » ?

A l’initiative du club Communication & Marketing de l’Adetem, Constance Parodi, directrice de la communication corporate de Microsoft France, a expliqué le 4 mai la stratégie enclenchée depuis plusieurs années pour passer d’une perception compliquée à une intégration harmonieuse dans l’écosystème français. Synthèse des faits saillants d’un renversement d’image réussi.

Du Microsoft « yankee » au Microsoft à la « française »

Au fil du temps, Microsoft a été perçu comme une entreprise impéraliste. Particulièrement en France.

Lorsqu’est tombé le verdict du classement Viavoice pour Ogilvy et Le Monde sur l’utilité sociétale des grandes entreprises en France, la filiale française de Microsoft a esquissé un large sourire. Non seulement elle pénétrait dans le Top 10 avec 76% d’opinions la jugeant utile à la société française mais elle était en plus la seule compagnie d’origine étrangère à intégrer le haut du classement. Toutes les autres étaient en effet tricolores, La Poste, EDF et SNCF trustant le podium aux côtés de la RATP, Michelin, GDF Suez, Auchan, Air France et Caisse d’Epargne. Excusez du peu !

Pourtant, ce résultat très satisfaisant ne doit rien au hasard mais à un engagement de longue haleine engagé au milieu des années 2000. A l’époque, Microsoft n’est guère en odeur de sainteté en France comme dans le monde. L’image disruptive des « tennis shoes billionaires » incarnés par des gamins géniaux férus d’informatiques ayant envie de changer le monde comme Bill Gates et Paul Allen appartient désormais à un passé révolu. Terminé aussi l’engouement médiatique pour Microsoft qui avait fait vaciller la domination sans partage de l’immense corporation d’IBM au début des années 90.

Microsoft est dorénavant une multinationale enregistrant une croissance époustouflante et accumulant des milliards de dollars grâce à ses systèmes d’exploitation et ses logiciels informatiques propriétaires sur le marché du numérique. Cette puissance ne tarde guère à cristalliser les critiques les plus acerbes.

« En France, Microsoft a atteint un fort niveau d’adversité tant dans l’opinion publique que chez les influenceurs et les décideurs » se souvient Constance Parodi, « Un niveau exacerbé de surcroît par l’allergie française à tout ce qui peut être interprêté comme une mainmise américaine sur les richesses des autres pays. Autant dire que tous les ingrédients étaient réunis pour être perçu comme une entreprise uniquement obsédée par ses propres bénéfices ».

S’ouvrir et dialoguer

Le siège d’Issy-les-Moulineaux témoigne de l’ancrage français de Microsoft.

Implanté depuis quasiment 30 ans dans l’Hexagone, Microsoft affrontait donc des vents contraires d’une ampleur inédite affectant chaque fois un peu plus la réputation du géant originaire de Seattle. Plutôt que de s’arquebouter sur son credo corporate et se retrancher derrière sa puissance inégalée de n°1, Microsoft a alors décidé d’amorcer une politique d’ancrage local encore plus prononcé pour souligner progressivement sa contribution à l’écosystème numérique, économique et culturel français.

Un pari audacieux tant les grandes corporations mondiales ont généralement plutôt tendance à privilégier le marteau à messages pour imposer leurs vues qu’écouter leur environnement proche et bâtir des territoires d’expression et de dialogue communs. « Dès le milieu des années 2000, nous avons donc engagé un programme d’actions pour nous rapprocher de l’écosystème tricolore et approfondir notre ancrage local » explique Constance Parodi.

C’est ainsi qu’un gros dispositif de soutien aux start-ups nationales a été mis sur pied en 2005. L’initiative a rencontré un tel succès en France que très vite le concept a été décliné par la maison-mère à travers le programme mondial baptisé BizSpark et animé dans les premiers temps par … un microsoftee français, Julien Codorniou (passé depuis chez Facebook).

Dans le même registre, Microsoft a lancé dès 2002 « Imagine Cup », une compétition aujourd’hui internationale, qui s’adresse à des étudiants informatiques et des élèves ingénieurs pour concevoir des produits numériques innovants. Là aussi, le succès est au rendez-vous et les participants affluent au fil des ans au point de révéler des talents comme Kobojo, une start-up hexagonale devenue un des leaders européens actuels de l’industrie des jeux numériques sur différentes plateformes sociales. Kobojo rassemble aujourd’hui plus de 10 millions de joueurs sur la planète chaque mois.

Lire la suite

Par Olivier Cimelière / Le blog du Communicant 2.0

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous ! « 

A quelles expositions professionnelles sommes-nous confrontées ?

Développés par l’INVS et ses partenaires (Direction générale du travail, Direction de l’animation de la recherche, des études et des statistiques, Centre de recherche et de développement en informatique médicale et Laboratoire santé travail environnement), le portail Exp-Pro est destiné à toutes les personnes concernées par la prévention et la surveillance des risques professionnels, comme les médecins du travail.

Elles pourront donc consulter des tableaux associant les expositions aux emplois pour une période donnée, accéder aux bases documentaires spécifiques des expositions professionnelles aux fibres du programme Ev@lutil (amiante et fibres minérales artificielles), se familiariser avec le codage des professions et des secteurs d’activité grâce à l’outil CAPS (détermine le code le plus pertinent à associer à un intitulé de profession ou de secteur d’activité), ainsi qu’utiliser des tables de correspondance entre les codes issus de nomenclatures différentes.

Les tableaux ou matrices emplois-expositions sont issus de deux programmes, Matgéné  et Sumex2. Le premier concerne la réalisation de matrices emplois-expositions adaptées à la population générale française, prenant en compte tous les secteurs d’activité et toutes les professions depuis les années 1950 jusqu’à aujourd’hui et recensant les expositions aux poussières minérales (ciment, silice) et organiques (cuir, farine), aux solvants (pétroliers et chlorés) et aux fibres (amiante, laines minérales). Le deuxième s’est focalisé sur les expositions de 50 000 salariés français en 2003 pour 71 agents chimiques, 18 familles de nuisances chimiques et 3 nuisances physiques.

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

Comment établir une fiche d’exposition des salariés

Fiches d’exposition des salariés : les conseils d’un médecin du travail

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

 

Un poisson robot capable de guider les bancs de poissons

Les chercheurs de l’Institut pour l’environnement marin côtier du Conseil national des recherches d’Oristano en Sardaigne (Iamc-Cnr), en collaboration avec l’Institut polytechnique de l’Université de New York (Nyu-Poly), ont pensé et créé un poisson robot, puis testé la réaction comportementale des poissons lors de sa présence. Les résultats de l’étude ont démontré que, dans des conditions déterminées, le robot est accepté comme leader par les poissons, qui le suivent dans ses mouvements. La recherche conduite par Stefano Marras (Iamc-Cnr) et Maurizio Porfiri (Nyu-Poly), a été publiée dans la revue  » Journal of the Royal Society Interface « .

 » Le robot, réalisé par la Nyu-Poly, a été testé alors qu’il nageait avec des poissons dans un tunnel à différentes vitesses de flux’, explique Stefano Maras.  » En utilisant des techniques de vélocimétrie d’images de particules numériques, nous avons démontré comment le mouvement biomimétique du robot réussissait à créer des conditions de turbulence telles que les poissons tendent à se positionner dans son sillage, de manière à profiter de l’avantage hydrodynamique et réduire ainsi les coûts énergétiques liés à la nage « .

Les études conduites jusqu’à aujourd’hui sur les interactions entre robotique et biologie marine avaient utilisé un poisson robot entrainé mecaniquement dans un environnement statique.  » Le coté innovant de cette recherche consiste à avoir fait interagir les poissons avec un robot qui imite artificiellement les caractéristiques des organismes vivants, aussi bien dans leurs fonctions que dans leurs mouvements, dans un environnement similaire à celui naturel « , poursuit le chercheur.  » La possibilité de contrôler le poisson artificiel, en modulant son mouvement, permet d’observer les réactions du banc de poissons et d’en tirer des informations utiles sur les comportements de groupe suivis par les espèces ».

La validation de l’expérience en milieu naturel, et suivi du robot dans divers contextes environnementaux, ouvriraient de nouvelles perspectives de protection et de conservation des espèces marines en danger.  » L’éloignement des bancs de poissons des zones contaminées par des fuites de pétrole, ou le contournement des digues qui empêchent le parcours migratoire pour la reproduction sont seulement quelques exemples de nuisances dont les poissons pourraient s’acquitter en suivant les robots « , explique Stefano Marras.

Télécharger la video :
http://redirectix.bulletins-electroniques.com/uQO3D/

(Source : http://www.bulletins-electroniques.com/actualites/69944.htm)

Nanos : un plombage qui tue les bactéries et reminéralise la dent

Régénérer la structure d’une dent abîmée par une carie, tout en se débarrassant des bactéries nocives qui pourraient encore se nicher dans la dent cariée : c’est le pari ambitieux que s’est lancé une équipe de chercheurs du département dentaire de l’université américaine du Maryland, à Baltimore, dont la trouvaille pourrait bien révolutionner le milieu de la dentisterie.

Dirigée par le professeur Huakun Hockin Xu, PhD, enseignant et directeur du département bio-matériaux et ingénierie tissulaire de l’université du Maryland, spécialiste en régénération osseuse et en restaurations dentaires, l’équipe de chercheurs a choisi pour ce faire de s’orienter vers un nouveau composite, en lieu et place du conventionnel plombage qui ne sert en général qu’à limiter la propagation de la carie. Lorsqu’il prend place dans la cavité dentaire, le composite limite non seulement la propagation de la carie, mais permet aussi de contrôler la flore bactérienne coexistant naturellement dans les colonies de micro-organismes à l’intérieur même de la bouche.

Carie dentaire

Une carie dentaire est une maladie infectieuse de la dent extrêmement courante chez l’homme, caractérisée par une lésion de l’émail et de la dentine. Elle résulterait « d’un déséquilibre dans la flore bactérienne du biofilm présent à la surface de la dent suite à un changement brutal de l’environnement local », d’après Laurence Brousseau et Camille LeGoff et leur livre « Les déterminants de la carie ». La carie s’attaque d’abord à l’émail, puis en fonction de son degré d’avancement, s’attaque à la dentine puis à la pulpe, faisant évoluer l’ensemble vers une pulpite, puis vers une nécrose pure et simple de la pulpe.

« Une carie signifie que le contenu minéral de la dent a été partiellement dissous par les acides organiques sécrétés par les bactéries résidant dans le biofilm à la surface de la dent », précise le professeur Huakun Xu. « Ces micro-organismes convertissent les glucides en acides altérant les minéraux formant la structure dentaire », ajoute-t-il.

Apprêt et adhésif

Après qu’un dentiste ait nettoyé une dent cariée à l’aide d’une fraise, la cavité dentaire contiendrait encore et toujours du résidu bactérien. D’après le professeur Xu, il est souvent presque impossible pour un dentiste d’enlever tout la partie infectée d’une dent, rendant la neutralisation des bactéries et de leurs effets nocifs particulièrement importante. « C’est le rôle que joue ici le nanocomposite », explique-t-il.

L’équipe de chercheurs a donc conçu un apprêt dentaire contenant des agents antibactériens, utilisé par les dentistes pour préparer une cavité nettoyée, combiné à un adhésif permettant au plombage une adhésion optimale aux tissus dentaires. « La raison pour laquelle nous voulions des agents antibactériens au sein de l’apprêt et de l’adhésif est qu’ils forment la première couche couvrant la surface interne de la dent et les très nombreux tubules dentinaires », perpendiculaires à la surface, et contenant un fin prolongement cytoplasmique des odontoblastes. Selon le professeur Xu, la principale raison d’un échec lors d’une restauration dentaire serait l’apparition de caries secondaires à la marge de la restauration dues aux bactéries restantes, problème a priori résolu par l’application de l’apprêt et de l’adhésif que son équipe aurait mis au point.

Nanocomposite à base de phosphate de calcium

L’élément clé du nanocomposite et de l’apprêt-adhésif nanostructuré serait le phosphate de calcium, composant la partie minérale des os et des dents, ici sous forme de nanoparticules qui régénèrent les minéraux de la dent. Le composant antibactérien est composé d’une base d’ammonium quaternaire, dérivé de l’atome d’azote et connu pour être bactéricide et fongicide, ainsi que de nanoparticules d’argent, le tout à un pH élevé. En effet, un pH alcalin neutralise l’excès d’acidité engendré par les bactéries présentes dans la flore buccale.

Le plombage en nanocomposite élaboré par l’université du Maryland, combiné à l’apprêt et à l’adhésif antibactériens, devrait pouvoir avoir une durée de vie bien plus longue que les habituels dix années observées pour un plombage traditionnel, selon une estimation de l’équipe du professeur Wu. Leur découverte, bien que nécessitant des travaux complémentaires, a néanmoins été testée en laboratoire, à l’aide de biofilms provenant de la salive de quelques volontaires. La prochaine étape devrait amener les scientifiques à tester le plombage et l’apprêt sur des animaux et des volontaires humains, en partenariat avec l’université fédérale de Ceara, au Brésil.

Par Moonzur Rahman, journaliste scientifique

La base Biotox dédiée à la surveillance biologique vient d’être mise à jour

L’Institut national de recherche et de sécurité pour la prévention des accidents du travail et des maladies professionnelles (INRS) a actualisé sa base de données Biotox. Celle-ci dresse l’inventaire des dosages biologiques disponibles en France et des laboratoires susceptibles de les réaliser.

Cet outil est une synthèse facilement accessible élaborée sous forme d’une base de données, indispensable aux médecins du travail désireux de mettre en place une surveillance biologique des expositions aux agents chimiques.

La mise à jour concerne principalement les valeurs de référence de la population générale et de la population professionnellement exposée, la notion d’accréditation pour les dosages de la plombémie et les données scientifiques des monographies substances et dosages de Biotox.

Pour consulter la base Biotox : http://www.inrs.fr/accueil/produits/bdd/biotox.html

Par Audrey Loubens, journaliste scientifique

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Des défis de sécurité apparaissent avec le lancement de l’IPv6

Le monde a déjà eu un avant-goût du nouveau protocole en Juin dernier, lors de la Journée Mondiale IPv6. Mené par l’Internet Society, plus de 1 000 sites Internet, entreprises high-tech et FAI ont été encouragés à passer collectivement à l’IPv6 durant une période de 24 heures pour “tester” le protocole et essayer d’anticiper les problèmes techniques qui pourraient se produire lors du lancement officiel.

Le 6 Juin 2012, les principales organisations high-tech et leaders du Web tels que Google, Facebook et Yahoo!, entre autres, basculeront vers le nouveau protocole Internet lors du lancement mondial officiel.

Et la transition devient de plus en plus nécessaire. Le protocole actuel IPv4, qui supporte environ 3,7 milliards d’adresses, a simplement épuisé le stock d’adresses disponibles, en partie du fait de l’explosion des appareils mobiles. Mais l’IPv6, de son côté, a une capacité illimitée d’adresses ce qui lui permet de s’adapter à une infrastructure mobile et Internet mondiale en pleine croissance.

Cependant, avec le lancement imminent du protocole mondial IPv6, les chercheurs et professionnels de l’IT anticipent certains défis, en particulier en matière de sécurité

L’aspect novateur et le manque de connaissances relatifs au protocole IPv6 feront qu’il y aura forcément des erreurs de configuration, des problèmes de compatibilité et autres maladresses d’implémentation. Il n’existe pas les connaissances institutionnelles sur l’IPv6 que l’on a sur l’IPv4, qui a été utilisé depuis des décennies et offre une vaste base de connaissances.

Mais peut être que le plus important défi en matière de sécurité est que de nombreux appareils de sécurité réseau sont capables de transférer le trafic IPv6, mais pas de l’inspecter. Et, comme l’IPv6 est activé par défaut sur de nombreuses plateformes réseaux actuelles – tel que Windows 7 – ces systèmes sont déjà installés sur le réseau.

Gérer le risque

La plupart des systèmes qui n’ont pas l’IPv6 activé ont la capacité de contourner ce problème en encapsulant les paquets IPv6 d’en-têtes IPv4. Ils lisent l’en-tête, mais ne peuvent pas lire le contenu du paquet en lui-même. Ils ne peuvent donc pas faire l’inspection approfondie habituelle des paquets, et transfèrent donc juste les paquets. C’est seulement quand ils ont une implémentation dual stack, qu’ils peuvent autoriser les fonctions de sécurité réseau à simultanément traiter et inspecter les paquets provenant à la fois des protocoles IPv4 et IPv6.

Plusieurs constructeurs de sécurité offrent cette fonctionnalité – mais pas tous – et c’est justement l’un des risques auxquels sont confrontés les professionnels de la sécurité réseau aujourd’hui. Ils doivent s’assurer que leurs produits de sécurité peuvent inspecter le trafic IPv6. S’ils peuvent seulement transférer le trafic IPv6, ces produits pourraient également transférer le contenu malveillant.

Même avec une implémentation dual stack, les organisations ont néanmoins besoin de vérifier si elles ont les mêmes fonctionnalités de sécurité activées pour le protocole IPv4 que pour l’IPv6. Dans le cas contraire, les appareils de sécurité réseau sont susceptibles de laisser passer des éléments critiques du trafic malveillant qui pourraient potentiellement compromettre le réseau.

Certaines des politiques et technologies sur lesquelles vous comptez peuvent uniquement fonctionner en IPv4 et non en IPv6, et créent ainsi les déficits de votre couverture de sécurité. Cependant, mettre à jour l’infrastructure de sécurité réseau pour permettre le transfert à l‘IPv6 n’est pas un projet simple et prendra probablement des années pour être complètement abouti. C’est pourquoi de nombreuses organisations, faisant face à des mises à jour matérielles qui sont potentiellement longues et onéreuses, n’ont pas prévues d’adopterl’IPv6 de si tôt.

Pourtant, les entreprises ne vont pas pouvoir éviter l’IPv6 encore trop longtemps. Suite au lancement du 5 Juin, beaucoup plus de trafic IPv6 atteindra leurs réseaux. Lorsque l’IPv6 représentera 5 à 10 pourcents de vos données – plutôt qu’une fraction de pourcent comme a l’heure actuelle – éviter les mises à jour nécessaires va devenir beaucoup plus difficile à justifier. Les DSI vont donc devoir se pencher sur ce problème rapidement.

Par Christophe Auberger, Responsable Technique chez Fortinet

A lire également :

AGENDA : Colloque « Ingénieurs et scientifiques artisans du futur » le 22 juin 2012

Quelle voix les ingénieurs et les scientifiques doivent-ils apporter dans les débats de société ? Avec quelles exigences ? Dans quel cadre doivent-ils se positionner et agir ? Quel impact ont leurs valeurs et leur éthique dans l’interaction entre technique, économie, société et environnement ?

A travers deux tables rondes, les intervenants illustreront, par leur expérience, comment et pourquoi ils se sont engagés, et quelle place tient l’éthique dans leur appréhension des responsabilités et de la prise modérée de risques, caractéristiques de l’exercice du métier d’ingénieur et inhérentes à sa formation.

Face à un monde en constante évolution, la science, la technologie et l’éthique restent des points solides d’ancrage. A l’aide de témoignages, de retour d’expériences vécues sur le terrain, avec de nombreux échanges entre intervenants et participants, ce colloque souhaite proposer aux ingénieurs et aux scientifiques, jeunes ou moins jeunes, une approche qui les aide à prendre conscience des enjeux et à y réagir.

Programme :

– 8h : Accueil

Colloque animé par Jean-Yves Cashgha, journaliste à RFI

– 8h30 : Ouverture du colloque par Julien Roitman, Président du Conseil National Ingénieurs et Scientifiques de France

Introduction par Jean Paul Delevoye, Président du Conseil Economique Social et Environnementale

– 9h : Table ronde numéro 1 « Ingénieurs et scienfiques : des acteurs engagnés »
La campagne électorale a souligné l’importance de trois enjeux : l’entreprise, l’innovation et le futur énergétique. Adresser ces enjeux nécessite une implication forte des ingénieurs et des scientifiques, certains d’entre eux s’engageant dans les différentes instances décisionnelles du pays. La mobilisation générale des ingénieurs et des scientifiques, comme leur intelligence collective au service de la société, sont décisives pour réussir ce rendez-vous avec l’Histoire !
Au travers d’expériences personnelles d’engagement bénévole ou professionnel, chacun des intervenants illustrera comment, avec leurs compétences, les ingénieurs peuvent s’engager au service de la société et accompagner son évolution.

Intervenants :

Fabienne KELLER Sénatrice
Nicolas MOVIO Bureau BNEI Expérience humanitaire
François GOULARD Député, Président du CG du Morbihan Ancien Ministre
Pierre COUVEINHES CGIET-MEIE Rédacteur en Chef Annales des Mines
Roland VARDANEGA Président Société des Ingénieurs Arts et Métiers

– 10h : Questions/Echanges avec la salle

– 10h30-11h : Pause

– 11h : Table ronde numéro 2 « Ingénieurs et scienfiques à la barre »

Portés par ce nouvel élan politique, les ingénieurs et les scientifiques deviennent des acteurs clés dans la définition et la mise en oeuvre des grandes stratégies industrielles, éducatives, environnementales… Maintenant à la manoeuvre, à eux de se donner les moyens d’exercer leurs responsabilités, de mettre l’éthique au coeur des décisions et de l’action, de démontrer qu’on peut conjuguer réussite et progrès.
Au travers de leurs parcours, les intervenants exposeront les moyens nécessaires à la mise en oeuvre de leur savoir-faire, afin de pouvoir agir au service de la Cité.

Intervenants :

Claudie HAIGNERE Présidente UNIVERSCIENCES Ancien Ministre
Jean Yves ROSSI Président CANTON-Consulting
Jacques LEWINER Directeur scientifique honoraire ESPCI ParisTech
Ambroise FAVRIE Président BNEI
Jean-François MINSTER Directeur scientifique TOTAL

– 12h : Questions/Echanges avec la salle

– 12h30 : Conclusion du colloque avec Anne Lauvergeon

Clôture du colloque avec Julien Roitman

La manifestation sera suivie d’un cocktail.

Informations pratiques :

Inscription en ligne (obligatoire) sur le site www.cnisf.org (rubrique agenda)

Lieu : Palais d’Iéna au siège du Conseil Economique Social et Environnemental – 9 place d’Iéna – 75016 Paris.
L’accès au CESE étant soumis à un contrôle, votre inscription en ligne est donc obligatoire (après vous être identifié par le site). Nous vous remercions par avance de vous munir d’une pièce d’identité.

Attention, le nombre de places est limité.

Pour en savoir plus :

http://www.cnisf.org/upload/pdf/colloque_iesf_au_cese_22.06.2012_programme_preliminaire_v22.pdf

Organisateurs :

INGENIEURS ET SCIENTIFIQUES DE FRANCE
Organe représentatif de la profession – Reconnu d’Utilité Publique depuis 1860
7 rue Lamennaiis
www.cnisf.org

BUREAU NATIONAL DES ELEVES INGENIEURS
Fédération des BDE des écoles d’ingénieurs
14 passage Dubail – 75010 PARIS
75008 PARIS
www.bnei.org

 

 

 

 

 

 

Le graphène, bientôt détrôné par un nouveau matériau

Des travaux menés au MIT parus dans Nano Letters révèlent qu’un film mince de bismuth-antimoine présenterait des similitudes, en termes de propriétés électroniques, avec le graphène. L’enjeu est de taille car le graphène, matériau récent, possède des propriétés exceptionnelles très convoitées en électronique : c’est un semi-conducteur de gap nul avec une mobilité électronique impressionnante ainsi qu’une capacité d’auto-refroidissement.

Seul problème, la fabrication du graphène est très coûteuse. Or, un film mince de bismuth-antimoine serait moins onéreux, tout en proposant les avantages du graphène. Avec un flux d’électron des dizaines de fois plus rapide que dans des puces de silicium, ces films minces pourraient donc trouver des applications dans les prochaines générations de puces électroniques, pour des générateurs thermoélectriques ou encore des refroidisseurs.

Néanmoins, tous ces résultats sur les films bismuth-antimoine dérivent uniquement de simulations et de modélisations théoriques. Il est donc nécessaire de tester ces films en réel avant de valider officiellement leur potentiel.

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

 

Modéliser un circuit intégré en graphène, à l’aide d’un crayon ionique

Produire de l’énergie à partir d’hydrogène en froissant du graphène

Transistors flexibles à base de graphène

Un revêtement fonctionnel et innovant par arc plasma

Dans le processus de conception d’un produit, le revêtement possède désormais une place clé, tout autant que la technologie utilisée, et se trouve être un moteur d’innovation permanent. Ces différents revêtements peuvent offrir une protection durable contre la rouille, les rayures, et contre l’humidité. Ils peuvent aussi améliorer les qualités d’adhérence du produit ou protéger une surface contre les bactéries. Les nano-revêtements, qui ont le vent en poupe, proposent un très large panel d’applications nouvelles et variées qui ne manquent pas d’intéresser les industriels.

Les méthodes d’application des nano-revêtements se sont peu à peu améliorées, glissant doucement vers des techniques de dépôt toujours plus puissantes, faciles et polyvalentes. La technique initiale impliquait la succession de très nombreux trempages dans différentes solutions, impliquant également des temps de dépôt relativement importants.

L’évolution de ces méthodes vers une vaporisation du revêtement « couche par couche » a été vécue comme un tournant décisif, permettant un gain de temps important et de fantastiques avantages logistiques, réduisant les coûts de production et la pollution engendrée. Le dépôt de nano-matériaux, sous forme de couches minces dont l’empilement se fait avec une précision nanométrique et dont le séquençage et la nature des matériaux pulvérisés influent sur les propriétés du produit, a à son tour évolué vers la pulvérisation plasma.

Conditions de pression atmosphérique

Le professeur Jörg Ihde et son confrère Uwe Lommatzsch, de l’institut allemand IFAM de Brême (Technologie de production et recherche appliquée sur les matériaux ), affilié au prestigieux Fraunhofer-Gesellschaft, se sont concentrés sur cette dernière technique de pulvérisation et ont développé un nouveau procédé fonctionnel à des conditions de pression atmosphérique, compatible avec une production à l’échelle industrielle. Les techniques sous vide étaient limitées par le prix exorbitant des unités, la taille réduite des composants à traiter et par le temps d’application relativement long.

Persuadés qu’il devait y avoir une alternative, ils se sont associés avec la société allemande Plasmatreat GmbH, spécialistes en traitement de surface par plasma, pour faire face aux problèmes survenant dans des conditions de pression atmosphérique, notamment empêcher les particules indésirables de s’incruster dans le revêtement.

Diffuseur pour torche plasma

L’élément central de leurs travaux est un diffuseur plasma, pas plus grand qu’une bombe aérosol, mais bourré de technologies et autorisant un travail d’une grande précision, rapide et peu onéreux. « Nous maitrisons suffisamment cette méthode, ce qui nous permet d’utiliser le même diffuseur pour appliquer des revêtements aux propriétés diverses », explique Jörg Ihde. La petite quantité de matériau nécessaire, ainsi que la possibilité d’utiliser cette technique pour une très grande variété de surface font partie des avantages évidents, tout comme la facilité d’intégration du procédé à une chaîne de production.

Pulvérisation plasma

Le mode opératoire de la pulvérisation plasma est assez simple : le matériau servant au revêtement, ici sous forme de poudre, est soufflé dans la flamme plasma (le terme « plasma » désigne un gaz conducteur, dissocié et partiellement ionisé) par le biais d’un gaz vecteur. Le matériau est alors fondu et projeté à très grande vitesse et avec une très grande énergie sur la pièce à traiter, qui ne reçoit alors que la phase gazeuse du matériau, d’une épaisseur variant généralement de quelques nanomètres à quelques micromètres.

La destruction de la molécule de départ dans le plasma en de nombreux fragments hautement énergétiques, réagissant les uns avec les autres sur la surface de la pièce, finit par former une couche plus ou moins réticulée alors que le matériau de base ne fond pas. L’adhérence du revêtement résulte des liaisons physiques telles que l’adhésion et les interactions électriques (forces de van der Waals). Le gaz utilisé contient des éléments capables de former des chaines, tels que le carbone, le silicium ou encore le soufre.

Les travaux des deux chercheurs allemands ont été sanctionnés par l’un des prix Joseph-von-Fraunhofer.

Par Moonzur Rahman

 

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :