Un projet espagnol pour réduire le bruit des éoliennes

L’objectif de ce travail est de chercher la relation entre le fond sonore qu’émettent les aérogénérateurs et les variables météorologiques d’un lieu caractéristique. Il est question ensuite de quantifier cette corrélation du bruit de fond moyen à court terme avec les répercutions à long terme. La nouveauté de l’étude réside dans l’apport de données représentatives récoltées par des mesures sur site et les prévisions de bruits. Ceci peut aider de manière efficace l’industrie de l’éolien au moment d’ajuster la puissance des parcs en projet face à l’impact sonore qui sera produit.

L’impact acoustique des éoliennes est une question qui a pris de l’importance depuis le développement de l’éolien marin. Les éoliennes offshore sont plus grandes et plus puissantes que leurs équivalents terrestres et le bruit des moteurs perturbe le comportement de quelques espèces. Dans l’industrie éolienne terrestre, des associations réclament l’éloignement des aérogénérateurs des populations à cause du bruit que font les pales.

(Source : http://www.bulletins-electroniques.com/actualites/70592.htm)

 

A lire aussi :

Des dents de scie pour réduire le bruit des éoliennes

Un téléphone Facebook d’ici 2013

Déjà en mai, le New York Times rapportait une possible sortie du nouveau smartphone. Plus récemment, Bloomberg donnait plus de détails en évoquant la collaboration avec HTC, partenaire industriel taïwanais choisi par Facebook pour produire le fameux téléphone. Cette association fait suite aux smartphones « ChaCha » et « Salsa » lancés en 2011.

Initialement prévu pour la fin de l’année, Mark Zuckerberg aurait choisi de laisser du temps à HTC pour concevoir d’autres produits et parfaire son système d’exploitation. Des développeurs de chez Apple ainsi que plusieurs ingénieurs de Palm et de Research In Motion (RIM), débauchés pour l’occasion, travailleraient dessus et sur l’amélioration de l’application. Cela pour pallier l’inexpérience de Facebook relative à la fabrication et la distribution de terminaux mobiles. À l’heure actuelle, Apple et Samsung seuls, occupent près de 90 % des bénéfices du marché lié aux mobiles.

Sur les 900 millions d’utilisateurs du réseau social, 500 s’en serviraient via leur mobile. Des statistiques impressionnantes mais cependant pas encore convertibles en chiffre d’affaires. Facebook avait déclaré ne tirer aucun revenu de cette audience mobile, ne parvenant pas à la monétiser. Depuis la mise en bourse, cette incapacité à monétiser l’audience mobile n’est évidemment pas du goût des investisseurs. L’arrivée du nouveau terminal est donc primordiale.

Quant à la vente de publicité, encore absente sur mobile, elle est toujours à l’étude. La société tire en effet l’essentiel de ses revenus de son site Internet, où jusqu’à dix pages peuvent être affichées. De nouveaux formats publicitaires intégrés aux applications sont déployés par Facebook, avec évidemment l’espoir d’une hausse du cours de l’action.

Par Sébastien Tribot, journaliste

 

« Made in France » rime-t-il avec compétitif ?

Lutter contre les délocalisations est devenu une priorité nationale, un ministère a même été créé exclusivement à cet effet. Pourtant, certaines entreprises arrivent à s’épanouir, à l’image de cette entreprise japonaise qui résiste encore et toujours aux sirènes de la délocalisation. Il s’agit d’AMADA, une filiale française du groupe japonais du même nom, spécialisée dans les machines-outils.

Mais que s’est-il passé dans la tête de ces japonais pour se positionner en France alors que tant d’autres mettent tout en œuvre pour délocaliser ? La réponse est plutôt flatteuse, puisque ce choix a été motivé à la fois par la situation géographique mais aussi par la formation des ingénieurs et ouvriers qualifiés français.  En effet, AMADA rassemble plus de 500 salariés sur sept sites dans l’Hexagone, dont trois (à Charleville-Mézières, Château-du-Loir et Auffay) dédiés à la production de haute technologie et spécialisés dans la conception et la production de machines-outils et d’outillage haut de gamme distribués dans toute l’Europe.

« Nous avons besoin d’un personnel hautement qualifié, ce qui est très difficile à trouver dans les pays low-cost », analyse Gilles Bajolet, Président du Conseil d’administration d’AMADA Europe. La qualité du made in France peut donc faire la différence pour des emplois très spécialisés.

L’autre avantage réside dans la situation géographique : jouxtant des pays limitrophes comme l’Allemagne, le Luxembourg ou la Belgique, cette proximité des sites avec les sous-traitants européens privilégie des coûts d’approvisionnement optimisés.

Et le coût de la main d’œuvre dans tout ça ? « Soyons francs. Le coût du travail en France est colossal. Quand un salarié reçoit 100 € net, cela nous coûte 200 €. Au Japon, cela coûte à l’entreprise 118 €. Cet écart nuit terriblement à la compétitivité économique. En ce qui nous concerne, le prix de revient d’une machine dépend à plus de 80 % de la matière, le restant est lié à la main d’œuvre. Dès lors, le coût exorbitant du travail en France garde un impact limité et ne remet pas encore en cause les autres atouts du territoire français », détaille Gilles Bajolet.

Petit bémol. Les réformes annoncées comme les taxes sur les dividendes risquent d’apeurer les actionnaires, et de les dissuader de continuer à investir en France. « Nous avons de grands projets en Europe, de telles réformes peuvent remettre en question certaines implantations et nous faire préférer d’autres pays européens », s’inquiète Gilles Bajolet.

Forte d’un chiffre d’affaires cumulé de 1,9 milliards d’euros, la société est pour l’instant satisfaite de son implantation en France et a notamment prévu d’investir 20 millions d’euros  jusqu’en 2014 sur le site de Charleville-Mézières.

Par Audrey Loubens, journaliste scientifique

Les agrocomposites à l’honneur

Pour sa 5e édition, les Agrocomposites 2012 se dérouleront sur deux jours au lieu d’un, pour mieux recevoir les 300 visiteurs professionnels attendus. Parmi les nouveautés, un espace spécialement dédié à la création de partenariat, « Networking and Business Area », favorisera les échanges entre chefs d’entreprises et experts.

Au programme, des conférences dont l’intervention du Pr Akami NASAI de GIFU University, spécialiste japonais des agrocomposites, des tables rondes, des ateliers technologiques et des rencontres d’affaire. Le vendredi, deux visites sont prévues : l’une de l’entreprise MBK du groupe Yamaha, l’autre de centres techniques à Amiens.

Retrouvez le programme détaillé et les inscriptions en ligne dès le 1er septembre sur : www.agrocomposites-europe.com

Par Audrey Loubens, journaliste scientifique

De l’hydrogène solide pour les piles à combustible

L’Institut de Recherche en Technologies Industrielles taïwanais (ITRI) a dévoilé en juin 2012 une pile à combustible utilisant de l’hydrogène sous forme solide après cinq ans de recherche L’appareil, de la taille d’une canette de soda, contient seulement du borohydrate de sodium ( » hydrogène solide « ), de l’eau et un catalyseur et peut générer suffisamment de puissance pour alimenter un ordinateur portable par exemple ou bien des appareils à LED.

Une cartouche contenant du borohydrate de sodium est insérée dans un petit générateur d’environ un kilogramme et une réaction chimique à lieu, produisant de l’hydrogène.

La cartouche peut, selon l’équipe fournir une puissance de 20W et alimenter tout appareil muni de prise USB.

L’ITRI a déjà engagé une société taïwanaise pour commencer la production de masse de cette nouvelle technologie.

Les objectifs futurs de développement de ce nouveau produit sont l’augmentation de sa puissance à 40W, le but ultime étant de pouvoir l’appliquer un jour à l’industrie automobile.

Source : Bulletins électroniques

har-port : interface de service pour Ethernet et USB

Le design attractif de cette interface rend son utilisation possible en salle de réunion ou de conférence.

  • 1/10 Gigabit Ethernet ou USB 2.0 et 3.0 Type A.
  • Design pratique et compact
  • coupleur har-port RJ45 Catégorie 6 
  • coupleur har-port USB 2.0 / 3.0 type A-A
  • Montage aisé avec plan de découpe circulaire M22 standard à tous les boutons poussoirs de contrôle industriel ou d’urgence

Large gamme d’accessoires :

  • couvercle de protection IP44
  • couvercle d’oburation offrant une protection contre les utilisations non autorisées.
  • porte étiquette adaptable après le montage du produit.

Contact :
http://www.harting.fr

Femmes scientifiques en France : chiffres et état des lieux

[Cet article a été publié initialement sur le blog MyScienceWork]

Pr. Bonnie Bassler, Lauréate 2012 du programme l’Oréal-UNESCO For Women in Science, dans son laboratoire de l’université de Princeton.
(Photo credit: Julian Dufort for the l’Oréal Corporate Foundation)

Pourquoi se questionner sur la place des femmes dans les métiers scientifiques ? L’avant-propos du livre « Les Femmes dans l’Histoire du CNRS » répond à cela en citant Philaminte, héroïne des « Femmes savantes » de Molière lorsqu’elle clame : « Je veux nous venger, toutes tant que nous sommes, de cette indigne classe où nous rangent les hommes, de borner nos talents à des futilités et de nous fermer la porte aux sublimes clartés. » Les études supérieures ayant été longtemps fermées aux femmes, peu d’entre elles pouvaient prétendre intégrer les cercles d’intellectuels. C’est donc en premier lieu parce qu’on ne leur en donnait pas les moyens que les femmes ont peu contribué aux premières révolutions scientifiques. Aujourd’hui, dans les pays industrialisés, la place des femmes dans les écoles et universités est incontestée. Les étudiantes sont majoritaires dans les universités, sauf en doctorat où elles sont seulement 47,7 %. En France, en 2011, 59,5 % des jeunes diplômés de Master étaient des femmes et 56,5 % en licence. Elles sont en moyenne plus jeunes lors de leur entrée à l’université, affichent un taux d’abandon plus faible et ont en moyenne de meilleurs résultats.

Il existe par contre des différences importantes entre les disciplines. Les femmes sont particulièrement présentes en langues (73,7 %), en lettres et science du langage (71,1 %) et en sciences humaines et sociales (68,4 %). Elles sont par contre très minoritaires en sciences fondamentales et en sciences appliquées (28,1 %) ainsi que dans les cursus sportifs (31,4 % en STAPS). En médecine, en pharmacie et en sciences économiques et commerciales, les effectifs sont proches de la parité. Les femmes sont majoritaires dans les filières des services et minoritaires dans les filières techniques (46 % en licence professionnelle et 39,8 % en DUT). En école d’ingénieur où elles représentent plus d’un quart des diplômés, la part des femmes continue d’augmenter. En informatique, les filles sont très peu présentes et témoignent trop souvent d’une aversion pour cette discipline ainsi que pour les mathématiques. Notons que 45 % des élèves de Terminale scientifique sont des filles mais que ce taux peut tomber en dessous de 1 ou 2 % pour l’option « mathématique ».

En science comme dans de nombreux autres corps de profession, les femmes sont freinées par plusieurs paramètres socio-culturels. Selon Claudie Haigneré, médecin, première spationaute française, présidente d’Universcience : « Il existe énormément de femmes qui ont des atouts certains mais elles sont parfois confrontées au plafond de verre. Il est transparent, on ne le voit pas mais pourtant il s’agit d’un obstacle. Il est basé sur des stéréotypes, par exemple celui de la place du métier du mari par rapport à celui de l’épouse. Le manque de confiance en soi, l’autocensure de certaines jeunes femmes y participe également beaucoup. »

Les enseignantes sont majoritaires dans les collèges et lycées par contre dans l’enseignement supérieur elles représentaient seulement un peu plus d’un tiers des effectifs en septembre 2011 (36,2 % d’enseignants-chercheurs). Elles exercent de trois à cinq fois plus souvent à temps partiel et elles ont un indice moyen de rémunération moins élevé. En ce qui concerne la recherche, leur part représente 32 % des chercheurs permanents du CNRS et 47,8 % des chercheurs de l’INSERM. Dans ces deux institutions, on constate que le taux de femmes diminue fortement pour les postes de plus hautes responsabilités. A l’INSERM comme au CNRS, le taux de femmes directeur de recherche est bien plus faible que pour les chargés de recherche. Et bien qu’elles soient souvent majoritaires dans les métiers des corps d’ingénieurs et de techniciens, le constat est le même : plus le grade est élevé, moins il y a de femmes.

Répartition par genre et par catégorie professionnelle à l’INSERM (c) Bilan social INSERM 2010

Les femmes scientifiques sont particulièrement peu présentes aux plus hauts postes de décision. Sur 410 directeurs d’unités de recherche de l’INSERM, seuls 18,1 % sont des femmes. Par contre, les doctorants financés par des partenariats INSERM/Régions sont très majoritairement féminins (75%) contrairement aux postdoctorants (seulement 45,5 %). Des variations existent entre les différentes disciplines scientifiques et reflètent le taux d’étudiantes dans les cursus universitaires. Elles sont donc beaucoup plus présentes en sciences humaines et sociales et en lettres. En science, la biologie est la seule discipline scientifique à tendance féminine.

D’après Martine Sonnet, historienne, les femmes ont été présentes au CNRS dès sa création en 1939. Sans être négligeable, leur présence était minoritaire. Ces chiffres ont ensuite progressé mais il reste difficile d’atteindre la parité. S’il ne semble pas exister de frein apparent à la parité, les raisons de cette situation seraient liées à des paramètres beaucoup plus sous-jacents issus de notre culture et de notre société.

A l’évidence, les stéréotypes de genre ont un fort impact sur la place de la femme dans la société. Ceci est mis en évidence dans de nombreux contextes et malgré d‘importants progrès, les clichés ont la vie dure. Ceux qui concernent la distinction des genres touchent les individus à un âge particulièrement précoce.

« Le stéréotype émotif, sexuel, et psychologique des femelles commence quand le docteur dit : C’est une fille. »
Shirley Chisholm, femme politique afro-américaine.

Nos actes sont majoritairement inspirés de notre éducation et notre environnement socio-culturel et seul un faible pourcentage est dicté par notre genre biologique. Mais s’il est simple de blâmer les stéréotypes, il est aussi simple de constater que nous en véhiculons tous. Les stéréotypes ont récemment trouvé un solide allié grâce à la déformation grossière des connaissances scientifiques. Certains journaux ont dernièrement titré « On aurait découvert le gène de l’infidélité chez l’homme. » « Et pourquoi pas un gène de l’aspirateur ! » ironisait Véronique Chauveau à ce propos. Il est important de distinguer les biais biologiques et des représentations sociales. La sociologue Christine Détrez et la neurobiologiste Catherine Vidal citent souvent ces explications ‘biologisant’ nos comportements en soulignant que « rien n’est jamais figé dans le cerveau. Sans arrêt, il est en construction, des connexions se font et se défont entre les neurones, en fonction de l’apprentissage. »

Pr. Susana Lopez, Lauréate 2012 du programme l’Oréal-UNESCO For Women in Science
(Photo credit: Julian Dufort for the l’Oréal Corporate Foundation)

Mais avant d’être la victime de préjugés discriminatoires de la part d’un employeur ou d’un collègue, les femmes sont elles-mêmes porteuse de ces jugements. Une étude récente montre que 30 % des jeunes filles et 9 % des garçons désignent les mathématiques comme la discipline dans laquelle ils sont le moins bons. Le manque de confiance est le paramètre clé de ce constat. Les filles réussiraient moins bien à un examen si on leur présente l’examen à venir comme étant très complexe. Un article du Huffington Post comparait ce phénomène à la question de l’œuf et de la poule. Les filles pensent moins bien réussir que les garçons et seraient donc moins motivées à essayer de réussir. Cet article met aussi en avant la chute des résultats scolaires des filles par rapport aux garçons au moment de l’adolescence. En parallèle, de récentes études de l’éducation par la sanction montrent que les garçons sont aussi les victimes de clichés mêlant virilité, sexisme, effronterie et punition. Nous sommes donc tous victimes de stéréotypes.

Alors qui sont ces femmes scientifiques hors des clichés ? Si les premières femmes scientifiques étaient souvent célibataires, celles d’aujourd’hui concilient le plus souvent vie de famille et travail en laboratoire. Mais s’il est courant de croiser de jeunes enfants dans les couloirs de laboratoire, il reste difficile de gérer carrière et famille. Ceci explique que les femmes fassent plus souvent le choix de travailler à temps partiel. L’évolution actuelle du rôle du père dans l’éducation et les tâches ménagères est néanmoins un élément relativement récent et favorisant les possibilités professionnelles des femmes. Dans les unités de recherche, l’absence de politique de ressources humaines rend les situations très diverses suivant les disciplines et les laboratoires. Cependant la situation du CNRS est loin d’être isolée et reflète l’état de la majorité des carrières valorisées par nos sociétés. Les emplois scientifiques étant un vecteur d’innovation et de développement, il serait dommage de n’y employer que la moitié des cerveaux dont nous disposons.

Source des chiffres :

CNRS : Bilan social 2010 et le dossier Parité 2010

Université : Rapport « Repères et références statistiques – édition septembre 2011 »

INSERM : Bilan social 2011

 

Par Laurence Bianchini

 

[Cet article a été publié initialement sur le blog MyScienceWork]

My ScienceWork

Le blog My ScienceWork est dédié à l’actualité multidisciplinaire de la recherche. L’équipe MyScienceWork vous invite à découvrir ses articles d’actualité/recherche/portrait/opinion en français et en anglais.

Risques liés aux nanoparticules manufacturées

Si les développements de la recherche sur les nanomatériaux, qui ne cessent de s’accélérer dans le monde entier, permettent d’ores et déjà d’envisager l’émergence de nombreuses applications au cours des prochaines décennies, les connaissances sur les risques liés aux nanoparticules restent néanmoins toujours très limitées à ce jour, aussi bien pour l’environnement que pour l’homme.

En effet, de nombreuses incertitudes subsistent quant au devenir de ces nanoparticules dans l’environnement, à leur diffusion dans le corps humain et à d’éventuels effets induits à long terme.

C’est dans ce contexte que l’Académie des Technologies a fait appel à de nombreux experts afin de les interroger sur la façon de fabriquer et d’utiliser ces nouveaux matériaux destinés à apporter de vrais avantages à notre vie quotidienne sans conséquences néfastes pour la santé ou l’environnement.

Les résultats de cette réflexion collective viennent de faire l’objet d’une communication au sein de cette prestigieuse institution qu’est l’Académie des Technologies sous la forme d’un petit ouvrage intitulé « Risques liés aux nanoparticules manufacturées », publié aux Editions Le Manuscrit. A lire et à méditer !

Source : Bulletins électroniques

Découvrez les formations Techniques de l’ingénieur :

Ebook gratuit : 10 Histoires d’excellence opérationnelle, l’amélioration continue racontée…

Florent FOUQUE (d’Excellence Opérationnel TV) a sollicité 9 auteurs pour l’écriture de ce recueil de nouvelles sur l’amélioration continue. Convaincu que les retours d’expérience sont porteurs de sens, je me suis donc prêté à l’exercice.

En effet, parler de la théorie et expliquer les méthodes peut s’avérer utile, mais capitaliser sur les retours d’expérience pour restituer des ambiances, des comportements, des contextes, permet de mieux appréhender l’état d’esprit qui accompagne les démarches d’amélioration continue.

Dans cet ouvrage collaboratif de 86 pages, retrouvez de courtes histoires, réelles, fictives, ou semi-fictives, sur l’excellence opérationnelle et le Lean Management.

Chaque récit sera l’occasion pour les auteurs de vous raconter une petite histoire et de vous en dévoiler les clés de lecture.

Certaines histoires exposent des réussites, d’autres des erreurs… Mais toutes vous permettront de tirer des bonnes leçons pour mener à votre tour des projets d’amélioration continue.

Le contenu de l’ouvrage

  • Chapitre 1 : Les entreprises qui méritent leur certification et les autres, de Jérémy CICERO
  • Chapitre 2 : Amélioration et amélioration continue, de Peter KLYM
  • Chapitre 3 : Le jour où Georges fut libéré, de Xavier PERRIN
  • Chapitre 4 : Une histoire de Tom Tom qui tourne mal, de Pascal WEBER
  • Chapitre 5 : Quelques bémols nécessaires à une bonne utilisation du Lean, de Yvon MOUGIN
  • Chapitre 6 : Bref…Une journée de boulot comme les autres…, de Cédric STIEN
  • Chapitre 7 : Utiliser la diététique comme guide vers un succès Lean, de Eponine PAUCHARD
  • Chapitre 8 : L’excellence en sécurité – en apprenant à mes dépens, de Erwan KERLEROUX
  • Chapitre 9 : Le déclic, de Bernard SADY
  • Chapitre 10 : La découverte du premier facteur d’échec des projets d’excellence opérationnel, de Florent FOUQUE

Par Jérémy Cicéro, responsable et auteur du Qualiblog

Jérémy CICÉRO

Jérémy Cicéro est consultant, formateur, et auditeur ICA pour le Qualipole Languedoc-Roussillon. Il est aussi formateur pour le Laboratoire National de Métrologie et d’Essai (LNE).

Ancien commercial puis responsable qualité dans les poids et mesures, il accompagne depuis plusieurs années les TPE et PME de la région Languedoc-Roussillon (tous secteurs d’activités) pour la mise en place et l’amélioration de leurs systèmes de management.

Il intervient également comme expert qualité sur le site Manager-Go! en répondant aux questions des internautes soucieux de comprendre les mécanismes de la qualité.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

OGM : aucun risque, selon la conseillère scientifique de la Commission

Remettre sur le tapis le débat sur les OGM risque d’irriter les États qui ont mis en place certaines interdictions. C’est pourtant ce qu’a fait Anne Glover, conseillère scientifique principale de la Commission depuis le début de l’année.

Pour elle, le principe de précaution n’est plus de rigueur. « Il n’existe aucun cas concret d’impact négatif sur la santé humaine et animale ou sur l’environnement, a déclaré Mme Glover à EurActiv Bruxelles. C’est une preuve assez convaincante. J’irai donc jusqu’à dire que les OGM ne présentent pas plus de risques que les produits conventionnels ».

Cependant, la scientifique a voulu nuancer ses propos, en affirmant qu’elle ne faisait pas la promotion des cultures controversées.

Dans tous les cas, manger comporte des risques, selon elle : « Nous oublions souvent que la plupart des plantes sont toxiques. Ce ne sont que la cuisson et les quantités que nous consommons qui les rendent comestibles. »

Raréfaction des ressources

Mme Glover a aussi adressé une pique aux Etats qui interdisent les OGM, en affirmant que les preuves scientifiques devraient jouer un rôle de premier plan dans l’élaboration des politiques. « Je pense que nous pourrions vraiment avancer en Europe si nous obligions les décideurs à se justifier lorsqu’ils rejettent une preuve », a-t-elle ajouté.

CONTEXTE

La Commission a proposé en juillet 2010 de permettre aux États d’interdire des cultures génétiquement modifiées, dans une tentative de débloquer la situation sur les OGM. Seules quelques variétés ont en effet été autorisées en plus de 12 ans. La présidence danoise du Conseil de l’UE a récemment tenté de trouver un compromis, sans grand résultat. À ce jour, sept pays de l’UE ont introduit des interdictions nationales « de précaution » sur la culture du maïs MON 810 de Monsanto qui résiste aux insectes : la France, l’Allemagne, l’Autriche, la Bulgarie, la Grèce, la Hongrie et le Luxembourg. En janvier dernier, l’entreprise allemande de biotechnologie BASF Plant Science a annoncé qu’elle déplaçait ses activités de recherches biotechnologiques sur les plantes de l’Allemagne vers les États-Unis et qu’elle cessait de développer des cultures OGM pour le marché européen.

Elle estime nécessaire que les OGM et les autres avancées scientifiques soient exploités pour trouver des solutions à la raréfaction de l’énergie et des ressources, ainsi qu’à la concurrence qui règne en matière d’utilisation des terres. « En utilisant nos terres pour produire des biocarburants, nous ne produisons pas d’aliments, ce qui signifie que nous devons intensifier la production alimentaire », a-t-elle expliqué.

Ancien professeur de biologie de l’Université d’Aberdeen, Anne Glover a également exercé la fonction de conseiller scientifique principal pour l’Écosse de 2006 à 2011. Son rôle est d’appuyer les preuves scientifiques en exprimant ce que les acteurs de la scène politique et les fonctionnaires n’osent pas toujours dire. « Les preuves sur lesquelles je travaille sont indépendantes, elles ne changent pas en fonction des courants politiques. Et cela devrait rassurer la population. »

D’après Mme Glover, le sentiment de malaise qui entourait la question des cultures OGM dans les années 1980 et 1990 date de la génération précédente : « Nous avons progressé et les enjeux sont complètement différents aujourd’hui. »

Elle a défendu le principe de précaution, approprié lorsqu’il est correctement appliqué, avant d’ajouter : « Nous ne devrions pas […] nous mettre des bâtons dans les roues en laissant les autres profiter de nos connaissances avant nous parce que nous sommes trop prudents. » « Je m’inquiète à ce propos. La connaissance est une monnaie internationale et nous sommes parmi les plus lents à exploiter celle que nous créons. Cela ne peut pas fonctionner. »

Attirer l’attention des adolescentes

Anne Glover a également fait l’éloge de la vidéo récemment diffusée par la Commission dans le cadre de sa campagne sur le rôle des femmes dans la science (« Women in Science »).

Cette vidéo, qui montre de jeunes femmes mélangeant des produits chimiques pour créer des produits cosmétiques, a été retirée par la Commission après des plaintes selon lesquelles elle renforçait les stéréotypes sexistes.

« Je n’adhère pas forcément à l’idée que les jeunes filles pensent à porter des talons hauts et mettent du rouge à lèvres. Mais si c’est réellement ce qu’elles ont en tête, alors il serait idiot de l’ignorer, surtout en tant que publicitaire », a expliqué Mme Glover.

Pour elle, les adolescents sont un groupe très difficile à atteindre, et elle s’est dite déçue des critiques émanant de scientifiques plus âgés et de femmes de son âge. « Ces gens n’ont peut-être pas réfléchi au public cible de cette campagne. Ce n’était pas eux, mais des adolescentes. » Mme Glover a également indiqué qu’elle envisageait de créer un nouveau réseau de représentants des scientifiques dans les États, afin de promouvoir une communication scientifique plus ciblée dans le cadre de l’élaboration des politiques.

Source : EurActiv.fr

Terraformation de Mars : comment rendre une planète habitable ?

 

Constuire une première base permanente sur Mars ne semble pas trop ardu. De nombreux projets sont étudié depuis 1981. On se pose près d’un endroit où il y a de la glace ou de l’eau à faible profondeur ; on assemble les modules qui constitueront le « noyau » de la base. Ensuite, on installe des systèmes de recyclage de l’air, de l’eau et des déchets, alimentés en énergie par des panneaux solaires. Mars ne recevant que 30 à 40 % de l’énergie solaire reçue par la Terre, il faudra en poser sur de vastes étendues. Les colons pourront également utiliser ces panneaux pour la production de nourriture : en effet, il est prévu de faire pousser des plantes par culture hydroponique sous serres. Ces techniques de production végétale sont déjà bien maîtrisées : elles ont un rendement parfois quatre fois supérieur à celui des méthodes traditionnelles, mais sont aussi beaucoup plus  » gourmande  » en énergie.

 

D’autres structures, gonflables, pourront servir d’habitat. En fait, aucune révolution technologique n’est vraiment nécessaire pour s’installer sur Mars. Coloniser la planète rouge semble presque à portée de main, mais la rendre habitable est une autre affaire que certains n’hésitent plus à franchir.

 

Chris McKay, cofondateur des conférences The Case for Mars en 1980 et célèbre exobiologiste (spécialiste de la vie dans l’Univers) de la NASA, travaille d’arrache-pied au centre de recherches Ames de la NASA, à Mountain View, en Californie, sur les possibilités de coloniser Mars. Il ne capitule pas : pour lui, la colonisation de Mars ne s’arrête pas aux simples objectifs scientifiques. Comme d’autres chercheurs, il étudie l’étape suivante de la colonisation : la « terraformation » de la planète rouge. Il s’agit de recréer un environnement semblable en tout point à celui de la Terre. Mars deviendrait ainsi une petite « planète bleue », avec des océans et des continents abritant une flore et une faune diversifiées. Il ne faut pas oublier que la planète rouge a connu au début de son histoire des conditions climatiques semblables à celles de la Terre. Son atmosphère était alors plus épaisse, plus dense qu’aujourd’hui et l’eau coulait librement à se surface, formant des lacs et rivières. On pense même qu’un vaste océan couvrit l’hémisphère Nord. Mais Mars s’est vite refroidie. Aujourd’hui, la pression atmosphérique n’est que de 6 mbar en moyenne à la surface, contre 1013 mbar pour la Terre au niveau des océans : l’eau ne peut plus être liquide sur Mars.

 

Comment faire d’un monde froid et sec une oasis foisonnant de vie ? Comment rendre à Mars sa jeunesse d’antan ? Pour certains scientifiques, on pourrait aisément créer des « niches » écologiques en creusant de profondes dépressions à la surface de la planète. Au fond de ces fosses, la pression atmosphérique serait beaucoup plus élevée qu’à la surface. Avec une pression de 20 mbar, par exemple, au lieu de 6 en moyenne, on peut déjà cultiver quelques plantes résistant au froid et au manque d’humidité comme les lichens. Des expériences menées en Russie ont montré que ces végétaux s’adaptent à une atmosphère de type martien, essentiellement composée de gaz carbonique. Seule différence avec le comportement des lichens sur la Terre, les lichens de Mars fixent l’oxygène dans leurs racines au lieu de le rejeter dans l’atmosphère. Mais comment creuser la surface de Mars ? Certains proposent de faire précipiter de gros astéroïdes, quitte à perturber l’équilibre de la planète forgé au cours de milliards d’années !

 

Finalement, il ne s’agit que d’interventions chirurgicale ponctuelles. La terraformation implique un changement à l’échelle de la planète tout entière. McKay  et Zubrin, le concepteur du voyage Mars Direct, pensent qu’il faudrait d’abord enclencher un « effet de serre » sur Mars pour réchauffer son atmosphère. Or, l’opération s’avère difficile sur la planète rouge, car c’est un réchauffement de 50°C qu’il faudrait obtenir pour dégeler les zones tropicales et permettre à l’eau de couler librement.

 

Par chance, Mars est riche en gaz carbonique. Celui-ci constitue 95,3 % de son atmosphère et il stocké, en grandes quantités, dans les glaces des pôles (surtout au pôle Sud) et les roches. C’est un gaz qui engendre un « effet de serre », car il est capable de piéger efficacement la chaleur. Les deux scientifiques imaginent alors un système tirant parti des propriétés du gaz carbonique : en réchauffant les pôles, par exemple, on libère ce gaz dans l’atmosphère martienne. Celle-ci se densifie et se réchauffe en piégeant davantage la chaleur solaire. La température de la surface monte et le gaz carbonique est produit en plus grandes quantités par les calottes polaires et le sous-sol, augmentant encore la pression et la température de l’atmosphère. En résumé, plus la planète se réchauffe, plus son atmosphère devient dense et elle se réchauffe encore. Le processus se poursuit jusqu’à l’épuisement de tout le gaz carbonique stocké dans le sol.

 

La quantité de gaz à effet de serre étant proportionnelle au carré de la température désirée, un réchauffement de 10°C ne nécessite que 4% des efforts requis pour obtenir un réchauffement de 50°C. Réchauffer la planète de 10°C serait un bon début, pensent les deux scientifiques, car cela permettrait de commencer à libérer le gaz carbonique piégé dans le sous-sol martien. Aux températures qui y règnent actuellement, le sol martien a pu absorber jusqu’à 20% de son poids en CO2 en 2 ou 3 milliards d’années. En élevant un peu la température des roches, on rompt libérerait de grandes quantités de ce gaz et la pression atmosphérique s’élèverait doucement.

 

Le secret : la bonne utilisation du CO2 déjà présent

 

McKay et Zubrin pensent qu’une petite impulsion suffirait pour déclencher un réchauffement global. Ils suggèrent de commencer par la calotte polaire australe, qui est le grand réservoir de gaz carbonique de la planète (contrairement à la boréale qui est composée en partie d’eau). En élevant la température de seulement 4°C, le gaz carbonique sous forme de glace carbonique commencerait à s’évaporer dans l’atmosphère, sans pouvoir se recondenser, car il ne ferait plus assez froid.

 

Comment provoquer ce petit réchauffement initial de 4°C au pôle Sud ? Les technologies existantes permettent de gonfler de petites structures en orbites. Dans un proche avenir, l’homme sera capable d’en assembler de plus grandes. Les ingénieurs pensent qu’un miroir positionné à 200 000 km de la planète et large de 250 km pourrait réfléchir assez de lumière solaire pour réchauffer de 5°C les régions au sud de 70° de latitude Sud. Par exemple, on peut utiliser un réflecteur solaire en Mylar, qui ressemble à une grande voile circulaire. Epais de 4mm, il aurait une masse de 200 000t et nécessiterait d’être fabriqué dans l’espace. Même si cette masse à assembler semble élevée aujourd’hui, une telle opération sera réalisable quand l’homme possédera de nombreuses bases industrielles sur la Lune et autour de la Terre. D’autres scientifiques ont proposé le « saupoudrage » du pôle Sud de poussière noires (débrits d’astéroïdes et comètes) qui, du fait de leur faible taux réfléchissant, absorberaient mieux la chaleur solaire et feraient fondre la glace … En revanche, ils restent plus évasifs quant à l’efficacité et à la durée du processus de fonte de la glace carbonique.

 

Le gaz carbonique, sous une pression atmosphérique de 6 mbar (pôle Sud), se condense à -126°C. Au-dessus, il passe de l’état solide à l’état gazeux. Par ailleurs, la pression ne peut beaucoup augmenter au-dessus de 6 mbar, car, en raison du froid ambiant, l’excédent de gaz se condense à la surface en glace carbonique … le piège est refermé !

 

L’accélération d’un processus naturel … grâce à un miroir orbital

 

Voici les raisons pour lesquelles les deux chercheurs pensent qu’un petit réchauffement viendra rompre ce fragile équilibre. Il faut, en outre, que la température dépasse les -122°C sinon, le CO2 n’est pas relâché en quantité suffisante pour piéger davantage de chaleur solaire : il fait toujours aux alentours de -126°C et, inévitablement, le gaz carbonique finit par regeler à la surface. Au-dessus de -122°C, l’atmosphère devient suffisamment épaisse pour conserver la chaleur accumulée. Le CO2 ne peut plus se condenser et se déposerà la surface. Il s’agit là d’un point de non-retour et du début de l’effet de serre recherché.

 

L’effet de serre va se poursuivre d’une façon rapide, proportionnellement à l’augmentation de la pression atmosphérique ambiante: en une vingtaine d’années, la glace carbonique du pôle Sud va entièrement se sublimer, entraînant une pression atmosphérique proche de 100 mbar. La température va monter globalement de 10°C à la surface de la planète, et ce sera au tour du gaz carbonique du sous-sol d’être libéré. Cette libération est progressive, car il faut du temps pour que les couches de terrain profondes soient atteintes, mais les effets seront rapides : 20 mbar supplémentaires seront obtenus au bout de un an, 100 mbar au bout de 25 ans, … 400 mbar au bout de 400 ans. Or, les deux chercheurs pensent qu’un autre point d’équilibre sera atteint lorsque la pression atmosphérique affichera 500 mbar. En effet, les températures des zones intertropicales avoisineront les 0°C, mais ne les dépasseront guère pendant plusieurs mois, empêchant un dégel massif du pergélisol martien.

 

Seconde étape : le réchauffement atificiel

 

McKay et Zubrin estiment qu’il faudrait aider la planète à se réchauffer davantage et forcer plus encore les roches à relâcher leur gaz carbonique. Théoriquement, en libérant le gaz, piégé entre 80 et 200m de profondeur, on pourrait obtenir 600 mbar de pression supplémentaire, mais dans 2500 ans seulement. Mars connaîtrait alors une pression atmosphérique identique à celle de la Terre. Comment accélérer ce processus ? On connaît certains gaz à puissant effet de serre comme les CFC (= chlorofluorocarbures) tant décriés sur la Terre. Ceux-ci pourraient être produits artificiellement sur Mars et être lâchés dans l’atmosphère martienne. Ils préconisent, en revanche, une sélection de ces gaz, en privilégiant ceux, comme le perfluorométhane, qui ne possèdent qu’une faible teneur en chlore : il faut éviter de détruire la mince couche d’ozone martienne qui martienne qui ne représente que 1/60 de l’épaisseur de celle de la Terre.

 

Une fois que l’atmosphère connaîtra un effet de serre durable, le pergélisol commencera à dégeler, et l’eau coulera de nouveau à la surface de Mars. La chaleur solaire aidant, une partie de l’eau s’évapora dans l’atmosphère. La vapeur d’eau étant un excellent gaz à effet de serre, elle accélérera le réchauffement global de la planète. En fait, les deux scientifiques ont calculé que le maintien par des CFC de la température atmosphérique à 20°C au-dessus de la température créée par l’accroissement du gaz carbonique aura un puissant effet de levier : la température de la planète se trouvera augmentée de 40°C. Une fois l’atmosphère martienne considérablement épaissie, les colons pourront librement marcher à sa surface, sans combinaison spatiale, en respirant simplement à l’aide d’un masque de plongée et de bouteilles d’oxygène. En attendant de respirer directement un air oxygéné, mais contenant peut-être de dangeureuses bactéries.

 

Un monde enfin habitable … pour l’avenir de l’homme ?

 

Nul ne sait encore ce qui peut se cacher dans le sous-sol martien. Officiellement, on n’a pas trouvé de vie sur Mars, mais rien n’est moins sûr au vu des résultats des expériences biologiques Viking.

 

Il se peut ainsi que l’on réveille accidentellement des micro-organismes dangereux pour l’homme ou pour les végétaux qu’il désire implanter. Il n’est donc pas possible d’envisager une terraformation de Mars à grande échelle tant que nous ne saurons pas s’il existe une forme de vie, même très primitive, sur la planète rouge. Or, si Mars possède des traces de vie, il faudra s’assurer que celles-ci ne disparaissent pas et les confiner géographiquement pour les conserver. Il faudra même veiller à ce que ces niches écologiques demeurent des sanctuaires inviolés pour l’éternité.

 

Cette atmosphère de gaz carbonique, artificiellement reconstituée, ne permettra pas la présence de la vie animale à la surface de la planète. Si des bactéries et des plantes primitives peuvent se développer. Les phanérogames ont besoin de 1 mbar au mininum de pression d’oxygène pour survivre, les mamifères et les hommes nécessitent 120 mbar, ainsi qu’un taux minimal d’azote. McKay et Zubrin pensent que ce premier millibar pourrait être obtenu en moins d’un siècle par l’action de plantes et de bactéries génétiquement modifiées. On peut accélérer la croissance de ces plantes en faisant fondre le pergélisol pour relâcher davantage d’humidité dans l’atmosphère : on augmente alors l’efficacité des bactéries aptes à extraire l’azote du sol et à le rejeter dans l’atmosphère. Les 120 mbar d’O2 pourraient être atteints en 900 ans, permettant aux hommes de marcher à l’air libre sans porter de masque ni de bouteilles d’oxygène.

 

L’homme aura ainsi crée un monde à son image … mais son avenir est-il vraiment sur Mars ? Devra-t-il attendre neuf siècle avant de pouvoir coloniser une nouvelle Terre ? Ces rêves un peu fous de terraformation pourraient rester dans les cartons des ingénieurs, tandis que d’autres dresseront des plans pour franchir les immensités entre les étoiles. Finalement, même si un tel scénario ne se déroulait jamais, Mars aura été pour nous une merveilleuse planète à rêver !

 

Sources : GOURSAC, Olivier de, « A la conquête de Mars », Paris, Larousse-Bordas, 2000, pp. 197-203

Un laboratoire dédié aux smart grid voit le jour

Alstom Grid, secteur du groupe Alstom, dédié à la transmission d’électricité, se donne les moyens d’innover : son partenariat  avec le CEA vise à accélérer la recherche dans les solutions de stockage de l’énergie à grande échelle. Ces innovations doivent permettre d’accentuer le déploiement du stockage intégré dans les systèmes Smart Grid et de faciliter l’introduction d’énergies renouvelables, au-delà de l’objectif de 20 % du mix énergétique que s’est fixée l’Europe à l’horizon 2020.

Les équipes de ce nouveau laboratoire travailleront également sur l’utilisation potentielle des applications du courant continu (CC) pour les projets de villes intelligentes. Le choix de positionner les équipes de recherche sur le campus de l’INES à Chambéry permet de profiter directement de l’expertise de l’institut en matière d’applications solaires et de stockage de l’énergie et de tirer avantage des capacités offertes par le campus pour tester les différentes technologies de pointe. Selon Patrick Plas, Senior Vice-Président, Grid Power & Automation, Alstom Grid, ce partenariat permettra non seulement de tester des technologies nouvelles et de construire des réseaux électriques exempts de CO2 mais aussi de soutenir le projet IEED Supergrid (Institut d’Excellence en matière d’Energies Décarbonées) qui verra le jour à Villeurbanne, à côté de Lyon.

Par Audrey Loubens, journaliste scientifique

Plugshare vient d’atteindre le seuil des 10 000 stations de chargement

Ils y ont cru depuis le début : les fondateurs de Xatori, une petite start-up nichée à High Street, Palo Alto, au cœur de la très écologiquement consciente Silicon Valley, se sont félicités d’avoir atteint leur dix-millième station de chargement recensée dans leur base de données la semaine dernière.

Lancée en mars 2011 (nous vous en parlions alors ici), « Plugshare » n’a cessé de gagner du terrain, tant dans les consciences que dans le marché des applications vertes disponibles pour les utilisateurs de voitures électriques.

Son principe est simple : créer un réseau d’utilisateurs actifs de voitures électriques, mettant leurs prises domestiques à la disposition des conducteurs qui auraient besoin de recharger leur batterie, ou de ceux qui se trouveraient hors de portée des quelques stations publiques dédiées. L’application iPhone « Plugshare » (« partage de prise » en anglais) met donc en relation les conducteurs et les propriétaires de prises, permettant de les localiser ou d’offrir leur électricité.

Bonne nouvelle donc, pour cette application dont le succès est, évidemment, intimement lié à la qualité de la couverture du territoire. Les Californiens ont très vite mis l’accent sur l’appartenance à une communauté éco-sensible, ainsi que sur les rencontres enrichissantes entre utilisateurs, dans un segment également occupé par des applications telles « Tendril » ou encore « MyFordMobile ».

Par Moonzur Rahman, journaliste scientifique

 

A lire aussi :

Venez recharger votre voiture électrique… chez des inconnus !

Amazon s’attaque au marché des smartphones

Malgré un marché archi saturé et dominé par Apple et Samsung qui totalisent à eux seuls la moitié des ventes de smartphones dans le monde, Amazon va tenter de trouver sa place. Son appareil, avec une taille d’écran comprise entre 4 et 5 pouces, sera un concurrent direct des mastodontes Samsung Galaxy S3 et iPhone 5. C’est ce qui s’appelle avoir de l’ambition !

D’après le Wall Street Journal, le « Kindle Phone », équipé d’Android, serait déjà en phase de test, Amazon essayant différentes combinaisons matérielles pour son prototype. C’est le taïwanais Foxconn, déjà en charge de l’assemblage des appareils d’Apple, qui aurait été choisi pour le construire.

Pour réussir son entrée, le « Kindle Phone » pourrait bien être proposé à très bas prix. Une stratégie qui avait été efficace pour sa tablette Kindle Fire proposée deux fois moins chère que l’iPad.

De plus, Amazon chercherait à se prémunir des procès éventuellement lancés par Apple et Samsung en acquérant les droits de certains brevets liées aux technologies spécifiques des smartphones. Le site de commerce en ligne aurait donc recruté un spécialiste de l’investissement de brevet pour assurer ses arrières et se prémunir de toute procédure.

Amazon espère ainsi venir jouer le troisième homme dans la guerre féroce qui se joue entre Apple et Samsung sur le segment des smartphones. Bonne chance « Kindle Phone » !

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

L’Amazon Kindle Fire : un succès inattendu

La guerre des smartphones peut continuer avec l’arrivée du Samsung Galaxy S3

Jouer pour apprendre : les serious games ont la cote !

Développés à partir de la technologie du jeu vidéo –  le graphisme et l’utilisation sont très proches d’un jeu classique –, les serious games se révèlent être des outils modernes stimulants pour toucher de nouveaux publics. Qui plus est, ils apportent une plus grande respectabilité aux jeux vidéos, bien souvent mal considérés car assimilés à un divertissement adolescent.

Les créateurs de serious games n’hésitent pas à en vanter les bienfaits pédagogiques et divertissants et affirment au passage que l’image de marque des entreprises usant de cette pratique est également associée à des valeurs positives telles que le dynamisme et l’innovation.

Trois fonctions principales sont associées au serious game :

  • Diffuser un message d’ordre éducatif (Edugames), marketing (Advergames), informatif (Newsgames) ou militant (Militant games) ;
  • Prodiguer un entraînement sur le plan cognitif et psychomoteur. Le but est évidemment d’améliorer ses capacités ;
  • Simuler une situation pour évaluer l’utilisateur (serious play). Cette fonction cumule les deux précédentes, car elle permet aussi de véhiculer des messages et de s’entraîner par l’expérimentation.

Mais le jeu ne serait-il pas par nature, déjà éducatif ? Parce qu’il sollicite des capacités telles que la mise en place de stratégie, la prise de décision, parce qu’il confronte le joueur à des environnements parfois proches du réel et le pousse à s’adapter à ce qu’il voit : l’opinion que défendent les concepteurs de jeux, à l’origine de l’idée des serious games, ne semble pas si farfelue. Cela permet d’endosser un rôle, de se mettre en situation et de réagir en fonction de ses émotions pour ensuite s’évaluer. Et, chose primordiale selon Julian Alvarez, chercheur à Ludoscience, cette technique d’enseignement est interactive.

Quelques cas de serious games célèbres

Conçu en 2002, America’s Army est considéré comme le tout premier serious game de l’Histoire. Distribué gratuitement sur internet, il dispense un « entraînement militaire » au combat et au tir avant de proposer aux meilleurs d’étoffer les rangs des marines.

Développé par l’ONU et le programme alimentaire mondial, Food Force est un jeu ou il faut acheminer de l’aide alimentaire d’urgence à une population victime d’un conflit armé.

Dans le même état d’esprit, deux étudiants ont conçu Darfur is Dying afin d’alerter les gens sur la situation des réfugiés du Soudan.

L’EduGameLab, de l’Académie de Créteil, lancé en mars 2010, est un projet européen d’études qui tend à se servir des serious games comme supports pédagogiques. D’un côté, on retrouve l’apprentissage par la pratique du jeu vidéo et de l’autre, la création de serious game par les enseignants ou les élèves.

Fold-it est un jeu qui a permis d’effectuer des avancées majeures dans la Recherche. Il consiste à enrouler une protéine préalablement dépliée afin de remporter le plus de points possibles. Les résultats sont ensuite analysés par une équipe de chercheurs.

Présenté début juillet à Castres-Mazamet, MUCO>Play est un serious game qui s’adresse aux personnes atteintes par la mucoviscidose. L’intérêt étant de prévenir les risques de contamination entre patients.

Olympe, ou « le juridique logique et pédagogique » est un jeu permettant d’acquérir ou de valider des connaissances sur deux sujets : le licenciement et l’auto-entreprenariat.

Pulse, le plus cher des serious games (14 millions d’euros pour le développement) sert aujourd’hui à six universités américaines pour valider la formation des étudiants en médecine et réactualiser leurs compétences.

De plus en plus d’événements

Le 27 juin dernier, avait lieu la première édition du « Serious Game Time » au Creative Store Amusement de la Gaîté Lyrique à Paris. Sous forme de conférence, le journaliste Jean Zeid faisait découvrir l’usage concret des serious games en entreprise.

Le 20 septembre prochain, se déroulera la 5e convention d’ E-Learning de KTM Advance au Centquatre, toujours à Paris. À cette occasion, les clients de KTM Advance apporteront leur premier retour d’expérience et présenteront les nouvelles orientations de la formation.

Le « Serious Game Expo » de Lyon réunira les acteurs incontournables de ces jeux vidéos sérieux le 22 et 23 octobre 2012. Il s’agira d’un temps d’échange et d’informations quant aux innovations du marché.

Par Sébastien Tribot, journaliste

 

Londres mise sur des rénovations exorbitantes en vue des JO

L’héritage durable était un élément central de la candidature du Royaume-Uni pour l’organisation des Jeux olympiques. Deux millions de tonnes de sols pollués ont été nettoyées et 200 bâtiments ont été démolis.   Afin d’atteindre ces objectifs de durabilité, 98,5 % des matériaux démolis ont été réutilisés ou recyclés.

Les matériaux broyés ont été utilisés dans les fondations en béton et les revêtements.

Des pierres issues de ces démolitions ont été utilisées pour créer des « toits vivants » sur les nouveaux logements et les pierres historiques ont servi au pavage de nouvelles pistes cyclables et allées piétonnes.

Des stades construits avec des matériaux recyclés

Le stade a battu de nouveaux records en matière de recyclage : il a été construit avec 30 % de matériaux réutilisés et 90 % des déchets générés par la construction du stade ont été réutilisés, recyclés ou récupérés. Les décharges n’ont quasiment pas servi.

Des résultats similaires ont été obtenus pour d’autres bâtiments clés, comme les centres aquatiques qui accueilleront les compétitions olympiques de natation et de plongée. En termes de valeur, ce centre a été bâti avec 29 % de matériaux recyclés, mais en termes de poids, 51 % de la structure en est composée.

Les organisateurs des Jeux ont défini la durabilité comme un équilibre entre les éléments environnementaux, sociaux et économiques, tout en soulignant l’importance qu’une réelle valeur sociale et commerciale émerge de ces constructions évaluées à 10 milliards d’euros.

Une fois les athlètes et les spectateurs partis, le Parc olympique, qui prendra le nom de Queen Elizabeth Olympic Park après les Jeux, deviendra un lieu où les athlètes locaux pourront se réunir et pratiquer leur sport.

Le Parc olympique, un nouveau tremplin pour Londres ?

Les villages olympiques et paralympiques seront convertis en des milliers de logements à vendre et à louer, dont la moitié seront cédés ou loués à des prix abordables. Un nouveau campus, un centre de santé communautaire et d’autres nouveautés ailleurs dans le parc (qui prendra le nom de East Village) feront de ce lieu une nouvelle communauté dans la partie est de Londres défavorisée.

L’Olympic Delivery Authority affirme que 75 centimes de chaque livre dépensée résulteront en des investissements en faveur de la transformation à long terme de cette zone. Les Jeux feront suite à une longue période d’analyse sur la réussite des rénovations entreprises.

Le coût des Jeux de Londres 2012 a été estimé par les professeurs d’Oxford Bent Flyvbjerg et Allison Stewart comme les plus chers depuis ceux de Barcelone en 1992 (11,4 milliards de dollars, ou 9,3 milliards d’euros). Beijing 2008 a peut-être coûté plus d’argent, mais les autorités chinoises n’ont pas publié suffisamment de données pour pouvoir le vérifier.

Les affirmations selon lesquelles les contrats privés pour la sécurité auraient été mal exécutés posent déjà problème sur la scène politique.

Publié par Pierre Thouverez

Source : EurActiv.fr

Quand les écrans de nos smartphones sont aussi des panneaux solaires

Objectif premier des fabricants de téléphone : éviter que l’appareil ne se décharge totalement et perde la recherche réseau.

Les voilà heureux : le film solaire mis au point par Wysips répond à ces attentes.

En effet, le film est composé de cellules photovoltaïques, plus précisément de microbandes de cellules connectées entre elles.

Le composant est alors assemblé avec un réseau de lentilles qui, grâce à un effet d’optique, camoufle le film aux yeux de l’utilisateur.

Le système, un procédé holographique, consiste en fait à changer l’image avec l’angle de vue, rendant les cellules invisibles alors que la lumière est bien redirigée vers l’observateur. L’ensemble du composant fait 200 mm d’épaisseur et possède une transparence de 90%.

Ci-dessus : Ce film solaire est suffisamment transparent pour être positionné sur l’écran d’un téléphone et produire de l’énergie pour l’alimenter. (Copyright : Wysips)

Pourcentage minimal requis pour satisfaire aux besoins des fabricants de téléphone puisqu’ils n’acceptent pas plus de 10% de perte de luminosité. Fort de cette performance, Wysips a donc signé un contrat avec l’un des acteurs de la téléphonie, dont le nom reste confidentiel, et prévoit d’ouvrir une ligne de production dès l’été prochain sur le site de Rousset en Provence.

Le rendement du film solaire est de 7 mW/cm² et les équipes de Wysips visent les 10 mW/cm².

« Pour l’instant, nous utilisons la technologie silicium et de la micro-lithographie. Mais il existe d’autres process prometteurs qui pourraient nous faire atteindre un rendement de 18-20%. Nous regardons aussi du côté de l’organique car l’utilisation d’encres photovoltaïques nous permettrait de recourir à de l’impression plutôt qu’à de la lithographie et donc de pouvoir fabriquer de plus grandes surfaces tout en abaissant le coût de fabrication » précise Ludovic Deblois, PDG de Sunpartner dont Wysips est une des deux filiales.

Les applications du procédé s’étendent aux écrans tactiles, tablettes et autres e-book, mais aussi à l’horlogerie ou aux panneaux d’affichage.

Par Audrey Loubens, journaliste scientifique

 

« L’un des principaux enseignements de Fukushima : si l’on ne progresse pas, on augmente les risques »

Techniques de l’Ingénieur : Matthieu Schuler, la direction de l’IRSN a récemment été auditionnée par l’Autorité de sûreté nucléaire (ASN) concernant l’appui que vous lui avez apporté en 2011. Que retenir de cette audition ?

 

Matthieu Schuler : C’est un rendez-vous régulier qui ponctue l’interaction entre l’ASN et l’IRSN, et dresse le bilan de l’appui technique que l’IRSN apporte, dans le cadre d’une convention pluriannuelle, à l’ASN. En 2011, cet appui a été largement marqué par le contexte de Fukushima, qui a mobilisé beaucoup de notre temps et de nos ressources.

 

Techniques de l’Ingénieur : Quelles ont été les missions de l’IRSN dans ce contexte ?

 

Matthieu Schuler : Nos trois principales missions dans le contexte qui a suivi l’accident de Fukushima furent de procéder à l’examen des évaluations complémentaires de sûreté des installations nucléaires de France réalisées par les exploitants, de réfléchir et identifier des premières idées sur les recherches complémentaires à mener après Fukushima, qui se sont traduites par un appel à projets lancé par l’Agence nationale de la recherche (ANR) lancé début 2012, et de participer aux réflexions sur l’évolution du dispositif gouvernemental de gestion de crise nucléaire, notamment pour le rapprocher des dispositions de gestion des autres familles de crises. Au total, c’est près de 10% des ressources consacrées par l’IRSN à ses actions auprès de l’ASN qui ont été engagées dans l’après Fukushima.

 

Techniques de l’Ingénieur : L’IRSN a donc pris part dans l’évaluation des installations françaises menée par l’ASN sur leur sûreté, quelles en sont les principaux enseignements ? Quel va être le rôle de l’IRSN pour les prochaines années à ce sujet ?

 

Matthieu Schuler : Le bilan tiré par l’IRSN est globalement satisfaisant, mais il y a une marge de progrès, un noyau dur d’équipements dont l’objectif est d’assurer, en cas d’accident majeur, la pérennité des fonctions vitales des installations, à mettre en œuvre et qui nécessite du temps. La première étape va consister pour les exploitants de ces installations à présenter leurs propositions pour remédier aux faiblesses identifiées, aux vues des nouvelles exigences qu’impose l’accident de Fukushima. La seconde phase va consister pour l’IRSN à étudier si ces propositions sont suffisantes ou non. Viendra ensuite le temps de leur mise en place.

 

Le rôle de l’IRSN ne se limite donc pas aux évaluations menées en 2011, mais se prolonge dans les années à venir, notamment pour étudier l’impact de ses modifications sur la démonstration de sûreté des installations.

 

Techniques de l’Ingénieur : Quand peut-on donc espérer que la sûreté des installations françaises sera optimale ?

 

Matthieu Schuler : J’ai envie de répondre « jamais », car en matière de sûreté, le progrès doit être constant et permanent. L’évaluation est continue et l’amélioration doit l’être aussi, qu’il s’agisse du matériel ou des procédures. C’est l’un des principaux enseignements de Fukushima : si l’on ne progresse pas, on augmente les risques.

 

Techniques de l’Ingénieur : Concrètement, quelles seront les principales occupations de l’IRSN dans les années à venir concernant l’après Fukushima ?

 

Matthieu Schuler : En 2012, examiner les évaluations de sûreté d’un second lot d’installations moins prioritaires que celles abordées en 2011, et entamer les discussions techniques avec les exploitants des installations du premier lot, afin d’évaluer leurs propositions de sûreté renforcée. Sur la base de ces évaluations, l’ASN décidera si ces propositions sont satisfaisantes. Si celles-ci sont jugées acceptables, les exploitants devront dès 2013 proposer les modifications des installations en découlant, dont l’IRSN analysera alors la pertinence, la complétude et les modalités de mise en œuvre.

 

Au-delà de ce travail sur les installations françaises, l’IRSN s’investit sur d’autres fronts, qui vont de l’évolution de son organisation interne de gestion de crise jusqu’à des initiatives menées au Japon pour apporter des capacités d’analyse, de réflexion et se confronter aux contraintes de terrains rencontrées par nos collègues sur place.

 

Propos recueillis par Bruno Decottignies

«Faire de toute technologie émergente un nouvel atout»

Techniques de l’Ingénieur : Quelles sont les principales difficultés que vous rencontrez en tant que concepteur de l’équipement du chevalier noir ?

L. Fox : Fournir ses équipements à un homme risquant sa vie toutes les nuits face aux pires crapules implique les plus hautes exigences.

Véhicules, armes, armure : leur fiabilité doit être totale. Imagine-t-on le héros de Gotham hospitalisé suite à une mauvaise chute due à la rupture du câble grappin ? Cette option est inenvisageable.

Les matériaux utilisés doivent être donc à la fois résistants aux coups, à l’usure, aux températures extrêmes, et à tout ce qui est imprévisible. Au niveau de la voiture, une analyse tribologique poussée nous a permis de confirmer l’efficacité de la coque en graphène, par exemple.

Il faut donc déterminer dès la planche à dessin, ou plutôt dès le logiciel de simulation et de conception, les meilleurs choix possibles de matériaux fonctionnels parmi les céramiques, nanomatériaux, élastomères, matériaux magnétiques ou encore thermoplastiques, selon leurs propriétés et performances. Sans oublier les bioplastiques, car être un modèle de vertu au XXIème siècle, c’est rendre la Justice certes, mais en respectant l’environnement. M. Wayne est très attaché à cet aspect.

L’une des grandes forces de votre employeur est d’avoir en toute circonstance dans sa panoplie d’équipements l’objet lui permettant de se sortir d’un mauvais pas. Comment faîtes-vous pour toujours avoir une longueur d’avance ?

L. Fox : Je ne me prononcerai pas sur l’utilisation faite par M.Wayne du matériel que je conçois pour lui. Concernant le choix des items créés, il découle principalement de la volonté de M.Wayne, selon les manques ressentis sur le terrain. D’où le renforcement de l’armure avec des matériaux composites révolutionnaires, renforcés de fibres continues, afin qu’elle résiste aux mâchoires de molosses.

Dans les autres cas, les équipements sont le fruit d’un profond travail de R & D mené selon une stratégie prédéfinie d’application des dernières technologies aux besoins du chevalier noir. Comme une entreprise conçoit ses produits pour répondre au mieux aux attentes de ses clients potentiels, je m’applique à faire de toute technologie émergente un nouvel atout pour M.Wayne dans ses virées nocturnes.

Le tout en respectant autant que faire se peut les exigences environnementales les plus strictes.

N’est-ce pas un combat de trop lorsqu’on se déplace avec ce qui s’apparente à un tank, tirant indifféremment des roquettes dans chaque obstacle rencontré ?

L. Fox : Des progrès sont toujours possibles, mais en mêlant travaux sur les batteries, la mécanique, la maitrise des consommations énergétiques ou encore en favorisant la chimie verte, on peut réduire de façon conséquente l’empreinte environnementale des matériels et installations. Mais je ne vous mentirai pas, l’isolation de la cave est encore perfectible…

Propos presque recueillis par C. Kent

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Photo : Wikimedia Commons/Wikibofh & Alexander Horn

Texte : Bruno Decottignies

Fukushima : une catastrophe d’origine humaine, pas naturelle

Cette commission a mené un travail de recherche approfondie, avec des entretiens auprès de 1 176 personnes, pendant plus de 900 heures lors des 6 derniers mois… et de façon totalement indépendante.

Le rapport publié le 5 juillet désigne clairement, pour la première fois, des responsables : TEPCO, mais aussi le manque de réactivité des agences gouvernementales japonaises. Le rapport souligne et étudie également les aspects culturels, pointant l’extrême respect et la soumission à l’autorité inhérent à la culture japonaise.

La Commission d’experts était dirigée par Kiyoshi Kurokawa, ancien président du Conseil Scientifique Japonais, qui a écrit, dans le rapport que la fusion “ne peut être considérée comme une catastrophe naturelle. Ce désastre est humain, car il aurait pu et aurait du être prévu et évité.” Le rapport ajoute que “les causes directes de la crise étaient toutes prévisibles, bien avant le 11 mars 2011.”

Les membres de la commission écrivent, dans leur rapport, que “[la catastrophe] a été le résultat de la collusion entre le Gouvernement japonais, les régulateurs et TECPO, ainsi que du manque de gouvernance de ces instances. Nous en concluons que l’accident est d’origine humaine. Les causes profondes étaient organisationnelles“. Le rapport blâme tout particulièrement l’opérateur TEPCO pour avoir failli dans sa mission à renforcer, améliorer les capacités de résistances de la centrales face à une catastrophe naturelle, et critique également la NISA (Agence du sûreté nucléaire japonaise) et le METI (ministère de l’économie et de l’industrie japonais) pour avoir échoué dans leur mission de contrôle.

“Une arrogance impardonnable”

La Commission pointe qu’en 2006 la NISA avait ordonné des travaux d’amélioration dans le système anti-sismique de la Centrale de Fukushima Daiichi. TEPCO a volontairement ignoré cette directive et l’autorité de contrôle n’a pas fait de suivi, auprès de l’opérateur, ne contrôlant pas la mise en oeuvre de sa demande.

 

 

“La commission a relevé une ignorance et une arrogance impardonnable pour toute personne ou toute organisation travaillant dans le domaine du nucléaire. Nous avons découvert un mépris pour la sécurité du public.” peut on ainsi lire dans le rapport.

Rappelons que la catastrophe a contraint 150 000 personnes à quitter leur maison, en plus de libérer des quantités importantes de substances radioactives à des kilomètres autour de la centrale.

De manière significative, le rapport de la Commission remet en question les assertions de TEPCO selon lequel l’accident et la situation de criticité des réacteurs de Fukushima sont dûs au Tsunami qui avait suivi le séisme de magnitude 9…

Un positionnement jugé faux par les experts : selon eux, Tepco a mal évalué la probabilité d’un tsunami de cette envergure et n’a pas pris les dispositions nécessaires, alors que cette éventualité avait été testée ! En 2008, Tepco avait simulé un tsunami de plus de 15 m de haut, dont les vagues atteignaient la centrale Fukushima.

Aucune initiative n’a toutefois été prise par la suite, car ils ont jugé peu probable qu’une telle catastrophe survienne, précisent les experts. “il est impossible de limiter la cause directe de l’accident au tsunami, sans preuve de fond. La commission estime qu’il s’agit d’une tentative d’éviter la responsabilité en mettant tout le blâme sur le [tsunami] inattendu. ” écrit la Commission.

Un Gouvernement qui a failli à sa mission de protéger les citoyens !

Le rapport a également critiqué l’incapacité du gouvernement à gérer efficacement la crise après l’accident : pour les experts “les gouvernements passés et en place à ce moment-là, ont failli à leur devoir de protéger la vie des gens et la société“.

Par exemple, dans les jours qui ont suivi la catastrophe, un porte-parole du gouvernement a déclaré que les évacuations ont été engagées “juste au cas où”, plutôt que d’informer les résidents des dangers réels à la suite de grands panaches radioactifs.

La Commission déplore également une mauvaise communication, tant entre les techniciens qu’entre les autorités. Ces dernières ont d’ailleurs rapidement été blâmées pour avoir tardé à révéler la gravité de la situation et à évacuer les zones touchées.

Ce rapport soulève ainsi des questions de fond, que tout pays nucléarisé devra se poser en toute transparence dans les années à venir. Il montre à quel point des changements radicaux sont nécessaires et doivent être engagés, sur la responsabilité, l’encadrement, et la nécessité de contrôle de l’industrie nucléaire par des autorités … indépendantes !

 

Publié par Pierre Thouverez

Sources : Blog Fukushima, IRSN, Greenpeace

Fukushima, une situation toujours hors de contrôle

Suite à une panne du système de refroidissement de la piscine 4, on a appris qu’il n’y avait pas de système de secours, et que l’eau de la piscine se réchauffait de 10 °C par 24 heures.

Si le refroidissement de la piscine n’était pas assuré, il suffirait de quelques jours pour que l’eau de la piscine soit portée à ébullition.

Le 1er juillet, Tepco a réussi à rétablir le système, mais la piscine 4 commençait déjà à produire un panache blanc, comme en témoigne cet instantané de la webcam Tepco :

 

Des complications énormes apparaissent également au fil des missions de dosimétrie : Que ce soit dans l’unité n°2 ou l’unité n°3, d’éventuelles missions humaines semblent extrêmement compromises en raison des niveaux de dose excessifs relevés dans les étages inférieurs de ces bâtiments.

Tepco voudrait rechercher puis colmater les fuites constatées au niveau des confinements (le tore fait partie du confinement) afin de tenter de repérer l’emplacement du combustible fondu, à la condition qu’il se soit arrêté au niveau du radier, ce qui reste une supposition de moins en moins crédible.

Le paradoxe de la chambre de suppression

TEPCO, avec un optimisme à toute épreuve, semble croire que le corium se situe sur le plancher de la salle de suppression, qui est recouvert sur plusieurs mètres d’une eau extrêmement contaminée.

Afin de s’occuper du combustible, il faudrait transvaser cette eau à un autre endroit. Mais si l’on procède ainsi, le combustible fondu étant probablement encore très chaud, la radioactivité deviendra intense et le corium s’échauffera certainement un peu plus.

On ne peut vider l’eau mais on ne peut observer ni travailler si cette même eau est présente. Décidément, les réponses humaines semblent de plus en plus limitées… Et l’opération « arrosage » du combustible fondu se confirme mois après mois comme étant l’une des plus grandes erreurs de la gestion initiale de cette catastrophe hors-norme.

Par pierre Thouverez

Vers une électricité 80% renouvelable aux Etats-Unis

110 experts provenant de 35 organisations, dont des laboratoires scientifiques nationaux, des industries, des universités et des organisations non gouvernementales ont collaboré à la réalisation de cette étude financée par le gouvernement américain. Il s’agit de l’étude la plus complète et la plus approfondie jamais réalisée aux USA.

« Les énergies renouvelables peuvent jouer un rôle bien plus important qu’on ne le pensait auparavant », y affirment les co-auteurs. C’est une évolution majeure dans le positionnement officiel du Département à l’énergie du gouvernement américain, et particulièrement bienvenue dans le contexte des bruits que font courir dans les médias les défenseurs des énergies non durables à propos des problématiques d’intermittence et de capacités de stockage.

Les experts ont focalisé sur un scénario à 80%, un niveau qualifié de “facilement accessible”. La faisabilité d’un tel mix répondant parfaitement à la demande des consommateurs a été étudiée avec de très hautes résolutions temporelle et spatiale, et sur la base des technologies disponibles dès aujourd’hui sur le marché, et de milliards de données météo (vent et ensoleillement). L’ensemble des états américains continentaux contribue au mix. Certains états sont dominés par le solaire, d’autres par l’éolien.

Les experts du NREL montrent qu’il est possible d’avoir 50% d’énergies renouvelables fluctuantes (éolien et solaire) dans le mix américain, sans aucun problème de gestion des fluctuations, auxquels s’ajoutent 30% d’hydro et de biomasse, soit un total de 80% de renouvelables. Cela suppose de recourir à plusieurs outils de flexibilité, dont la création d’un super-réseau électrique, la gestion intelligente de la demande et la mise en place de centrale hydro modulables et de centrales à biomasse dédiées à la gestion des fluctuations éoliennes et solaires.

Les problématiques d’intermittence et de capacités de stockage ne sont plus un obstacle

Le scénario 80% renouvelables en 2050 comprend 439 GW d’éolien (contre 50 GW installés aux USA aujourd’hui) et 150 GW de solaire PV.  La puissance industrielle des USA permet d’envisager sans problème d’installer 10 GW d’éolien par an pendant 38 ans. Selon les experts du NREL, il n’existe aucune contrainte au niveau de la capacité de production des technologies considérées, de la fourniture en matières premières et en main d’œuvre. Ceci est parfaitement en phase avec les conclusions d’une étude menée par Stanford (Jacobson et al). Sur le plan environnemental, plus le niveau d’éolien et de solaire est élevé, plus la ressource eau douce est économisée.

L’électrification du parc automobile américain ne conduira qu’à une augmentation modérée de la demande électrique aux USA. Selon l’Electric Power Research Institute, « Des études récentes indiquent que si les voitures électriques constituaient la moitié du parc automobile US, une hausse de seulement 8% de la génération électrique serait suffisante ».

Par Olivier Danielo, journaliste scientifique

 

En savoir plus :

Livre blanc : JO 2012, 10 constructions exceptionnelles pour le Londres du futur

Débutés il y a cinq ans, pour un coût pharaonique (le budget initial a été multiplié par quatre), ces travaux vont complètement bouleverser le paysage londonien : Parcs urbains, moyens de transports, installations sportives, réseau énergétique… c’est toute un ville qui se transforme, tout en pensant à l’après-jeux.

En effet, certaines installations évolueront après l’extinction de la flamme olympique. Ce dossier présente par le biais visuel les principaux travaux, toujours en cours pour certains, qui permettront le déroulement de cet événement sportif majeur.

L’essor fulgurant du QR code

Inventé en 1994 par l’entreprise japonaise Denso-Wave, le QR code est un code-barre à deux dimensions (2D) pouvant stocker un grand nombre d’informations. Il se distingue du code-barre traditionnel (1D) car il contient des informations lisibles horizontalement et verticalement. Pour lire un QR code, il suffit de posséder un téléphone portable équipé d’un appareil photo et d’une application permettant la lecture dudit code.

Rapide à scanner – le sigle provient d’ailleurs de l’appellation « Quick Response » –, le QR code peut renvoyer vers un lien de différente nature. Cela peut être du texte, une adresse URL, une carte de visite et bien d’autres types d’informations. D’une relative simplicité d’utilisation, le QR code est un outil technologique qui se destine au grand public. Aussi, rien d’anodin à ce que son usage ait tendance a se généraliser depuis quelques temps.

Les utilisations du QR code sont multiples, bien que son emploi soit plus répandu dans le domaine de l’art et du design, de la publicité et du marketing, du tourisme et de la mode, voire de la création de T-shirt (QR Empire, par exemple). Véritable outil marketing, les marques n’hésitent pas à se servir de ce petit carré mosaïque pour attiser la curiosité des gens. Il s’agit finalement d’un mode de communication ludique auquel le client prend part activement. Cela crée une forte interaction et donne le moyen au consommateur de vivre une expérience. Très largement exploités par les publicitaires, les QR codes intégrés dans le graphisme des pubs permettent d’apprendre de nouvelles informations.

Aujourd’hui, il est courant de retrouver sur les produits un QR code. Là encore, les raisons varient. S’il s’agit d’un produit bio, le QR code peut renseigner les origines et le parcours. Dans d’autres cas, il peut renvoyer vers des recettes de cuisines, des méthodes de bricolage… Son utilisation dans le milieu médical n’est pas encore répandue, mais une société sarthoise a eu l’idée d’apposer un « QR code d’urgence » sur un casque seulement lisible par les équipes du Samu. Dans ce cas précis, il se révèle utile pour déterminer le profil d’un blessé en un clin d’œil et connaître les personnes à contacter.

Cet outil, devenu quotidien pour certains, risque bien de devenir incontournable par les possibilités quasi infinies qu’il offre. Toujours plus populaire, le QR code souffre néanmoins de quelques défauts majeurs. Premièrement par la population qu’il touche : un public principalement amateur de nouvelles technologies, un peu « geek ». Ensuite, il est nécessaire d’être détenteur d’un smartphone ou autre portable fonctionnant sous Android et de télécharger une application permettant la lecture du QR code. Plus grave, tous les sites ne disposent pas de contenu optimisé en vue d’une utilisation sur portable. Et lorsque l’utilisateur n’est pas rompu à ce genre de technologies, un QR code mal formaté se révèle non seulement agaçant mais peut aussi signifier la fin de sa curiosité. D’autant que les explications concernant cet outil ne sont pas toujours données.

Les français seraient les 5e plus gros utilisateurs de QR code. Et compte tenu des avancées technologiques, ce phénomène n’est pas prêt de s’inverser. À moins bien sûr que le QR code devienne obsolète, supplanté par la réalité augmentée beaucoup plus interactive. En attendant, de beaux jours se profilent et qui sait quelles inventions liées au QR code seront imaginées dans le futur.

Par Sébastien Tribot, journaliste

60 success stories industrielles initiées par les instituts Carnot

Pour rappel, le réseau des instituts Carnot a été créé en 2006 avec pour objectif  la mise à disposition des capacités de recherche publique pour les entreprises. Un institut Carnot est une structure de recherche qui a été labélisée, à l’issue d’un appel à candidatures, pour sa capacité à déployer une activité de recherche partenariale de qualité, soit la recherche au service des entreprises et des collectivités territoriales.

Forts de nombreux succès, les 34 instituts ont été renouvelés en 2011. Avec un volume d’affaires de 350 M€ avec les entreprises, les instituts Carnot pèsent plus de la moitié de la recherche public/privé en France, avec l’ambition d’atteindre les 450 M€ en 2015. Parmi les nombreux projets réalisés, soixante ont été sélectionnés dans cet ouvrage, en mettant l’accent sur l’apport de la recherche menée par les laboratoires pour l’innovation dans les entreprises ainsi que sur le gain pour l’entreprise en termes de positionnement concurrentiel et de gain de part de marché.

Les 60 projets ont été classés selon 6 grandes thématiques couvertes par le réseau des instituts Carnot, en réponse aux enjeux économiques et sociétaux d’aujourd’hui : Énergie, Propulsion, Transport / Mécanique, Matériaux et Procédés / TIC, Micro et Nano Technologies / Construction, Génie civil, Aménagement du territoire / Environnement, Ressources naturelles, Chimie / Pathologies, Nutrition, Technologies pour la santé. On retrouvera ainsi pour la mécanique par exemple, la mise au point d’un procédé écologique pour le remplacement du cadmiage qualifié pour l’aéronautique, le développement de casques de pilotes de chasse plus sûrs ou encore la fabrication d’orthèses pour lutter contre les troubles respiratoires du sommeil.

Cet ouvrage est accessible en version numérique ici

Rendez-vous les 3 et 4 octobre à Lyon pour la cinquième édition des rendez-vous Carnot : www.rdv-carnot.com

Par Audrey Loubens, journaliste scientifique

Ethique : la performance à tout prix implique-t-elle la contorsion des règles ?

A l’aube de l’ouverture des Jeux Olympiques de Londres, du départ du Tour de France cycliste et de la clôture de l’Euro de football, la conférence organisée le 29 juin par l’EDHEC sur son campus parisien tombait à point nommé pour s’arrêter un instant sur les limites acceptables ou pas qu’entraîne une recherche effrénée de performance tant dans les manifestations sportives que dans l’activité industrielle et commerciale des entreprises. En d’autres termes, « Altius, Citius, Fortius », la devise olympique chère au baron Pierre de Coubertin et démiurge des J.O, est-elle le carburant d’une saine et respectueuse émulation ou le terreau d’une éthique bafouée pourvu que le résultat soit au rendez-vous ?

La compétition est-elle d’un bénéfice justifié ?

Arjen Robben : son obsession de performance individuelle a nui à l’équipe des Pays-Bas à l’Euro 2012

Pour Geert Demuijnck, la notion de compétition est communément admise car consubstantielle à l’existence même de la vie. Sans pousser jusqu’à un impitoyable darwinisme échevelé, l’être vivant est très tôt confronté à la rivalité. Qu’on le veuille ou non.

De même, l’organisation de la société regorge en son sein de ces multiples rivalités qui sont globalement acceptées dans la mesure où elles profitent à l’innovation, au progrès, à l’amélioration du bien-être des citoyens et des consommateurs.

Dans la vie de l’entreprise, la tension entre équipes peut donc constituer un moteur d’efficacité et de motivation à la condition expresse que celle-ci soit clairement modulée et régulée pour ne pas générer des effets pervers comme la frustration, la désagrégation de l’esprit collectif ou l’individualisme forcené. A cet égard, Geert Demuijnck cite non sans ironie la déroute enregistrée par l’équipe de football des Pays-Bas lors de l’Euro 2012. Cette dernière figurait pourtant parmi les formations avec le plus de talents individuels dans l’effectif sélectionné. Le problème est qu’elle n’a jamais su combiner avec succès les forces des uns et des autres, chacun étant plus préoccupé de garder le ballon et tenter l’exploit individuel plutôt qu’alimenter la performance collective. De son côté, l’entraîneur n’a jamais réussi à imposer des règles de jeu aux egos surdimensionnés de ses joueurs. Par ses dribbles solo à répétition, l’attaquant Arjen Robben est probablement l’illustration la plus symptomatique d’une culture de compétiteur peu soucieux de ses partenaires.

Il n’empêche que lorsque cet instinct de compétition est régulé avec doigté, subtilité et flexibilité, le bénéfice devient alors très tangible tant pour une équipe sportive qu’une entreprise. A condition d’en définir précisément les contours admissibles ou pas. Or, c’est précisément toute l’extrême difficulté de l’exercice que constate Geert Demuijnck lorsqu’il est amené à intervenir au sein de grandes corporations qui affrontent parfois des concurrents moins pointilleux sur les règles et plus soucieux de performance pure.

Se battre à armes égales : une vue de l’esprit ?

Signature officielle de la loi Sarbanes-Oxley en 2002

Sur les marchés industriels, la quête absolue de performance peut induire des schémas qui s’avèrent in fine nuisibles.

Geert Demuijnck cite notamment la règle du « Winner takes all » qui dans le sport constitue l’aboutissement d’un tournoi, d’une course ou d’un championnat. Quoiqu’il advienne, il n’y aura qu’un unique vainqueur au final. Transposé dans l’univers entrepreneurial, la règle peut vite devenir dangereuse avec une société raflant l’intégralité d’un marché et laissant du coup ses compétiteurs en rade.

C’est justement dans cette optique que des régulations sont apparues dans l’économie moderne allant jusqu’à des lois garantissant l’éthique de pratiques industrielles et commerciales comme par exemple la loi Sarbanes-Oxley créée en 2002 dans la foulée des retentissantes faillites frauduleuses d’Enron et de Worldcom.

Selon Geert Demuijnck, ces garde-fous sont nécessaires pour maintenir une compétitivité sans abus majeurs. Néanmoins, il remarque que certains secteurs poussent à l’excès de barrières pour limiter l’arrivée de nouveaux entrants comme ce fut le cas pendant longtemps en France sur le marché des opérateurs télécoms. Au-delà de ces pratiques anti-concurrentielles, il soulève également un autre paradoxe que certaines compagnies rencontrent : comment appliquer les règles d’une compétition équitable sans s’affaiblir lorsqu’un de vos adversaires réussit mieux tout en s’affranchissant plus aisément de certaines considérations éthiques ?

Lire la suite ici

Par Olivier Cimelière / Le blog du Communicant 2.0

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous ! « 

Lien « probable » entre radioactivité et cancer

Florent de Vathaire, directeur de recherche en épidémiologie à l’Inserm, explique avoir pu, “en rassemblant de nombreux éléments (…), construire un faisceau de présomptions qui permet de dire que le lien entre les retombées radioactives et les cancers est vraisemblable pour certains des cas expertisés”.

Ces rapports d’expertise ont été réalisés à la demande de la juge d’instruction, Anne-Marie Bellot, responsable de l’enquête ouverte à la suite de la plainte déposée fin 2003 par l’Association des victimes des essais nucléaires (Aven).

Ils accréditent l’existence d’un lien probable pour 6 personnes sur les 15 qu’il a expertisées, précise Le Parisien, qui a pu consulter les documents.

Mais l’expert nuance : “D’un point de vue scientifique, on ne pourra jamais affirmer avec certitude telle ou telle causalité, et ce, pour une raison simple : ces cancers ou ces leucémies ne sont pas uniquement causés par les radiations.”

Après Fukushima, retour sur les faibles doses

Il précise qu’il souhaite également “lancer rapidement une étude globale sur les Polynésiens qui étaient âgés de moins de cinq ans à l’époque des essais”, car “on sait aujourd’hui avec certitude, des études récentes le prouvent, que de faibles doses de radioactivité peuvent avoir de graves conséquences sur la thyroïde des jeunes enfants comme le déclenchement de cancers ou d’autres pathologies”. 

L’expert déplore n’avoir pas eu “accès à toutes les données”. “Il reste des informations classées secret-défense. En plus, à l’époque, les instruments de contrôle des radiations qu’utilisaient l’armée et le CEA n’étaient pas adaptés pour détecter toutes les formes d’exposition aux rayonnements”, souligne-t-il.

Une information judiciaire contre X a été ouverte en septembre 2004 à Paris relative aux conséquences sur les personnes civiles et militaires qui y assistaient des essais nucléaires français, menés au début des années 1960 au Sahara et jusqu’à 1996 en Polynésie française. Quelque 150 000 civils et militaires ont participé aux 210 essais nucléaires français conduits de 1960 à 1996 au Sahara algérien et en Polynésie française.

Au-delà du cas frano-français, les conclusions de la justice devraient intéresser beaucoup de monde, à commencer par les japonais. Autour de la zone de Fukushima, des manifestations de femmes ont eu lieu cette année : ces femmes affirment que beaucoup d’enfants ont développé des maladies chroniques et des leucémies à la suite de la catastrophe. La Tepco et le gouvernement japonais ont toujours répondu que les « faibles doses » ne pouvaient en aucun cas être responsables de ces maladies.

Par Pierre Thouverez

Sources : Le Parisien

PSA s’effondre

12 juillet 2012. Philippe Varin, Président du Directoire de PSA Peugeot Citroën, officialise les rumeurs : suppression de postes et fermeture d’usine. Anticipant l’onde de choc, Philippe Varin préfère même faire son annonce hors caméra…  Comment PSA a pu en arriver là ? Le déclin du constructeur automobile s’est joué en trois temps.

Premier acte : une santé financière excellente. Rappelons qu’en 2010, les ventes mondiales affichaient des chiffres record : une augmentation de 13 % pour 3 602 millions d’unités vendues, dont 9.8 % pour les voitures et utilitaires légers. A l’époque, le directeur des marques du groupe, Jean-Marc Gales, faisait remarquer qu’ « une forte proportion [des] ventes est désormais réalisée hors d’Europe ». En effet, les marchés automobiles mondiaux ont crû de 10 % en 2010, tirés par la Chine (+ 30 %) et l’Amérique latine (+ 14 %) alors que l’Europe était déjà en baisse de 4 %.

Deuxième acte : premiers signaux d’alerte ignorés. Malgré ce constat, les chiffres des ventes en 2011 restant bons avec 3 500 millions d’unités écoulées, le directeur des marques ne fait pas remonter l’information, induisant peut être Philippe Varin en erreur. Ce dernier ne fait donc rien pour réduire les stocks et limiter la production des usines française, se retrouvant avec une surcapacité de production de 20 %. Or, stocker coûte cher, très cher. Jean-Marc Gales sera d’ailleurs remercié en décembre. De son côté, Renault a déjà commencé à limiter ses stocks.

Après avoir renouer avec les bénéfices en 2010, l’année 2011 affiche un bénéfice net du groupe en chute libre de 48,1%. Plus précisément, son chiffre d’affaires a progressé de 7 % à 59,9 milliards, mais avec un résultat opérationnel courant en recul de 27 % à 1,3 milliard d’euros. Surtout, celui du secteur des voitures devient critique avec une perte de 92 millions.

Dernier acte : effondrement de la branche automobile. L’année 2012 commence sous de mauvais auspices : les chiffres des ventes se dégradent dès le premier semestre avec une baisse de 8 %. Le taux moyen d’utilisation des usines européennes du Groupe s’est détérioré à 76 %, contre 86 % en 2011. Taux encore plus faible pour les petites voitures, secteur sur lequel PSA Peugeot Citroën réalise 42 % de ses ventes, quand ses concurrents fabriquent essentiellement ces modèles dans des pays à bas coûts.

Le destin de l’usine d’Aulnay, site où n’est fabriqué que la C3 s’assombrit. Sachant que le site de Poissy dédié à la Peugeot 208 et les Citroën C3 et DS3 est lui aussi en surcapacité. Rassembler la production de la C3 sur un seul site devient évident, la fermeture du site d’Aulnay, inévitable.

Et malgré ce que peuvent en dire les syndicats ou les politiques, la branche automobile de PSA est bel et bien devenue un gouffre financier, le groupe n’étant sauvé que par son activité de finance et de crédit. Cette fois, il n’y aura pas de deus ex machina.

Par Audrey Loubens, journaliste scientifique

(Crédit photo : AFP)

Le Livre Blanc de l’incinération des déchets ménagers

À en croire ce qui se dit ou s’écrit ici ou là, l’incinération est une plaie : elle  empoisonne la population, elle coûte très cher, elle empêche la prévention des déchets, le recyclage et le compostage, elle produit énormément de CO2, elle n’est en rien une énergie renouvelable, elle se développe à vitesse « grand V » en France mais pas chez nos voisins européens, les exploitants des usines ne sont pratiquement pas contrôlés et font ce qu’ils veulent…

Ce petit livre fait le point sur ces idées reçues, les dissèque, fait la part du vrai et du faux, sources à l’appui.

Il présente aussi les propositions des professionnels pour tirer le meilleur parti de l’énergie des déchets, réduire nos émissions de gaz à effet de serre et produire plus d’énergie d’origine renouvelable. Il entend ainsi contribuer au débat nécessaire sur le traitement de nos déchets.

Plus d’infos : [email protected]

SVDU

Le SVDU (Syndicat national du traitement et de la Valorisation des Déchets Urbains et assimilés) est le syndicat professionnel rassemblant les principaux opérateurs de la valorisation énergétique des déchets ménagers en France (incinération, méthanisation, gazéification) ; soit, au total, 90 % de la capacité d’incinération du parc français. Le SVDU est aussi adhérent au CEWEP (Confederation of European Waste to Energy Plant ; 2e pays adhérent après l’Allemagne), à la FNADE (Fédération nationale des activités de la dépollution et de l’environnement), elle-même membre de la FEAD (Fédération européenne des activités du déchet et de l’environnement).

 

L’essentiel de Reach (juillet) 1/2

 

L’IARC classe les fumées de diesel comme cancérogènes certains

L’IARC – International Agency for Research on Cancer (Centre international de recherche sur le cancer – CIRC) vient d’ajouter les gaz d’échappement des moteurs diesel à la liste des agents cancérogènes certains (groupe 1), l’exposition aux fumées de diesel augmentant les risques de cancers du poumon et favorisant la survenue de cancer de la vessie. L’exposition aux fumées et gaz d’échappement diesel est aujourd’hui considérée en France comme la plus fréquente des expositions à un agent cancérogène sur le lieu de travail précise l’INRS. Le rapport de l4IARC est consultable sur : http://press.iarc.fr/pr213_E.pdf

Substances enregistrées

28/06/2012

La base de données de l’ECHA contient, à ce jour, 5 386 substances et des informations provenant de 27 040 dossiers d’enregistrement REACH. 

http://echa.europa.eu/information-on-chemicals/registered-substances

Mise à jour de la liste des substances susceptibles d’être enregistrées au 30 mai 2013

28/06/2012

L’ECHA a mis à jour la liste des substances qui seront enregistrées à la deadline du 31 mai 2013. Cette liste est disponible sur : http://echa.europa.eu/reach-2013

L’EFSA recommande l’approche SFT pour l’évaluation des risques chimiques

02/07/2012

L’Autorité européenne de sécurité des aliments (EFSA) a publié un nouvel avis scientifique sur l’utilisation potentielle de l’approche dite du seuil de préoccupation toxicologique (SPT) pour estimer les risques possibles pour la santé humaine liés à de faibles niveaux d’exposition à des substances chimiques présentes dans l’alimentation humaine et animale, pour lesquelles les données toxicologiques disponibles sont limitées ou inexistantes. Lorsque les données existantes sont insuffisantes pour réaliser une évaluation des risques, l’approche SPT est un outil scientifique qui peut être utilisé pour aider les responsables des politiques à protéger les consommateurs. L’avis est consultable sur : 

http://www.efsa.europa.eu/fr/press/news/120702.htm

Mise à jour de la FAQ européenne CLP

02/07/2012

L’ECHA a mis à jour la FAQ européenne CLP. Elle contient Elle contient des révisions ainsi que de nouvelles questions/réponses. La FAQ est disponible sur : 

http://echa.europa.eu/fr/support/faqs/clp-frequently-asked-questions

Mise à jour de la FAQ sur les demandes (inquiry) et l’identification des substances

03/07/2012

L’ECHA a mis à jour la FAQ relative aux inquiry (démarche par laquelle une entreprise informe l’ECHA d’un enregistrement pour pouvoir être mise en relation avec les membres du forum) et à l’identification des substances. Cette version n’est, pour le moment, disponible qu’en anglais. http://echa.europa.eu/documents/10162/13648/inquiry_qa_en.pdf

Mise à jour de la FAQ européenne REACH 4.0

04/07/2012

L’ECHA a mis à jour la FAQ européenne REACH 4.0. Elle contient cinq nouvelles FAQ sous le thème information au sein de la chaîne d’approvisionnement (information in the supply chain). La FAQ est disponible sur : . 

http://echa.europa.eu/fr/support/faqs/frequently-asked-questions/frequently-asked-questions-about-reach

Futurs candidats pour l’autorisation : deux évènements vous attendent en octobre 2012

04/07/2012

L’ECHA organise début octobre, deux évènements à destination des futurs candidats à l’autorisation. Les 1er et 2 octobre, un séminaire est organisé à Helsinki et portera sur le processus d’autorisation, les outils et les guides mis en place pour aider les futurs candidats. L’ECHA organise les 2 et 3 Octobre un atelier pour aborder l’analyse des alternatives et l’analyse socio-économique. Ces éléments sont indispensables lors du dépôt du dossier d’autorisation. Les inscriptions pour les deux événements sont ouvertes jusqu’au 27 Août 2012.

Consultation publique pour la restriction de quatre phtalates

06/07/2012

Les parties concernées sont invités à commenter le projet d’avis du comité d’analyses socio-économique (SEAC) sur une proposition de restriction visant à limiter l’exposition des humains à quatre phtalates – les DEHP, DBP, BBP, et DIBP – présents dans des articles de consommation. La date limite pour les commentaires est fixée au 3 Septembre 2012.

Plus d’information sur : 

http://echa.europa.eu/web/guest/restrictions-under-consideration

Modification du règlement CLP

11/07/2012

Le règlement européen CLP relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges, vient de faire l’objet d’une modification destinée à l’adapter au progrès technique et scientifique par un règlement paru le 11 juillet au Journal officiel de l’Union Européenne. La modification porte sur l’annexe VI, partie 3, qui contient la liste des substances dangereuses pour lesquelles une classification et un étiquetage harmonisés ont été adoptés au niveau communautaire. Ces modifications sont applicables à compter du 1er décembre 2013.

Les fournisseurs ont toutefois la possibilité d’appliquer les nouvelles classifications harmonisées avant le 1er décembre 2013, et d’adapter l’étiquetage et le conditionnement en conséquence. La publication au JOUE est disponible sur : 

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:179:0003:0010:FR:PDF

La nouvelle version de REACH-IT est en ligne

11/07/2012

L’ECHA a mis en ligne la nouvelle version de REACH-IT. Cette nouvelle version doit être utilisée pour soumettre les inscriptions et dossiers à l’ECHA. A partir de ce jour, l’ECHA ne pourra accepter que les dossiers préparés avec IUCLID 5.4. Ceci s’applique à tous les types de dossiers préparés dans IUCLID et soumis via REACH-IT ou par un formulaire en ligne (ex : autorisation, demande d’un nom chimique de remplacement).

Les guides pour la création, la vérification, et la soumission des dossiers à l’aide de IUCLID / REACH-IT ou le WebForms ont été mis à jour et sont disponibles sur le site Web de l’ECHA. Les plug-ins sont également disponibles sur le site de IUCLID.

http://echa.europa.eu/en/view-article/-/journal_content/59a6b9fa-9895-4720-ab7d-b017f470db2a

REACH-IT

https://reach-it.echa.europa.eu/

Site de IUCLID

http://iuclid.eu/

Conférences en ligne UIC/MEDDE

L’UIC, en partenariat avec le Ministère de l’écologie, du développement durable et de l’énergie (MEDDE), organise de nouvelles sessions de conférences en ligne. L’inscription est gratuite. Prochaines dates de ces conférences : 

  • 13 septembre 2012 – Déclarant principal : quelles sont vos obligations ? [Inscription en ligne]
  • 28 septembre 2012 – L’évaluation de la sécurité chimique et le rapport sur la sécurité chimique [Inscription en ligne]
  • 9 octobre 2012 – Que faire à réception d’une fiche de données de sécurité étendue ? [Inscription en ligne]
  • 25 octobre 2012 – REACH et exemptions : soyez vigilants ! [Inscription en ligne]
  • 15 novembre 2012 – Les outils informatiques liés à REACH [Inscription en ligne]
  • 22 novembre 2012 – Le processus d’autorisation et les obligations résultant de l’inclusion d’une substance dans la liste candidate [Inscription en ligne]
  • 4 décembre 2012 – Enregistrement REACH et PME  [Inscription en ligne]
  • 14 décembre 2012 – Déclarant membre : préparez votre dossier d’enregistrement [Inscription en ligne]
 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :