INP INNOV’ : Evénement scientifique à l’INP Toulouse

Cet événement sera pour les partenaires scientifiques, économiques et institutionnels de l’établissement de découvrir les plus récentes avancées technologiques dues aux laboratoires et aux chercheurs de l’INP Toulouse : brevets, innovations, thèses, publications scientifiques…

L’occasion aussi de récompenser certains parcours de recherche, plusieurs thèses de doctorat et brevets d’invention, et de mettre en lumière des partenariats industriels à l’impact majeur. Parmi les avancées scientifiques 2011‐2012, soulignons la participation de l’INP Toulouse au séquençage du génome de la tomate, ses innovations au service du vin, ou encore ses travaux de recherche en génie des procédés durables.

S’ils concourent à l’acquisition de connaissances nouvelles, et s’ils enrichissent bien sûr toutes les formations, les travaux de recherche ont évidemment une finalité économique. Aujourd’hui, en France, chacun appelle de ses voeux un sursaut industriel. Dans le seul but d’y participer davantage d’année en année, comment donc évaluer la contribution de certains travaux de Recherche à la création de valeur par les entreprises et au renouveau économique national ?

Quelques éléments de réponse pour l’INP Toulouse :

  • C’est en général après une période assez longue que la Recherche produit des résultats, et donc des connaissances (15 à 30 ans). L’amélioration des connaissances est obtenue par des laboratoires qui fonctionnent depuis de longues années. On ne saurait donc sérieusement évaluer la recherche sur des durées trop courtes.

  • S’agissant des transferts de technologie (rendre utilisables les résultats des recherches), l’INP Toulouse est un des acteurs clés de TOULOUSE TECH TRANSFERT, la Société d’Accélération de Transfert de Technologies (SATT) créée en février 2012, qui investit beaucoup de moyens pour réaliser des prototypes utilisables par les entreprises.

  • S’agissant d’aider à la création de start ups, l’accompagnement technologique de l’INP Toulouse est qualitatif. Cela veut dire accompagner un doctorant ou un chercheur à créer son entreprise. C’est aussi accompagner technologiquement un projet industriel (via des chercheurs, des moyens
    et des logiciels), au point que le porteur du projet s’implante en Midi Pyrénées.

  • Enfin, s’agissant de propriété intellectuelle et industrielle (stratégie de protection), l’impact de l’INP Toulouse est significatif. Citons la mise au point d’un arôme synthétique de truffe pour une PME de Cahors qui a conquis le marché américain ; un système d’agitation pour une société
    d’équipements agro‐alimentaires désormais leader sur son marché ; la stratégie de protection d’une société d’engrais chimiques devenue N°1 mondial de la fertilisation ; ou encore la mise au point et la protection de bio‐matériaux pour une entreprise de prothèses humaines métalliques.

Sans parler des très grands groupes industriels avec lesquels l’INP Toulouse mène des recherches.

Quelle création de valeur ?
La création de valeur générée par la Recherche peut être évaluée au regard des 3 critères projet, propriété industrielle et transformation.

Critère Projet ?

L’INP Toulouse a aujourd’hui 450 contrats de recherche partenariale en cours, et le rythme de nouveaux contrats est d’environ 120 par an. Ces contrats représentent entre 15 et 20 M€ de ressources externes chaque année pour l’INPT.

Critère Propriété Industrielle ?

L’INP Toulouse possède un portefeuille actif de 100 brevets, et dépose en moyenne 10 brevets par an depuis 2007. En 2012, 12 nouveaux brevets auront été déposés. Ce rythme devrait atteindre 20 brevets déposés par an à partir de 2015.

Enfin, le critère de transformation effective dans les entreprises partenaires ?

L’évaluation reste difficile à réaliser, vu les difficultés de traçabilité, et pour des raisons de confidentialité.

Publié par Pierre Thouverez

L’électronique éphémère, une solution durable ?

Que se cache-t-il vraiment derrière le concept « d’électronique éphémère », développé par une équipe de scientifiques de l’université de l’Illinois à Urbana-Champaign ? Présentée comme révolutionnaire et comme une solution éco-friendly à l’accumulation et à la pollution engendrée par les appareils électroniques ne fonctionnant plus ou tout simplement obsolètes, se pourrait-il que des universitaires américains aient trouvé une parade écologique simple et durable ?

Un peu plus qu’un simple concept

« L’électronique éphémère », développée par Suk-Won Hwang et son équipe du campus d’Urbana-Champaign, se trouve pourtant déjà à un stade un peu plus avancé que si ce n’était qu’un simple concept. L’équipe de scientifiques américains a en effet annoncé, dans un article publié dans la revue de référence Science, avoir mis au point le matériel nécessaire à la conception de circuits électroniques pouvant se dissoudre et disparaitre, circuits dont la durée de vie, limitée, pourra être programmée à l’avance. L’incidence sur la durée de vie du circuit électronique serait telle que ces derniers pourraient, d’après les chercheurs, avoir une longévité allant de seulement quelques jours – voire quelques minutes ! – jusqu’à plusieurs années. Définir la durée de vie d’un appareil en fonction de son utilisation, voilà un concept qui n’a rien de nouveau, mais qui prend ici une toute autre mesure.

Combinaison de soie, de silicium et de magnésium

Les circuits électroniques éphémères, à proprement parler, sont composés d’un mélange de soie provenant de la chenille du bombyx du murier (le fameux ver à soie), de silicium poreux ainsi que de magnésium sous forme d’électrodes. C’est la soie qui sert ici d’ossature à l’ensemble, structure sur laquelle viennent se placer des couches extrêmement fines de silicium poreux (fabriquées à partir de substrat monocristallin, par anodisation électrochimique) et le magnésium. C’est encore la soie qui sert à déterminer le taux de dissolution du circuit et des différents composants électroniques.

Vitesse de dissolution

Coauteur de l’article, Fiorenzo Omenetto, ingénieur en biomédecine à l’université Tufts près de Boston, dans le Massachusetts, est parvenu à comprendre comment ajuster au mieux les propriétés des protéines contenues dans la soie, afin que celle-ci se dégrade suivant une palette d’intervalles particulièrement large. La soie est d’abord dissoute, puis elle est ensuite recristallisée. En contrôlant le processus de recristallisation, Omenetto et les chercheurs peuvent alors avoir une incidence significative sur la future dissolution du circuit ou des composants électroniques, incidence suffisante pour contrôler la vitesse de dissolution et donc contrôler la durée de vie du circuit électronique.

Biocompatibilité des circuits ?

La composition des circuits ainsi élaborés permettrait donc à l’ensemble de se composter facilement, renvoyant à la préhistoire de l’électronique les déchets métalliques et autres déchets électroniques auxquels nous sommes tristement habitués. Un circuit électronique – ainsi qu’un boitier adapté – se dégraderait donc sans difficulté, jusque dans… le corps d’un être vivant. Les matériaux sont effet biocompatibles et, parce qu’ils sont très fins et solubles, peuvent se dissoudre dans une quantité d’eau particulièrement faible.

Composé uniquement de matériaux biodégradables à base de soie, de silicium poreux et de magnésium, boosté avec une substance antibactérienne, les chercheurs ont mis au point un dispositif thermique permettant de contrôler une infection chez un rongeur, dispositif comprenant l’un de ces fameux circuits électroniques innovants, ainsi qu’un boitier dégradable. Lors d’un test majeur de biocompatibilité de cette nouvelle plateforme, l’équipe de Hwang et d’Omenetto a implanté le fameux dispositif dans une souris, dispositif dont la décomposition était programmée par sa durée de vie définie, en étant tout simplement exposé aux fluides corporels du rongeur.

La plateforme a été implantée dans une zone infectée, et après trois semaines d’études et d’attente, les chercheurs ont non seulement constaté que l’infection avait presque disparu, mais également qu’on ne pouvait détecter l’implant que sous la forme de résidus, les pièces ayant rapidement été réduites à peau de chagrin.

De nombreuses applications

La découverte de la biocompatibilité des composants électroniques conçus sous le label « électronique éphémère » ouvre bien sûr tout un nouveau registre d’applications médicales : des implants éphémères pourraient permettre une diffusion médicamenteuse tout en assurant un suivi détaillé en parallèle, version évoluée des implants formés de polymères se dégradant selon la cinétique de diffusion nécessaire pour la délivrance de la dose du médicament prescrit.

Outre l’évident potentiel médical, ces nouvelles plateformes électroniques pourraient servir aussi bien à l’extérieur d’un immeuble que dans des cuves ou containers. Le groupe de chercheurs a par ailleurs déjà mis au point un transistor éphémère, des diodes, quelques capteurs thermiques et autres capteurs de tension, une photorésistance, quelques cellules photovoltaïques, ainsi qu’un récepteur radio, une antenne radio et… un appareil photo digital.

Gestion des déchets

Qu’un appareil électronique soit presque déjà obsolète au moment de l’achat n’y change rien : il est conçu pour durer. Une fois passés à la trappe, ils s’accumulent dans nos maisons, dans les centres de recyclage ou encore dans les décharges. L’électronique éphémère pourrait totalement chambouler notre conception de la gestion des déchets électroniques, et représenter une solution écologique innovante.

Ces recherches ont été rendues possible grâce à des financements de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Par Rahman Moonzur, journaliste scientifique

Everpurse, la pochette qui charge votre téléphone

Ne pas avoir à s’occuper de charger son téléphone (tout du moins ne pas avoir à y penser), pallier l’éventualité de ne plus avoir de batterie et s’assurer que l’on pourra rester connecté et joignable toute la journée, et en toute circonstance : d’aucuns pourraient qualifier ces petits tracas de « first world problems ». « Everpurse » est pourtant la solution.

Dans la lignée de la gamme de sacs créée par la marque américaine Fūl, allant du simple sac à dos au plus imposant sac de voyage permettant de charger la plupart de vos gadgets portables , Dan et Liz Salcedo, époux à la ville, ont développé « Everpurse », la petite pochette élégante qui recharge votre Smartphone. Il suffit de glisser le téléphone dans la pochette, qui trouvera facilement sa place dans n’importe quel sac, et le tour est joué.

L’accent est mis sur l’élégance de la pochette, car celle-ci est essentiellement destinée à un public féminin, femmes actives et « IT girl » en tête. Les hommes ne devraient pourtant pas se sentir en reste, d’après le couple à l’origine du projet, car la pochette peut être suffisamment neutre, et pourrait donc tout aussi bien finir dans le sac d’un homme que dans celui d’une femme. Près de 10 % des précommandes auraient d’ailleurs été effectuées par des hommes.

Transfert d’énergie sans fil par induction électromagnétique

Par contre, il n’y a pas de secret : pour que la batterie de votre téléphone puisse se recharger une fois dans la pochette, il faut bien évidemment s’occuper d’abord de charger… la pochette. « Everpurse » est équipée d’une batterie qu’il faut environ six heures pour charger complètement, à l’aide d’un bloc de chargement sur lequel on vient disposer la pochette. Une fois chargée, la batterie d’Everpurse peut en principe réanimer votre Smartphone jusqu’à deux fois, triplant donc ainsi son autonomie.

Lorsque la batterie de votre terminal est sur le point de rendre l’âme, il suffit de glisser celui-ci dans la pochette, et laisser la charge s’effectuer sans qu’il y ait besoin de s’en occuper. A l’intérieur de la pochette, pas de fil, la gravité s’occupe de brancher le téléphone sur le dock de chargement.

Le principe de l’induction électromagnétique n’a rien de bien nouveau et est connu depuis plus d’un siècle. Le principe de la recharge par induction, lorsqu’il concerne des appareils électroniques destinés au grand public, repose sur la circulation d’un courant entre deux bobines électriques électriquement isolées l’une de l’autre, la première se trouvant dans le bloc de chargement, et la seconde étant reliée à l’appareil que l’on désire recharger. Le transfert d’énergie se fait alors par couplage électromagnétique induit. Le système utilisé ici est le standard « Qi », développé par le consortium international « Wireless Power Consortium ».

Le couple Salcedo envisage à l’avenir la création d’une ligne de vêtements dont les poches joueraient le même rôle qu’Everpurse. A suivre…

Par Rahman Moonzur, journaliste scientifique

La guerre des brevets continue entre les deux géants Apple et Samsung

Après avoir perdu une première grosse bataille dans son procès qui l’opposait à Apple, le géant sud-coréen sort la tête de l’eau avec la levée de l’interdiction de vente de sa tablette Galaxy Tab 10.1 aux Etats-Unis. Ragaillardi, Samsung vient même de déposer une plainte devant la justice américaine pour violation de brevets concernant la technologie 4G utilisée par l’iPhone 5.

Bien que l’on comprenne parfaitement que Samsung continue son affrontement contre la marque à la pomme, le sud-corréen se sent obligé de se justifier dans un communiqué : « Nous avons toujours préféré rivaliser avec nos produits innovants sur le marché, plutôt que devant les tribunaux. Toutefois, Apple continue à mener des actions juridiques agressives qui limitent la concurrence. Dans ces circonstances, nous n’avons pas d’autre choix que de prendre les mesures nécessaires à la protection de nos innovations et de nos droits de propriété intellectuelle. ». C’est clair, Samsung est un adversaire sérieux.

Après s’être vu condamné à verser près d’un milliard de dollars à Apple, Samsung demande carrément l’annulation du procès. Son argument ? Le jury était partial. Et cela pourrait marcher car effectivement, le président du jury Velvin Hogan avait été ruiné suite à la perte d’un procès qui l’opposait à son employeur de l’époque, Seagate, dont Samsung est actionnaire…

Après « SmartphoneWars » et « Le Samsung contre-attaque », on attend le troisième volet de cette saga déjà culte, « Le retour du Galaxy »…

Par Audrey Loubens, journaliste scientifique

Déjà paru :

La formation en santé et sécurité au travail

Les acteurs sont multiples dans l’entreprise et à sa périphérie : chefs d’entreprise, médecins du travail, « préventeurs », encadrement, opérateurs, représentants du personnel au CHSCT (Comité d’hygiène, de sécurité et des conditions de travail), concepteurs des espaces et équipements de travail. Chacun a un rôle spécifique à jouer et doit être sensibilisé, motivé et mis en capacité – par sa formation initiale et la formation continue – de contribuer au processus de maîtrise du risque au niveau de responsabilité qui est le sien, compte tenu de l’autonomie et des moyens dont il dispose.

La formation, au-delà du développement des capacités qu’elle produit, est aussi un véritable moyen de communication directe et de promotion de la prévention dans les entreprises.

En savoir plus

Formation en maintenance

Depuis plus de vingt ans, les exigences du marché ainsi que les mutations des systèmes productifs ont conduit à des évolutions structurelles profondes de la maintenance industrielle. Ces évolutions se sont traduites également par la nécessité, pour les équipes de maintenance, d’acquérir et de développer un large éventail de compétences débordant largement les compétences techniques classiques qui étaient, jusqu’à une époque récente, l’apanage des techniciens de maintenance. Dans certains cas, la fonction maintenance a dû vivre une véritable « révolution culturelle » tant le « métier » de maintenance a évolué : dépanner et/ou réparer ne suffit plus ; il s’agit de plus en plus de garantir au meilleur coût la disponibilité requise pour les systèmes de production et même d’accroître leurs performances. Ces impératifs ont conduit la fonction maintenance à définir quatre axes stratégiques de développement :

  • structurer une fonction « méthodes maintenance » dans le cadre d’un processus qualité et dans le respect des normes de maintenance ;
  • intégrer la maintenance « de premier niveau » dans les tâches dédiées aux utilisateurs ;
  • optimiser la politique de maintenance par le développement raisonné de la maintenance préventive ;
  • externaliser tout ou partie de la maintenance.

Les compétences requises pour les mainteneurs se présentent ainsi selon un éventail très vaste :

  • capacité à choisir une politique de maintenance appropriée à la criticité des équipements concernés ;
  • prise en compte des aspects financiers (coûts…) dans le cadre d’une gestion optimisée des biens tout au long de leur cycle de vie ;
  • organisation et planification des interventions ;
  • compétences techniques allant des technologies traditionnelles (mécanique, électricité…) aux technologies de pointe présentes maintenant dans tous les moyens de production (automatismes, informatique industrielle…).

Contrairement aux utilisateurs qui sont de plus en plus éloignés des interventions directes sur les machines, leurs actions étant dans la presque totalité des cas relayées par les incontournables automates, les mainteneurs n’ont vu leur travail que peu impacté par le développement de l’automatisation. Maintenir un matériel nécessite toujours, et pour longtemps encore, d’intervenir directement sur la matière. C’est pour cela essentiellement que les formations à la maintenance doivent être solidement ancrées dans les technologies et les principes scientifiques sur lesquels elles reposent.

C’est pourquoi la formation des mainteneurs à tous les niveaux, que ce soit leur formation initiale ou la formation permanente tout au long de leur carrière, prend de plus en plus d’importance dans la maîtrise du processus maintenance. Jouant un rôle précurseur et sous la pression de quelques pionniers visionnaires, l’Éducation nationale a mis en place depuis bientôt vingt-cinq ans un ensemble de filières de formation couvrant les besoins de tous les niveaux hiérarchiques (la France est d’ailleurs le seul pays européen à avoir mis en place un système de formation complet et cohérent).

Parallèlement à cette structure nationale de formation initiale, un dispositif de formation permanente s’est développé progressivement en s’appuyant sur l’édition et la diffusion de l’ensemble des documents normatifs publiés par l’Afnor (Association française de normalisation) depuis 1978 et par le CEN (Comité européen de normalisation) depuis 1994. Actuellement, l’offre de formation, qu’elle soit initiale ou permanente, couvre l’ensemble des besoins et l’objet du présent article est d’en présenter la diversité et la richesse. Il reste cependant un paramètre important risquant d’avoir des répercussions sur la formation permanente en général : c’est l’application de la loi 2004-391 du 4 mai 2004 portant réforme du dispositif de formation professionnelle continue. Cette loi, dont il est trop tôt pour appréhender les conséquences, vient modifier de façon profonde le concept même de formation professionnelle tout au long de la vie, ne serait-ce que par la création du DIF (droit individuel à la formation) inscrit dans le Code du travail ou du parcours de professionnalisation. Certes, ce texte législatif fixe un cadre juridique général, mais, pour son application pratique, il laisse également une grande marge de manœuvre dans le cadre de négociations dans les entreprises, les branches professionnelles et les instances interprofessionnelles.

En savoir plus

Emplois des ingénieurs : ce qu’il faut savoir

Le salaire demeure attractif, pour certaines classes d’âge, il a même tendance à augmenter. Résultat, la part des ingénieurs craignant de perdre leur emploi est en baisse, ils ne sont plus que 6 % à se méfier de l’avenir. Quelques détails qu’il est bon de connaître si l’on souhaite devenir ingénieur.

  • Les ingénieurs français s’exportent toujours plus :

Fin 2011, on comptait 105 260 ingénieurs travaillant hors France, soit 15,2 % de la population totale des ingénieurs. Une proportion qui a augmenté de 16 % par rapport à 2010. Néanmoins, on constate que cette part des emplois à l’étranger décroît avec l’âge. Notamment chez les 40 ans et plus.

  • Le cas des ingénieurs non-salariés :

Concernant les ingénieurs non-salariés, leur effectif était estimé fin 2011 à 26 000, soit 3 % de la population totale des ingénieurs. Dans la plupart des cas, ce sont des travailleurs indépendants (à 36 %) ou des dirigeants d’entreprise (à 39 %). Le statut de non-salarié permet généralement de réaliser un projet personnel.

  • Salaires :

En 2011, les ingénieurs diplômés et salariés ayant le statut cadre, percevaient un salaire médian annuel de 54 000,00 €. Alors que le salaire moyen annuel était de 67 191,00 €. L’écart de salaire entre les 10 % d’ingénieurs les moins payés et les 10 % d’ingénieurs les mieux payés va de 1 à 3.

Le salaire varie et augmente proportionnellement avec l’âge puisqu’il est synonyme d’expérience. Ainsi, un débutant touche en moyenne 33 000,00 € l’année alors qu’une personne située dans la tranche d’âge des 35 à 39 ans peut gagner 57 000,00 €. Et en fin de carrière, c’est beaucoup plus. Entre 55 et 59 ans, le salaire moyen est de 90 739,00 €.

Avec l’âge, le salaire augmente, mais également l’écart des salaires hommes/femmes. Si le salaire d’un homme est systématiquement supérieur à celui d’une femme, l’écart a tendance à se creuser. Alors qu’il est de 6 % pour les débutants, il passe à 25 % (son point culminant) chez les 45 à 49 ans.

  • Les secteurs dans lesquels les ingénieurs sont employés :

En 2011, 47,8 % des ingénieurs étaient employés dans l’industrie, répartis dans des secteurs tels que l’aérospatial, l’armement, l’industrie chimique, la sidérurgie, l’assainissement de l’eau et j’en passe. En précisant toutefois, qu’une fois les activités des sociétés de services réaffectées aux secteurs pour lesquels elles exercent leurs missions, ce pourcentage monte à 56.

Comme il englobe les sociétés de services informatiques, les sociétés d’ingénierie, l’administration publique, les banques, le secteur de la santé, du transport ou encore de l’enseignement, 43,9 % des ingénieurs travaillent dans le tertiaire.
Il reste 6,1 % des ingénieurs dans la construction.

Par Sébastien Tribot, journaliste scientifique

Source : Enquête IESF 2012

La formation par apprentissage

On constate d’ailleurs que le nombre d’écoles délivrant le diplôme d’ingénieur et proposant une formation alternance école / entreprise est en augmentation constante. Aujourd’hui, plus de 70 écoles sur 200 proposent ce dispositif.

Retour sur ce phénomène

C’est en 1987 qu’apparaît une nouvelle législation ouvrant l’apprentissage à l’enseignement supérieur par le biais d’un cursus en deux étapes. Trois ans plus tard, les écoles et fédérations professionnelles proposent un système d’alternance plus abouti. Dès lors, certaines écoles intègrent l’apprentissage à leur cursus général. En quinze ans, le nombre d’apprentis est multiplié par 6,6.
En 2002, un peu moins de 1 400 ingénieurs diplômés sont passés par l’apprentissage, soit 5 %. En 2007, ils représentaient 7,5 % des ingénieurs diplômés en formation initiale puis 10 % en 2010.

Les raisons de ce succès grandissant

  • L’aspect financier est à mettre en avant. Les frais d’inscription sont pris en charge par les entreprises et l’élève perçoit un salaire. L’apprenti possède le statut de salarié et de fait les droits de tous les salariés.
  • L’un des arguments principaux est qu’il s’agit avant toute chose de se préparer de la meilleure manière possible à la vie professionnelle. Et faire son apprentissage dans une « bonne entreprise », en étant bien encadré par son tuteur tout en menant des projets intéressants offre une belle préparation. L’assimilation de la théorie se fait mieux pendant les périodes d’entreprise.
  • Après avoir passé le concours de sélection, le programme suivi est identique aux formations classiques, mais vu deux fois plus rapidement. En rajoutant à cela, les projets a effectuer en dehors du temps scolaire, l’investissement personnel est beaucoup plus poussé. Ce qui a tendance a responsabiliser les étudiants et a forger leur sens du travail.
  • Au sein de projets, les tâches a effectuer sont souvent plus larges et les responsabilités plus grandes. Le champ de compétence est mis à l’épreuve et l’expérience qui en découle, est valorisante.
  • Ces dix dernières années, les ex-apprentis ont su tirer parti des liens tissés avec leurs entreprises d’apprentissage pour s’insérer plus facilement. Ils sont davantage recrutés en CDI que les étudiants au cursus traditionnel.
  • L’apprentissage serait bénéfique à l’insertion, mais aussi tout au long de leur carrière. La progression de carrière n’est en rien entravée et le parcours est similaire à l’ensemble des ingénieurs.

Il s’agit d’une expérience favorable puisqu’en plus de bénéficier d’une formation d’ingénieur, les étudiants acquièrent une expérience professionnelle significative.
De nos jours, l’image de l’apprentissage a bien changé et les entreprises privilégient de plus en plus ce type de profil à l’embauche, avouant même y avoir recours dans une optique de prérecrutement.

Source :

« Il faudrait savoir prendre en compte la parentalité dans la vie de l’entreprise »

Quelles sont vos missions au sein d’IESF ?

À IESF, je suis au conseil d’administration et j’ai la casquette diversité-mixité. J’assure des réflexions autour de la diversité dans les métiers d’ingénieurs et scientifiques.

Qu’est-ce que l’association Femmes Ingénieurs ?

Femmes Ingénieurs fait partie du réseau IESF qui est en réalité une association d’associations. Il regroupe les associations des anciens élèves d’écoles d’ingénieurs, des Femmes Ingénieurs et des diplômés d’université qui ont des métiers semblables au métier d’ingénieur dans les entreprises. Femmes Ingénieurs   répond à plusieurs objectifs dont celui de faire connaître le métier d’ingénieur au féminin afin d’attirer plus d’étudiantes vers les formations d’ingénieur. L’association encourage les femmes ingénieurs dans la gestion de leurs carrières et leur assure une meilleure représentation auprès des pouvoirs publics.

Quel est votre avis sur la situation des femmes ingénieurs en France à l’heure actuelle ?

De nos jours toutes les écoles et les cursus sont mixtes. Il faudrait arriver à garantir un cursus de carrière équivalent à celui de nos collègues masculins.
Il faudrait savoir prendre en compte la parentalité dans la vie de l’entreprise : que ce ne soit pas considéré comme un frein ou un manque de disponibilité, y compris pour les papas. On peut avoir des a priori en se disant qu’une femme enceinte ne va pas dédier tout son temps à son travail parce qu’elle risque d’avoir des responsabilités familiales. Il s’agit d’une discrimination. Si un homme émet le souhait de s’occuper de ses enfants, parce qu’ils sont malades ou autre, ce n’est pas forcément bien vu non plus. L’égalité des femmes passera aussi par la reconnaissance de la parentalité, y compris du côté des pères.
Ce message doit venir d’en haut et devrait être proclamé comme une valeur.

Pourquoi sont-elles moins nombreuses que les hommes ?

À mon avis, c’est une représentation mentale au moment des choix d’orientation : les maths et la physique, ce ne serait pas pour les filles !
Le métier d’ingénieur est mal connu. Les ingénieurs, et particulièrement les femmes ingénieures, doivent faire un effort pour communiquer l’intérêt et l’importance de leur métier.
Aujourd’hui, les jeunes filles ont peu de modèles féminins pour s’identifier.
La société, les médias doivent faire des efforts pour mettre en valeur des parcours, et en se montrant proactifs pour mettre en valeur des femmes.
Montrer que choisir une orientation scientifique n’implique pas un renoncement à la féminité. Comme toutes les femmes, une ingénieure sait rire, s’amuser, être jolie, être, le moment venu, une maman accomplie.
Faire des sciences devrait faire rêver. Le rôle des médias est essentiel et la qualité des médias de vulgarisation (journaux, radios, télévision, internet….) devrait aller dans ce sens. De plus, il faut encourager les jeunes filles à oser, à avoir de l’ambition.

Quelles solutions pour améliorer la situation des femmes au sein des entreprises ?

On peut élargir sur la place des femmes dans l’entreprise. Je pense que les réseaux de femmes, sont intéressants. Qu’il y ait des réseaux de femmes dans les entreprises permet d’échanger entre elles, de partager du vécu, d’être une force de proposition vis-à-vis de la hiérarchie ou des instances dirigeantes. Tout cela pour faire en sorte que les femmes soient prises en compte.

Qu’aimeriez-vous ajouter ?

Je conseillerais la lecture « les femmes ingénieurs – une révolution respectueuse » de Catherine Marry.

Par Sébastien Tribot, journaliste scientifique

« Il est nécessaire d’être compétent, et de s’être préparé à s’adapter en permanence »

Commençons par une présentation de vous, votre parcours…

Ingénieur diplômé de Supélec, j’ai été d’abord spécialisé en électronique, puis en informatique, et j’ai également obtenu une maîtrise de physique à l’Université Pierre et Marie Curie. Bien plus tard j’ai été pendant un an auditeur au CHEAR (Centre des hautes études de l’armement), ce qui m’a familiarisé avec le monde de la Défense et son industrie. Par ailleurs, j’ai accompli la quasi-totalité de ma carrière dans le groupe IBM, où j’ai exercé à peu près tous les métiers : de la vente, de la technique, du produit, des services, de la planification, du terrain, du marketing. J’ai aussi dirigé à sa création une filiale conjointe d’IBM et de Dassault Electronique. Et j’ai achevé ma carrière en tant que directeur général des opérations d’IBM France. IBM m’a appris à écouter, la recherche de l’excellence et la primauté du client.

Depuis ma retraite il y a quelques années, j’ai repris d’autres activités dont plusieurs de nature associative, les plus importantes étant celles que j’exerce pour le compte des ingénieurs : j’ai conduit pendant trois ans l’Association des Supélec et je préside depuis deux ans maintenant IESF, le Conseil National des Ingénieurs et Scientifiques de France, parfois connu sous son ancien acronyme de CNISF.

En 2011 pour les Techniques de l’ingénieur, vous répondiez à la question « C’est quoi un ingénieur ? » par : « l’ingénieur, c’est celui qui fait que ça marche ». Pouvez-vous nous réexpliquer (brièvement) ce qu’est un ingénieur ?

Le terme d’ingénieur recouvre deux notions différentes : être ingénieur, c’est d’une part un métier, et d’autre part une formation. En termes de métier, il y a un certain nombre de caractéristiques. La première est le bagage scientifique et technologique qu’il faut avoir acquis. L’ingénieur est confronté sur le terrain à des problèmes concrets qu’il doit résoudre. Et son apport, sa valeur ajoutée, c’est d’imaginer une solution à partir de son expérience et de ses connaissances, et surtout de la réaliser. Cela implique un jugement, des choix, une prise de risque responsable, la conduite d’équipes et de projets. C’est un métier merveilleusement complet, au plan humain comme au plan technique.

Le terme d’ingénieur correspond aussi à un type de formation, puisqu’il y a un grand nombre d’ingénieurs qui ont obtenu leur diplôme de grande école mais qui exercent des métiers complètement différents. Lorsqu’un ingénieur va faire du conseil ou de la finance, en quoi est-il ingénieur ? En réalité, il exerce son activité avec le profil et les réflexes que lui a donné sa formation d’ingénieur.

Si l’on peut hasarder une comparaison, je dirais qu’un ingénieur diplômé grande école, c’est un peu le pendant dans le monde technologique et scientifique d’un diplômé de Sciences-Po : de même qu’un élève sortant de cette formation aura appris à faire une présentation en trois points, à argumenter ses démonstrations avec une approche des problèmes bien particulière et caractéristique de son cursus, un ingénieur aura lui pendant ses années de prépa appris à apprendre, bénéficié d’un socle général scientifique et technique complet pendant ses premières années de grande école, acquis des réflexes de rigueur de pragmatisme ainsi qu’une proximité quasi consanguine avec l’entreprise. Au sortir de sa formation, l’ingénieur aura une approche bien caractéristique des problèmes à traiter.

 

Concernant l’emploi des ingénieurs, quels sont les points fondamentaux de cette rentrée 2012 ?

Dans le contexte de crise actuelle, les ingénieurs sont touchés comme tout le monde. Cela dit, ils sont probablement moins frappés que d’autres professions. Je veux dire par là qu’on continue à avoir une offre de postes assez large. Le nombre de postes supplémentaires proposés chaque année correspond à peu près au nombre de nouveaux ingénieurs diplômés qui arrivent sur le marché en France. Le taux de chômage actuel chez les ingénieurs se promènerait aux alentours de 4 %, pourcentage qui d’après les économistes serait un minimum pour garder une mobilité et une flexibilité de l’emploi.

Les poches de difficulté que l’on peut constater portent surtout sur une partie des débutants (temps d’accès au premier emploi, variable selon les cursus), et sur les plus anciens (plus de 55 ans) qui sembleraient plus durablement touchés, même s’ils sont bien souvent sortis des statistiques (retraite ou préretraite).

La communauté des ingénieurs a une bonne dynamique. C’est une profession qui est jeune, plus de 60 % ont moins de 40 ans et elle continue à se rajeunir, ce qui est une bonne nouvelle pour la France. C’est aussi un ascenseur social, dans la mesure où par exemple une proportion croissante arrive depuis quelques années au diplôme d’ingénieur par la filière de l’apprentissage avec 11% pour les moins de 30 ans, à comparer avec 5 % sur la population globale des ingénieurs.
 
Ce que les gens ne savent d’ailleurs pas, c’est que dans les écoles d’ingénieurs un étudiant sur deux n’est pas passé par les classes préparatoires mais vient de toutes sortes d’autres formations (universités, etc…) à travers des passerelles.

Une autre bonne nouvelle est que la proportion de femmes ingénieurs est en augmentation. Bien que la progression soit encore beaucoup trop lente à notre avis : si l’on a en moyenne un peu moins de 20 % de femmes dans les écoles et dans le métier, pour les ingénieurs de moins de 30 ans cette proportion passe à 26 %, augmentation encourageante.

Le Figaro titrait récemment « Les ingénieurs ne connaissent pas la crise » ?

Il faut savoir qu’en vingt ans on a doublé le nombre d’ingénieurs diplômés chaque année en France. C’est une profession qui reste en croissance car les besoins sont importants. Aujourd’hui, de l’ordre de 32 000 nouveaux diplômés sortent des écoles. Évidemment si l’on compare avec la Chine et l’Inde qui forment chaque année un million d’ingénieurs les ordres de grandeur sont bien différents, mais nos ingénieurs sont appréciés et recherchés dans le monde.

L’autre point que l’on peut mentionner aussi, c’est qu’on aurait la place en France pour absorber de l’ordre de 10 à 15 000 ingénieurs supplémentaires chaque année. D’une part dans les PME/PMI qui sont encore très peu équipées en ingénieurs, et d’autre part dans les nouveaux domaines qui peuvent apparaître si l’on développe dans notre pays une véritable stratégie industrielle privilégiant quelques grands axes, et se traduisant par un investissement lourd en infrastructures, en formation et en programmes d’innovation.

Que donneriez-vous comme conseil à un ingénieur débutant sa carrière, « vos conseils en stratégie de carrière » ?

Il y a 25 ans on disait aux jeunes « si vous voulez y arriver, il faut accumuler les diplômes ». Aujourd’hui, c’est complètement dépassé. C’est bien d’avoir des diplômes, mais ce que les entreprises regardent surtout, ce sont les expériences. On cherche des gens qui ont des parcours diversifiés, comme par exemple une double formation dans le domaine ingénieur ou scientifique, en gestion, en médecine…

L’expérience internationale est aussi un type d’expérience variée. Beaucoup d’écoles d’ingénieurs ont intégré dans leur cursus une dimension internationale, et un stage de six mois voire plus à l’étranger est une pratique courante. Dans certaines écoles, c’est même en train de devenir une obligation.

Au niveau national, je recommanderais fortement le passage par une PME. C’est un choix qui n’est pas souvent fait par les ingénieurs, attirés par les grandes entreprises car ils pensent que ça facilitera l’accélération de leur carrière. Mais débuter dans une PME, c’est probablement la meilleure formation qu’on puisse avoir. On est forcé de se débrouiller, on n’a pas de services généraux ou fonctionnels derrière soi pour sous-traiter telle ou telle partie des problèmes. On a plus de responsabilités, on voit infiniment plus de choses que dans un grand groupe où les domaines de chacun sont souvent beaucoup plus spécialisés. Un démarrage de carrière dans une PME pendant au moins deux/trois ans est un investissement profitable par l’expérience que l’on peut y acquérir et réutiliser tout au long de la vie.

Au-delà de l’expérience professionnelle acquise, la légitimité d’un ingénieur, quelle que soit son orientation, reste néanmoins d’avoir un domaine de spécialité bien creusé, auquel il soit accroché, pour pouvoir être crédible. En résumé, il est nécessaire d’être compétent, d’avoir varié les expériences, et de s’être préparé à s’adapter en permanence.

Souhaitez-vous mettre des points en relief ?

Par rapport à leur importance réelle en France, je trouve qu’on entend trop peu parler des ingénieurs, qu’on les voit trop peu. Le message que je voudrais leur délivrer, c’est qu’il est important qu’ils aient un engagement beaucoup plus grand dans la vie publique, et qu’il faudrait une présence d’ingénieurs au gouvernement comme dans les instances parlementaires : entre l’Assemblée Nationale et le Sénat, il doit y avoir aujourd’hui une douzaine d’ingénieurs élus alors que nous représentons près de 4 % de la population active de ce pays. C’est dans l’air du temps : les ingénieurs vont s’engager beaucoup plus dans la vie publique, dans la vie de la Cité.

Par Sébastien Tribot, journaliste scientifique

Le photovoltaïque chinois soumis à une enquête européenne

Alors que la filière française du photovoltaïque est très affaiblie, l’Europe décide enfin de contre-attaquer : le 6 septembre, la commission européenne a lancé une enquête anti-dumping contre les fabricants de panneaux solaires chinois. Il était  temps ! Ce n’est pas un secret, la filière chinoise est très largement subventionnée par l’état, beaucoup trop. Grâce à ces aides, les producteurs chinois ont cassé les prix, produisant des panneaux solaires low-cost en très grande quantité.

Cet afflux de produits en total décalage avec la réalité de la demande a fait chuter les prix et propulser la Chine premier fabricant de panneaux solaires dans le monde, alors que la France mais aussi l’Allemagne, a vu ses entreprises mettre la clé sous la porte, incapables de s‘aligner sur des tarifs ultra-compétitifs.

Mais cela pourrait bien s’arrêter car les prix proposés par les chinois ne sont possibles que grâce aux subventions perçues. En effet, l’Europe s’engage dans une bataille déjà lancée par les Etats-Unis après que le ministère de l’énergie a jugé les subventions chinoises illégales. Les Américains ont réagi en jouant sur les droits de douane allant de 31% à 250% sur les panneaux solaires chinois. L’Europe aura-t-elle le courage de se protéger aussi efficacement ?

Il le faudrait, d’autant plus que 60% du marché chinois est…européen ! Un comble. Pour l’instant, la commission européenne se donne quinze mois pour déterminer si oui ou non les panneaux solaires chinois sont vendus à perte, mais pourrait augmenter les droits de douane d’ici à neuf mois.

Pour enfoncer le clou, l’association EU ProSun, déjà à l’origine de cette enquête de la commission européenne, vient de déposer une nouvelle plainte toujours auprès de la commission européenne pour dénoncer plus particulièrement les subventions publiques dont bénéficient les fabricants chinois.

D’après cette association regroupant des industriels européens du secteur photovoltaïque, la Chine subventionnerait ses fabricants par le biais de crédits à taux préférentiels dont les intérêts seraient en fait pris en charge par l’Etat. La commission européenne dira dans un mois et demi si oui ou non elle lance une deuxième enquête.

Par Audrey Loubens, journaliste scientifique

News Environnement : septembre 2012

Réparation d’une seule molécule d’ADN observée en temps réel

L’ADN étant sans cesse endommagé, les cellules mettent en oeuvre des mécanismes de réparation dont l’efficacité est redoutable. Une équipe de l’Institut Jacques Monod (CNRS/Université Paris Diderot), en collaboration avec des chercheurs des universités de Bristol, en Angleterre, et Rockefeller, aux Etats-Unis, vient de parvenir à suivre en direct, ceci pour la première fois,les étapes initiales de l’un de ces systèmes de réparation de l’ADN, le système TCR, sur un modèle bactérien.

Pour ce faire, les chercheurs ont utilisé une technique inédite de nanomanipulation de molécule individuelle grâce à laquelle ils ont pu détecter et suivre en temps réel les interactions entre les molécules en jeu sur une seule molécule d’ADN endommagée. Ils ont pu ainsi comprendre comment plusieurs acteurs interagissent pour réparer l’ADN avec une grande fiabilité. Ces travaux, publiés dans Nature, le 9 septembre dernier, visent à mieux comprendre l’apparition de cancers et comment ils peuvent devenir résistants aux chimiothérapies.

Source : http://www.bulletins-electroniques.com/actualites/70922.htm

Partenariat entre Airbus et la Chine autour des carburants alternatifs

Approfondir la durabilité des matières premières chinoises et évaluer la meilleure manière de soutenir le développement d’une chaîne de valeur afin d’accélérer la commercialisation de biocarburants destinés aux avions. Tel est le but du partenariat qui vient d’être conclu entre Airbus et l’Université de Tsinghua, en Chine, qui est l’une des institution d’enseignement leader dans le monde. Première étape de ce partenariat, évaluer les matières premières adéquates qui répondent aux critères écologiques, économiques et de durabilité sociale. Une seconde étape consistera à se concentrer sur les solutions de carburants alternatifs les plus prometteuses.

Une fois les premiers résultats obtenus, actuellement en cours d’analyse, il s’agira de sélectionner un certain nombre de matières premières, dont l’huile de cuisine usagée, ainsi que les algues. Cette étude de durabilité, placée sous la responsabilité de l’avionneur européen, devrait être achevée d’ici le début de l’année prochaine. Restera ensuite aux partenaires à industrialiser le procédé de production de carburants alternatifs afin d’obtenir des quantités durables de carburant pour avion à usage commercial. Précisons que ce partenariat s’inscrit dans l’objectif d’Airbus de mettre en place une chaîne de valeur sur chaque continent courant 2012. A ce jour, des chaînes de valeur de ce type existent déjà en Amérique latine, en Australie, en Europe, au Moyen Orient, et désormais en Asie avec ce partenariat avec l’Université de Tsinghua.

Source : http://www.bulletins-electroniques.com/actualites/70920.htm

Tumeurs digestives : nouvelle technique de résection par jet à haute pression pulsé

Pour traiter les formes précoces de cancer de l’oesophage, de l’estomac et du colo-rectum, c’est la Dissection Sous Muqueuse endoscopique (DSM) qui est utilisée aujourd’hui. Celle-ci consiste à enlever en une seule pièce la tumeur, incluant latéralement une marge de tissus sain. Un acte chirurgical long qui expose cependant le patient à des risques de perforation par lésion de la couche profonde musculaire pouvant atteindre 10%. D’où alors des conséquences post-opératoires imposant souvent une chirurgie en urgence. Développée par la société NETSIS, la technologie innovante de jet d’eau pulsé à haute pression, elle, permet de bien séparer la muqueuse de la couche musculaire. Elle facilite en effet la dissection par le bistouri électrique en isolant les attaches fibreuses à sectionner et en évitant les lésions de la couche musculaire.

Sélectionné par le Cancéropôle CLARA, dans le cadre de son appel à projets « Preuve du Concept », le projet Enki-HEH porte sur l’évaluation de cette nouvelle technique endoscopique de résection. Coordonnés par le professeur Thierry Ponchon, les essais pré-cliniques conduits chez le cochon ont d’ores et déjà permis de valider cette technique et de confirmer les bénéfices de la dissection par jet d’eau pulsé. En juin dernier a démarré un essai clinique sur 18 patients qui se poursuivra jusqu’en octobre prochain. Des essais multicentriques de grande envergure, à Marseille et Paris, sont d’ores et déjà envisagés à l’issue des résultats de ces premières évaluations cliniques. A terme, cette nouvelle technologie de résection des tumeurs superficielles du tube digestif pourraient être utilisée et diffusée en Europe au sein de centres de références.

Source : http://www.bulletins-electroniques.com/actualites/70918.htm

News Informatique : Septembre 2012

Cybersécurité : le prochain 11 septembre sera numérique

Cette semaine, les Etats-Unis commémoraient le onzième anniversaire des attaques du World Trade Center à New York. Cette tragédie a marqué le pays entier et a eu d’importantes répercussions dans de multiples domaines : politique, économique, sociétale, financier ou encore militaire pour n’en citer que quelques uns. En décembre 2001, le Congrès avait désigné le 11 septembre comme étant le « Jour des Patriotes », journée nationale de prière et du souvenir des victimes des attaques terroristes du 11 septembre 2001. Et cette année, à cette occasion, le sénateur républicain de l’Indiana, Dan Coats, a tenu à rappeler l’importance de considérer les cyber-attaques comme représentant la plus grande menace à venir. A cette occasion seulement ? Pas tout à fait.

Proposition de loi versus décret présidentiel

Le journal « The Hill » a en effet révélé la semaine dernière que la Maison Blanche préparait un décret présidentiel sur la cybersécurité, le Congrès ayant échoué cet été à faire adopter la proposition de loi sur la cybersécurité face au refus de la Chambre de Commerce américaine. Le sujet est donc sensible et l’équipe de Barrack Obama semble déterminée à renforcer la loi. Mais la méthode ne laisse pas les sénateurs républicains indifférents qui réclament un travail bipartisan républicain-démocrate sur une nouvelle proposition, en collaboration avec la Chambre de Commerce des Etats-Unis. Seulement, le Congrès ne dispose que de très peu de temps ce mois-ci avant la suspension prévue à l’occasion des élections.

Le contenu du décret présidentiel n’est pas encore connu, mais la proposition de loi sur la cybersécurité présentée par les sénateurs Joe Lieberman (Indépendant – Connecticut) et Susan Collins (Republicaine – Maine), elle, avait été dévoilée en Juillet dernier. Elle encourageait notamment les entreprises dites sensibles, telles que les centrales nucléaires, électriques, hydrauliques, les banques et autres industries vitales, a s’engager de manière volontaire à renforcer la sécurité de leurs réseaux et systèmes d’informations. Des règles et standards professionnels pour ces secteurs industriels seraient élaborées à cette fin, avec la collaboration du gouvernement. C’est ce dernier point qui a d’ailleurs conduit au refus de la proposition par la chambre de commerce en août dernier. Le projet présentait aussi un paragraphe sur l’amélioration du partage d’informations sur les menaces informatiques entre les agences gouvernementales et les entreprises pour mieux parer les attaques. Un autre paragraphe évoquait également le renforcement des efforts de recherche et développement dans le domaine de la cybersécurité ainsi que la modification de la loi sur la gestion de la sécurité des informations fédérales (FISMA).

Comment un programme informatique peut-il déplacer une armée ?

Les Etats-Unis cherchent à se protéger des cyber-attaques pour ne pas attendre une « cyber-catastrophe » avant d’agir. Et ils ne sont pas les seuls. Selon Christopher Painter, Coordinateur au Département d’Etat sur les sujets liés au cyberespace, un nombre croissant de pays se dotent d’une stratégie sur la cybersécurité nationale et organisent leur gouvernement autour de ce domaine. De même, les Etats-Unis multiplient les coopérations à l’international avec les proches alliés tels que la Grande-Bretagne, le Canada, la Nouvelle-Zélande ou encore l’Australie. Il faut dire que les cyber-attaques ont pris une ampleur conséquente ces dernières années et que le pays, avec l’un des réseaux informatiques le plus développé de la planète, semble être une cible privilégiée. Et cela a de quoi effrayer les Etats-Unis qui ont adopté en juillet 2011 une stratégie défensive assez radicale. Le Secrétaire adjoint à la Défense a en effet déclaré que le gouvernement américain se réserve le droit de répondre à une importante cyber-attaque par une réponse militaire justifiée et proportionnelle.

Mais si la Maison Blanche renforce sa défense, elle souhaite également étoffer son arsenal offensif. Elle a ainsi révélé au mois de Juin dernier le programme « Jeux Olympiques », lancé par Georges W. Bush, destiné à développer des cyber-armes. Les Etats-Unis n’en sont pas à leur coup d’essai puisque le gouvernement américain a officiellement déclaré être l’auteur ou co-auteur du ver Stuxnet. Ce programme avait pour but la destruction physique des centrifugeuses iraniennes, une première mondiale. De nombreux experts dont les ingénieurs de Kaspersky jugent par ailleurs que les virus, vers et autres programmes malveillant tels que Flame, Duqu et Gauss ont un lien entre eux et sembleraient provenir de la même source que Stuxnet, Les Etats-Unis. Ces noms ont fait quelques éclats dans la presse internationale en affectant notamment les systèmes d’information des banques libanaises, israéliennes, mais aussi des infrastructures physiques telles que les installations nucléaires iraniennes, une première mondiale.

Source : http://www.bulletins-electroniques.com/actualites/70957.htm

L’ordinateur nuit à la mémoire : des scientifiques mettent en garde contre « la démence numérique »

Le professeur de psychiatrie Manfred Spitzer (basé à Ulm, Bade-Wurtemberg) se prononce après des recherches longitudinales contre un contact précoce et fréquent des enfants avec les ordinateurs et l’Internet. « Les médias numériques sont nuisibles au développement de la mémoire, ne sont pas adaptés à l’encouragement de l’apprentissage et provoque des dépendances », a déclaré le chercheur dans une publication. Il remet donc en question l’utilisation des médias numériques dans les processus d’apprentissage, soutenant que « si l’ordinateur prend en charge une part du travail mental traditionnel, travail mental qui est à la base de développements cognitifs du cerveau, alors il peut arriver que l’utilisation trop fréquente de l’ordinateur nuise au développement de mécanismes cognitifs importants, comme ceux de la concentration et de la mémoire ». Les études PISA, dans lesquelles les données de près de 300.000 élèves de 15 ans avaient été recueillies, ont montré que les adolescents ayant le plus accès à un ordinateur personnel à l’école étaient également ceux ayant en moyenne les moins bonnes notes. Et si le développement de nouvelles compétences informatiques ne saurait être mesuré dans le système scolaire traditionnel, le « zapping » d’information généré par les technologies numériques est pour les études citées le facteur le plus marquant de perte de concentration prolongée.

Le neuroscientifique, dont le livre intitulé « La démence numérique. Comment pouvons-nous apporter un nouvel apprentissage à nos enfants » vient de paraître, se base sur les résultats d’une enquête récente menée par 62 professeurs d’universités allemandes. Selon cette étude, des compétences importantes comme la logique argumentative, la capacité de saisir ou résumer un texte et la capacité de concentration seraient amoindries chez les plus jeunes étudiants universitaires ayant grandi avec l’avènement de l’Internet. Selon les chercheurs en neurosciences, ces déficits seraient dus à une sorte d’overdose numérique, un mécanisme chimique de stress cérébral causé par le zapping informationnel. Ainsi Spitzer ne se prononce pas en faveur du principe généralisé du travail rapide et multitâche, pourtant valorisé dans le monde professionnel. Selon lui, les recherches récentes montrent que cette tendance développe surtout chez l’individu un mécanisme de « saut » rapide entre diverses informations peu ou mal traitées, individu qui s’entraînerait ainsi lui-même à un trouble de l’attention.

Source : http://www.bulletins-electroniques.com/actualites/70864.htm

Des chercheurs imaginent le futur du cloud computing

Les plates-formes de cloud computing IaaS (« Infrastructure as a Service ») actuelles permettent à des clients de louer des serveurs virtualisés et du stockage à la demande, généralement à l’heure. Mais une nouvelle étude annonce qu’à l’avenir, ces services pourraient être vendus d’une manière beaucoup plus efficace et fine, avec des ressources spécifiques, tels des cycles d’horloge (CPU cycle) et de la mémoire, qui pourraient être loués pour quelques secondes.

Ce modèle de cloud computing a été nommé RaaS (« Resource as a Service ») par les chercheurs du Technion Orna Ben-Yehuda Agmon, Muli Ben-Yehuda, Assaf Schuster et Dan Tsafrir, qui ont écrit un article1 sur le sujet qui à été présenté ce mois-ci lors de la conférence USENIX HotCloud ’12 à Boston. L’idée de posséder ses propres ressources informatiques s’effrite au fil du temps, écrivent-ils dans l’article. « Avant le cloud computing, la durée de vie utile moyenne d’un serveur acheté était d’environ trois ans. Avec l’avènement de l’hébergement Web, les clients peuvent louer un serveur sur une base mensuelle, » disent-ils. L’apparition services comme l’ « Amazon’s Elastic Compute Cloud » (EC2) a permis de réduire les durées de location à quelques heures seulement.

Les chercheurs soutiennent qu’avec l’évolution du marché du cloud computing le modèle de location horaire ne sera pas suffisant : « Si vous payez pour une heure ou une partie de celle-ci, vous allez perdre en moyenne une demi-heure sur la durée de vie de chaque machine virtuelle », indique l’article. « Si vous ne payez que pour une seconde ou une fraction de celle-ci, alors vous ne perdrez une demi-seconde sur la durée de vie de chaque machine virtuelle. »

Dans une plates-forme de cloud computing RaaS, les clients pourraient acheter des « graines de machines virtuelles » contenant des ressources de base ainsi qu’un « agent économique » permettant l’ajout de ressources supplémentaires. L’agent « prendra des décisions sur la base des prix courant de ces ressources, de la charge que la machine doit gérer, et de l’évaluation subjective du client de ces différentes ressources au cours du temps. » Les logiciels des fournisseurs de services de cloud computing pourront également incorporer des agents économiques pour défendre leurs propres intérêts. Les agents des clients pourraient également négocier avec ceux contrôlés par d’autres clients qui pourraient avoir des ressources supplémentaires à vendre. Les prix des différents types de ressources se décideraient ainsi en fonction du marché selon la loi de l’offre et de la demande.

Afin de concrétiser le concept de cloud computing Raas il faudra de nouveaux types d’applications et de logiciels système, déclarent les chercheurs. « Dans un nuage Raas, les machines virtuelles ne savent jamais avec précision la quantité de ressources qui pourra être mis à leur disposition à un instant donné, » disent-ils. « Cela oblige les logiciels s’exécutant dans ces machines virtuelles à s’adapter à la disponibilité des ressources et d’exploiter toutes les ressources à leur disposition, quand il les ont. »

Source : http://www.bulletins-electroniques.com/actualites/70812.htm

L’essentiel de Reach (Septembre)

Conférence en ligne le 5 octobre 2012

L’ECHA organise le 5 octobre prochain, une conférence en ligne sur le processus et la mise en pratique de l’évaluation des substances.

Brochure « Travail et produits chimiques : liaisons dangereuses »

Le site internet http://www.travailler-mieux.gouv.fr signale la mise à jour en septembre 2012 de la brochure de la DIRECCTE des Pays de la Loire, intitulée « Travail et produits chimiques : liaisons dangereuses ». Cette brochure grand public passe en revue les problématiques les plus courantes concernant les agents chimiques dangereux et les CMR au travers de 121 questions-réponses.
Ce guide est accessible sur : http://www.travailler-mieux.gouv.fr/IMG/pdf/Guide-DIRECCTE_version_2-002_2012-09-21_.pdf

Bisphénol A : demande d’un nouveau classement

L’Agence nationale de sécurité sanitaire (Anses) annonce avoir déposé, auprès de l’Agence européenne des substances chimiques (ECHA) et au nom des autorités françaises, une proposition de révision du classement du bisphénol A (BPA), en vue d’un classement plus sévère de cette substance en tant que toxique pour la reproduction pour l’homme. Depuis 2002, cette substance est classée par l’Union Européenne comme toxique suspecté pour la reproduction. Plus d’information sur :
http://www.actu-environnement.com/ae/news/bpa-effets-sanitaires-classement-reprotoxique-interdiction-16667.php4#xtor=ES-6

REACH : nouvelles restrictions

(21/09/2012)
Plusieurs règlements européens viennent modifier la réglementation REACH, et notamment son annexe XVII concernant les restrictions applicables à la fabrication, à la mise sur le marché et à l’utilisation de certaines substances chimiques. Le cadmium et le plomb sont concernés, ainsi que le mercure et les composés du phénylmercure.
Règlement pour le cadmium :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:252:0001:0003:FR:PDF
Règlement pour le plomb :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:252:0004:0006:FR:PDF
Règlement pour le mercure :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:253:0001:0004:FR:PDF
Règlement pour le phénylmercure :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:253:0005:0007:FR:PDF

Consultation pour l’arrêté Transports de marchandises dangereuses

Le Ministère de l’Ecologie, du Développement Durable et de l’Energie lance une consultation jusqu’au 5 octobre d’un projet d’arrêté relatif au transport de marchandises dangereuses par voie terrestre (arrêté TMD). Cet arrêté doit être révisé pour entrer en vigueur au 1er janvier 2013. Le texte de révision intègre les modifications des réglementations internationales sur le transport. Plus d’information sur :
http://www.consultations-publiques.developpement-durable.gouv.fr/modification-de-l-arrete-du-29-mai-2009-relatif-aux-transports-de-marchandises-dangereuses-par-voies-

Avis sur des propositions d’harmonisation de C&L (classification et étiquetage)

(21/09/2012)
Le comité d’évaluation des risques ou RAC a adopté cinq avis sur des propositions pour l’harmonisation de la classification et de l’étiquetage. Le RAC a accepté de classer : Cymoxanil, 4-vinylcyclohexene (VCH), Fenoxycarb, Tralkoxydim et Penconazole. Plus d’informations sur : http://echa.europa.eu/fr/view-article/-/journal_content/d75fd896-5cf6-4c12-83e1-6502f94c7f5b

Nouvelle consultation publique pour un C&L harmonisé

(25/09/2012)
L’Agence européenne des produits chimiques (ECHA) lance une nouvelle consultation publique sur une proposition de classification et d’étiquetage harmonisés du spirotetramat (N° CAS : 203313-25-1), un insecticide largement utilisé en agriculture. Les commentaires sont à soumettre jusqu’au le 9 novembre 2012. Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/aa17fb9c-e6b9-4aee-bc54-5563704e0689

Mise à jour de l’inventaire de la classification et d’étiquetage (version publique)

(27/09/2012)
L’ECHA a mis à jour l’inventaire de la classification et l’étiquetage (version publique). Cet inventaire montre toutes les notifications pour les substances pour lesquelles il existe au moins une notification de le classer comme dangereux conformément à l’article 119 (1) du règlement REACH. Toutes les notifications pour les substances figurant sur l’inventaire CE sont désormais fournis. Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/ced40168-dbed-4222-bc28-0df305d9b838
Inventaire C&L consultable sur : http://echa.europa.eu/information-on-chemicals/cl-inventory

Conférence en ligne de l’UIC

L’UIC et le MEDDE (Ministère de l’écologie, du développement durable et de l’énergie) ont signé une convention pour accompagner les entreprises, notamment les PME, par des conférences en ligne de sensibilisation à REACH. Pour connaître les dates, les thèmes et les modalités d’inscription, rendez-vous sur : http://www.uic.fr/REACH-webinars.asp
Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

Revue du Web #32 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • suivons pour commencer la formation de cristaux de glace sur un fil, structures uniques de quelques millimètres chacune ;
  • retrouvons ensuite un avion conçu par le MIT, dont les prouesses sont plus que surprenantes ;
  • jetons un œil au fonctionnement fascinant des cordes vocales ;
  • découvrons la vidéo des six volontaires américains qui se sont retrouvés sous une bombe atomique de deux kilotonnes en juillet 1957 ;
  • le gadget (inutile ?) de la semaine : « Swumanoid », le robot nageur pas encore maître-nageur ;
  • et enfin pour conclure, quelques magnifiques clichés du travail de l’artiste américain Todd Johnson, créant des figures de Lichtenberg en exposant du plexiglas au faisceau d’un accélérateur de particules.

Formation de cristaux de glace sur un fil

Pour débuter la trente-deuxième revue du web, voici un petit bijou en vidéo : la formation de cristaux de glace sur un fil, branches après branches. La vidéo, fascinante, illustre un phénomène qui semble trivial avec une expérience dont le protocole expérimental n’est pourtant pas vraiment simple à réaliser… hors d’un laboratoire. Dans une chambre où la température serait maintenue autour de – 45 degrés Celsius (- 47 degrés Fahrenheit), les aiguillons cristallins se forment sur un fil dans lequel passe un courant électrique de près de 2000 volts. Les structures uniques qui peuvent se former sur le fil ne font pas plus d’une fraction de millimètre chacune, et se forment très rapidement grâce à l’appui de la charge électrique.

L’expérience a été réalisée par le collectif « Words are Pictures », étalée sur quatre jours, pour le besoin d’un clip vidéo d’un musicien anglais, Ryan Teague. Le rôle que joue l’électricité dans cette expérience est loin d’être négligeable : l’application du courant électrique aide à aligner les molécules d’eau pour ensuite former les structures cristallines. Les cristaux de glace se forment selon une règle qu’on pourrait qualifier « de la moindre résistance » : la vapeur d’eau se solidifie sur la surface, mais la moindre aspérité ou bosse sur la surface gelée permet à l’eau de voyager moins loin avant de se transformer en glace. Ces aspérités sont des sites de germination, où la tension superficielle est localement plus basse. Par capillarité, la bosse grandit et forme une branche glacée. De branches en branches, les motifs semi-chaotiques prennent de l’ampleur, sous le coup de la croissance dendritique.

Le petit avion autonome du MIT, capable de se faufiler à travers des obstacles

Le Massachusetts Institute of Technology (MIT) nous offre une fois de plus une petite merveille : un petit avion autonome capable, entre autres, de voler à travers un espace plus étroit… que sa propre envergure ! Développé par le scientifique américain Russ Tedrake et son équipe de chercheurs, l’avion assisté par ordinateur est capable de raser des obstacles tout en volant à plein régime, performance en soi. L’objectif de l’équipe du MIT serait au-delà de la simple recherche et détection d’obstacles en plein vol, il se situerait selon eux au niveau du contrôle de l’appareil lors de manœuvres considérées comme complexes. « Nous entrons dans le système les informations concernant la position des obstacles avant le vol, et utilisons la technique de motion capture pour savoir où se situe notre appareil ainsi que les obstacles, à tous moments », explique Andrew Barry, membre de l’équipe.

Dans la vidéo qui suit, prenant exemple sur le vol d’un oiseau apercevant un obstacle au dernier moment, les chercheurs testent les limites du système, obligeant l’avion et le système de commande à ordonner une acrobatie au dernier moment, challenge particulièrement difficile à relever tant l’écoulement d’air peut être chaotique lorsque la pirouette se fait sur un angle raide. La position de l’avion est constamment contrôlée par ordinateur durant le vol, calculant comment celui-ci doit se mouvoir, en fonction des perturbations. Les informations sur la trajectoire sont ensuite transmises au petit bolide. A terme, le projet pourrait permettre de créer des drones capables de voler à travers une forêt dense, en les équipant d’un système de vision détectant les arbres et autres obstacles durant le vol.

Le fonctionnement étonnant des cordes vocales

La vidéo qui suit nous permet d’observer le fonctionnement complexe et la mécanique bien huilée des cordes vocales, à travers le prisme – un peu cru – d’une laryngoscopie. En examinant la cavité du larynx à l’aide de l’image réfléchie sur le miroir du laryngoscope ou à l’aide d’un tube spatule introduit sur le dos de la langue, la laryngoscopie permet de détecter ou de retirer un corps étranger logé dans la gorge comme d’évaluer l’état général du larynx.

On peut observer ici les plis vocaux, communément appelés « cordes vocales », vibrer lors de vocalises à des vitesses différant selon la hauteur du son produit, donnant pourtant l’impression qu’elles se rapprochent et s’entrechoquent relativement lentement. La raison est bien connue, et n’est autre que le nombre d’images par seconde de la caméra capturant la vidéo.

Essentielles à la phonation et à la moindre émission des sons vocaux, les cordes vocales sont les replis des membranes muqueuses du larynx qui, une fois mises en vibration, produisent ces sons qui nous semblent si évidents à produire. Elles comprennent, sur plusieurs niveaux différents, le muscle vocal, et la lamina propia, elle-même séparée en trois couches, allant de la profonde à la superficielle.

Elles ne mesurent pas plus de 9 à 13 millimètres chez la femme, tandis qu’elles peuvent faire jusqu’à 20 millimètres chez les sujets masculins. La mécanique des cordes vocales veut qu’elles s’écartent lorsque l’on respire, tandis qu’elles se resserrent lors de la déglutition.

Archives : les cinq hommes qui acceptèrent de se trouver sous une bombe atomique…

Ce n’était pas une punition… Les cinq hommes apparaissant dans la vidéo qui suit étaient tous volontaires. Seul le photographe – qui n’apparaît à aucun moment – ne s’était pas porté volontaire. Le colonel Sidney Bruce, le lieutenant-colonel. Frank P. Ball, le commandant Norman « Bodie » Bodinger, le commandant John Hughes, Don Lutrel et le photographe George Yoshitake se sont donc retrouvés, le 19 juillet 1957, autour d’un panneau dont l’écriture incertaine et maladroite indiquait le « Ground Zero » de l’explosion, ainsi que sa supposée population – cinq, le nombre d’officiers volontaires, omettant pourtant le photographe. L’explosion, qui s’est déroulée à plus d’une centaine de kilomètres au nord-ouest de Las Vegas, dans le cadre de la très controversée « Opération Plumbbob », a eu lieu à environ 5600 mètres (18500 pieds, et ce malgré la vidéo annonçant 10000 pieds) au-dessus des six cobayes américains. La bombe a été lancée par un Northrop F-89 Scorpion, premier avion au monde à avoir été équipé d’un missile air-air à tête nucléaire, accompagné du premier bombardier supersonique capable d’atteindre Mach 2, un Convair B-58 Hustler.

Bien que le missile ait été tiré, s’en suit une courte attente, rythmée par un compte à rebours laconique. L’explosion vient sanctionner la fin du décompte, et l’un des cobayes – celui portant des lunettes de soleil – regarde même dans le ciel au moment fatidique. Dans un contexte de guerre froide entre la Russie et les États-Unis, les autorités gouvernementales américaines souhaitaient démontrer les faibles conséquences et la sûreté – toute relative – d’une explosion nucléaire de faible ampleur dans l’atmosphère, afin de rassurer le peuple américain alors que des armes similaires pouvaient être entre les mains des Russes. La bombe, relativement petite – seulement deux kilotonnes – aurait explosé dans une zone et à une altitude ne permettant pas aux officiers volontaires d’être exposés par les radiations immédiates. Les particules, trop chaudes, seraient selon toute vraisemblance restées en partie en altitude puis se seraient répandues plus tard et de manière plus diffuse une fois la température descendue, sur une surface bien plus grande.

Le film de propagande nous montre les officiers tressaillir au moment de l’explosion, lorsque le flash de lumière blanche leur parvient. Puis une pause et finalement l’onde de choc, dans un grondement magistral. Les cinq officiers semblent, malgré les risques phénoménaux encourus, avoir eu une longévité surprenante. Outre le photographe, toujours vivant en 2010 et âgé alors de 82 ans, deux des officiers seraient morts à plus de 80 ans, deux autres auraient atteint la barrière des 70 ans, et le dernier serait décédé à l’âge de 63 ans.

Le gadget (inutile ?) de la semaine : « Swumanoid », le robot nageur japonais

Futur maître-nageur ? Pas encore… Pour conclure cette trente-deuxième revue du web, voici le gadget (inutile ?) de la semaine, « Swumanoid », le robot humanoïde nageur de l’Institut de Technologie de Tokyo, encore à l’état de prototype, qui serait capable de nager le crawl à près de 0.64 mètres par seconde. Le robot japonais nage le crawl, mais pas seulement : « Swumanoid » nage aussi le dos crawlé et le papillon. La réalité est pourtant toute autre, de l’aveu même de ses créateurs : le robot nageur ne nage même pas – encore – toujours sur commande. Certains de ces défauts sont – évidemment – imputables au fait que « Swumanoid » soit encore un prototype, le robot restant relativement loin de satisfaire les ambitions de l’équipe japonaise.

La première de ces ambitions aurait été de le déployer, à terme, pour le sauvetage des victimes de noyade. Pourtant, son usage le plus plausible devrait en faire un outil pratique d’analyse de la technique d’un nageur, sportif ou non, donnant des indices sur ce qui peut être amélioré dans les mouvements et dans le positionnement de celui-ci.

Bonus : l’accélérateur de particules et les figures de Lichtenberg

En bonus cette semaine, voici de splendides photos de fractales obtenus à l’aide d’un accélérateur de particules, créations de l’artiste américain Todd Johnson. Un accélérateur de particules pourrait donc servir à autre chose qu’à rechercher le Boson de Higgs ? Todd Johnson, loin de se servir d’outils et de supports de créations artistiques traditionnels, fait passer des cylindres ou des plaques de plexiglas dans un accélérateur de particules, bombardant les supports de plexiglas de protons qui s’y retrouvent comme « piégés ». Produisant jusqu’à cinq millions de volts, l’accélérateur de particules emprisonne les électrons dans chaque pièce de plexiglas, avec un potentiel électrique élevé. La charge est alors libérée avec précautions, en appliquant un choc mécanique à l’aide d’un outil bien isolée, permettant aux électrons de s’échapper bruyamment dans un éblouissant flash de lumière.

Lorsque la charge quitte le plexiglas, ils se regroupent et suivent un itinéraire ressemblant aux ramifications fractales. Le contrôle de l’énergie et du placement du faisceau d’électrons détermine la forme finale de l’ensemble, décrivant des figures de Lichtenberg.
Pour rappel, les figures de Lichtenberg sont des images prenant la forme d’une arborescence électrique, produites par une décharge électrostatique, pouvant se former sur la surface ou à l’intérieur d’un matériau isolant. A titre d’exemple, lorsqu’un homme est touché par la foudre, celle-ci laisse souvent une brûlure sérieuse ayant elle-aussi la forme d’une figure de Lichtenberg.

Par Moonzur Rahman, journaliste scientifique

A lire aussi :

 

Les industriels des machines et technologies de production œuvrent pour optimiser l’appareil productif français

Coût du travail par ci, coût du travail par là. Le manque de compétitivité des entreprises françaises serait lié à une main d’œuvre trop chère. Et les machines-outils dans tout ça ?  Quand on sait que la part de la main d’œuvre dans le prix d’un produit dépasse rarement 10%, alors que la part machine-outil est au minimum le double, on se demande si l’effort est fait sur le poste le plus rentable.

Pour le Symop il n’y a pas de doute. Comme le rappelle son président Jean-Camille Uring, « Le manque d’investissement, de renouvellement et d’innovation dans l’appareil de production explique aussi pour une bonne part la perte de compétitivité de notre industrie ».

Selon lui, « Faute d’un outil performant et au meilleur niveau, il est impossible à nos PME-PMI de répondre aux exigences des clients étrangers sur la capacité, la qualité et les spécifications de la production ».

Aujourd’hui, il y aurait moins de 100 000 entreprises françaises exportatrices et notre déficit commercial se creuse à 75 milliards d’euros. Fort de ces constats, les industriels du Symop lancent l’opération « Productivez » pour sensibiliser les entrepreneurs à la compétitivité en lien avec l’optimisation des machines-outils et du process.

Pour cela, le Symop interpelle les pouvoirs publics et demande la réalisation d’un audit de l’appareil productif français ainsi que l’élaboration d’un plan de soutien à l’innovation dans l’appareil de production des PMI et ETI. « Nous espérons bien sûr présenter au Ministre du Redressement productif notre démarche dans les semaines à venir et lui proposer de visiter une PMI ou une ETI qui démontre l’efficacité de la démarche « Productivez ! » », conclut le Président du Symop.

Après le plan de soutien à la filière automobile dont on attend encore les effets, gageons qu’Arnaud Montebourg saura se montrer plus efficace cette fois.

Par Audrey Loubens, journaliste scientifique

Le pétrole en Arctique n’intéresse pas Total

« Du pétrole sur le Groenland, ce serait un désastre. Une fuite causerait trop de dommages à l’image de la compagnie », explique Christophe de Margerie, Président directeur général de Total, dans une interview au journal Le Monde.  Loin d’être devenu philanthrope, monsieur de Margerie reste soucieux de l’image de sa compagnie et sait qu’une marée noire aurait un impact désastreux. Mais surtout, forer en Arctique ne serait pas si rentable que cela…

Pourtant, cette région suscitait il y a peu toutes les convoitises. Dans une étude de l’Institut de géophysique américain datée de 2008, l’Arctique renfermerait 13% des ressources mondiales encore à découvrir, soit 90 milliards de barils ! Avec la demande énergétique qui croit sans cesse, le coût du baril de pétrole qui s’envole et la fonte des glaces qui rend la zone de plus en plus facilement accessible, les forages en Arctique semblaient séduisants.

L’Arctique devrait être épargné encore quelques décennies…

Mais cet engouement s’essouffle. Tout d’abord, les gisements présumés sont localisés principalement au large, là où les équipements sont soumis à des conditions climatiques extrêmes, ce qui rend ce type d’exploitation particulièrement coûteuse, et donc moins rentable. De plus, d’autres sources d’énergie sont moins chères à exploiter, notamment le gaz, conventionnel ou de schiste.

La découverte de ces hydrocarbures dont l’exploitation se révèle aussi moins dangereuse mobilise plus l’attention des compagnies que les forages au pôle nord. En témoignent ces revirements de politique : il y a quelques jours, Shell annonçait le report de projets de forage en Alaska tandis que Gazprom différait le lancement de la production de pétrole sur le premier champ pétrolier offshore de l’Arctique russe.

Des chercheurs norvégiens estimaient que l’Arctique ne deviendrait pas une zone d’exploitation importante avec la part de pétrole de l’Arctique stagnant à 8%-10% de la production globale d’ici à 2050, celle du gaz naturel chutant de moitié. L’Arctique devrait donc être épargné encore quelques décennies…

Par Audrey Loubens

Alire également :

Le marché mondial du photovoltaïque explose

Le consortium européen EPIC a rendu son rapport sur l’industrie photovoltaïque dans le monde. Et les acteurs de ce marché peuvent se réjouir car les nouvelles sont bonnes. Avec 93 milliards de dollars de chiffre d’affaire en 2011 et 27.4 GigaWatts de capacité photovoltaïque installés, la capacité mondiale atteint désormais 68 GW. La majorité du parc photovoltaïque, 63%, se situe en Europe.

Fer de lance de ce déploiement, l’Allemagne, avec 27% des installations totales. A noter que pour la première fois en Europe, le photovoltaïque est devenu la source d’énergie la plus développée en terme d’équipements installés, passant devant le gaz naturel et l’éolien. Néanmoins, à l’échelle planétaire, l’éolien reste la source d’énergie renouvelable préférée.

Côté production, l’Asie domine le marché. Plus précisément, la Chine et Taiwan représentent près de 74% de la production mondiale. Face à cette concurrence spécialiste du low-cost, la production européenne n’a pas résisté, chutant à seulement 6%. En mars, l’entreprise allemande Q-Cell a dû déposer le bilan, alors même qu’ils étaient n°1 mondial des cellules photovoltaïques.

Les industries françaises sont quant à elles en grande difficulté, notamment depuis que la politique de soutien de la filière a été quasi-abandonnée. Les conditions de rachat de l’électricité produite par ces équipement n’est plus du tout attractive, mettant ainsi un frein à l’activité des industriels qui ont vu leur carnet de commande se vider. Symbole de ce déclin, le fleuron français Photowatt s’est effondré. Placé en redressement judiciaire, l’entreprise avait finalement été reprise par EDF en février 2012.

Par Audrey Loubens, journaliste scientifique

Le Japon va-t-il abandonner le nucléaire ?

Un média nippon a déclaré que l’archipel pourrait bien dire adieu à ses 54 réacteurs nucléaires d’ici 2030.

C’est en tout cas ce sur quoi plancherait activement le gouvernement japonais. Si cette volonté est avérée, c’est un objectif très ambitieux pour un pays dont la contribution énergétique du parc nucléaire représentait 30 % avant le drame de Fukushima. A l’époque, le Japon prévoyait même de porter ce chiffre à 50 % en 2030 !

Revirement de situation donc pour un pays encore traumatisé par ce terrible accident. Si terrible qu’il a impacté le monde entier, éclairant brutalement toutes les nations sur les risques du nucléaire. En effet, dans les semaines qui ont suivi, plusieurs pays ont engagé une réflexion sur le nucléaire. L’Allemagne, à la fibre écologique très forte, a ainsi décidé de fermer dix-sept réacteurs d’ici 2022.

La France, bien que leader dans le nucléaire et n’ayant jamais subi aucun accident grave, s’orienterait vers une diminution progressive de la part du nucléaire. Cécile Duflot, ministre du logement et ex-n°1 d’Europe Ecologie Les Verts, a réaffirmé fin août l’objectif gouvernemental « de faire baisser la part du nucléaire de 75 % à 50 % ».

Par la suite, Delphine Batho, ministre de l’Ecologie et de l’Energie a confirmé la fermeture de la centrale de Fessenheim à court terme, bien qu’aucune date n’ait été avancée.

Par Audrey Loubens, journaliste scientifique

A lire également : Nucléaire : le Japon dit stop

Eco-Laserfact initie les industriels à l’usinage laser

Tout industriel ayant un besoin en solution laser pourra solliciter les  membres de ce groupement.

« Notre objectif est de promouvoir les technologies laser à vocation verte, c’est-à-dire qui permettent de faire des économies d’énergie ou de matière par exemple », résume Yannick Lafue, Manager des programmes collaboratifs et Européens chez Irepa Laser. Lancée depuis le mois de mai, cette initiative baptisée Eco-Laserfact (ECO-efficient LASER technology for FACTories of the future), regroupe des académiques et des centres de transferts de Belgique (Multitel, Sirris, Vito, Cluster photonique wallon), d’Angleterre (EPIC, University of Cardiff, University of Birmingham), d’Allemagne (Karlsruher Institut für Technologie ) et de France (Irepa Laser).

Ici, pas question de développement R&D. La vocation d’ Eco-Laserfact est double. D’une part fédérer les centres de recherches situés dans la région Nord-Ouest de l’Europe (NWE) et actifs dans le domaine de la microfabrication. D’autre part diffuser le savoir auprès des industriels et notamment des PME de façon à leur faire découvrir des solutions de micro-usinage laser puis les aider à mettre en place. Les trois domaines cibles sont l’additive manufacturing, le micro manufacturing et l’assemblage de polymères.

Le transfert d’expertise des centres de recherches et laboratoires vers les PME est réalisé via l’organisation d’évènements ouverts au public pour la dissémination, la formation et le transfert de connaissances et par la mise à disposition de moyens et d’expertise via le réseau transnational (NoE).

Ainsi, tout industriel qui en fera la demande pourra bénéficier d’un accompagnement spécifique, et ce gratuitement : les instituts adhérents les aideront à valider des solutions de fabrication en intégrant les dernières avancées de la recherche. Sur la base des différents équipements des instituts, une plate-forme destinée aux tests de faisabilité est notamment mise à disposition.

« Face à un besoin technologique particulier, nous analysons la demande de l’industriel. Une fois celle-ci validée, nous l’invitons à passer trois ou quatre jours chez l’un de nos membres pour réfléchir concrètement à son besoin. Cet accompagnement va servir à mettre le pied à l’étrier de l’industriel, à débugger une technologie laser… » explique Yannick Lafue.

Par Audrey Loubens, journaliste scientifique

Contact : Yannick Lafue, [email protected]
 

GLOBAL BIOENERGIES en lice pour le concours d’innovation EuropaBio

« Nous avons créé une voie métabolique entièrement artificielle », se félicite Marc Delcourt, PDG de GLOBAL BIOENERGIES. Grâce à leur procédé innovant, cette PME est capable de convertir des sucres en isobutène, une oléfine légère très convoitée par la pétrochimie, que ce soit pour la fabrication de plastiques, de carburants ou encore d’élastomères pour les pneumatiques.

Les sucres transformés peuvent être des sirops de glucoses issus de l’agriculture ou bien des sucres issus de la dégradation de déchet agricoles ou forestiers.

Des sources de carbone provenant d’effluents industriels ou ménagers pourraient également être utilisées.

Contrairement aux approches classiques de la biologie industrielle qui consistent à chercher dans la nature un micro-organisme produisant la molécule voulue et à optimiser son métabolisme, la technologie développée par GLOBAL BIOENERGIES ne repose pas sur un micro-organisme existant. « Les grandes molécules de la pétrochimie, telle que l’isobutène, ne sont pas produites par les micro-organismes. Mettre en œuvre un procédé de bioproduction de ces molécules, ça voulait dire construire de toutes pièces une voie métabolique artificielle », explique Marc Delcourt.

Conçu par Philippe Marlière, co-fondateur de la société, cette voie métabolique artificielle a été mise en œuvre par les équipes de Global Bioenergies. Les sucres sont convertis successivement en intermédiaires réactionnels inexistants dans la nature !

On comprend que cette approche ait séduit EuropaBio, l’association européenne pour les bio-industries, et que GLOBAL BIOENERGIES fasse partie des cinq nominés au prix 2012 récompensant « la société de biotechnologie européenne la plus innovante ».

Autre avantage de la production d’oléfines légères : ces molécules se présentent sous forme gazeuse, ce qui évite toute accumulation lors du processus de fabrication et permet de s’affranchir de toute toxicité (par opposition à de la fermentation classique comme dans le cas de la production d’éthanol pendant laquelle celui-ci s’accumule et détruit les levures, limitant le rendement).

« Aujourd’hui nous sommes en phase d’industrialisation du procédé. Nous conduisons aujourd’hui des essais en pilote de laboratoire, et préparons pour 2013-2014 des essais en pilote industriel. S’ensuivra la construction des usines. Nous prévoyons la production à grande échelle dès 2017. » détaille Marc Delcourt.

Cette nouvelle approche ouvre donc la voie à la production de molécules à forte valeur ajoutée puisque le marché des oléfines légère représente plusieurs centaines de milliards de dollars.

Par Audrey Loubens

Maitrise de l’énergie et construction des territoires durables

Le postulat de départ parle de lui-même : 1,6 milliard de personnes convoitent un accès à l’énergie semblable au nôtre. Ajoutez à cela la croissance démographique comme le développement économique des pays  du Sud, et la raréfaction des énergies fossiles, et le constat est clair : « L’offre et la demande énergétiques ne sont pas prêtes de s’équilibrer », selon Manelle Lepoutre, directrice du Développement durable et de l’Environnement chez Total, pour qui un tel défi implique d’investir dans toutes les énergies, y compris les énergies fossiles, qui représenteront d’après elle encore 60% à 65% de l’énergie consommée dans 20 ans.

Et d’insister sur le facteur d’efficacité énergétique. « Chauffer de l’eau au gaz implique 20% de déperdition énergétique. Chauffer de l’eau avec à l’électricité produite dans une centrale à gaz implique 70% de déperdition» affirme-t-elle.

Dès lors les choix énergétiques doivent être réfléchis sur toute la chaîne, selon elle, leurs sens dépendant du contexte. « Le solaire a tout son sens dans les pays ensoleillés d’Afrique où les autres sources d’énergie sont peu ou pas développées. Dans les pays d’Europe, le contexte est différent, le solaire nécessite des back-up tels le charbon, ce qui au final est pire que mieux ».

 « Schizophrénie énergétique » 

Si le constat de départ est partagé par Sandrine Belier, députée européenne Europe Ecologie Les verts (EELV), sa vision de l’avenir diverge. « Une croissance forte de la part des énergies renouvelables d’ici 10 ans est tout à fait réalisable pour peu qu’on en est la volonté politique », rappelant que l’enjeu actuel est bien de passer du volontarisme étatique à l’obligation pour les pays de l’Union Européenne à s’engager dans cette voie. « La politique énergétique de François Hollande n’est que la transposition des directives européennes » ajoute-t-elle, déplorant des réflexes relevant de la « schizophrénie énergétique » : EPR, gaz de schiste, plates-formes pétrolières en mers intérieures.

D’ici 2020, c’est pourtant 2 millions d’emplois qui d’après Sandrine Belier devraient être créés dans les énergies renouvelables à travers l’UE, avec pour arme d’incitation massive le fonds FEDER, dont 30% de la prochaine enveloppe pourraient être réservés aux projets d’énergies renouvelables.

 Rôle centrale des collectivités territoriales 

« 20000 emplois directs, c’est ce qu’a créé en investissement 12 milliards d’euros dans les énergies renouvelables depuis 2008 » assure ainsi Pierre Ducret, PDG de CDC Climat, pour qui la réponse la plus pertinente passe par l’implication des collectivités territoriales, à commencer par les régions. « On aura toujours besoin de structures massives et étatiques, mais les politiques énergétiques doivent relever du local, chaque régions devant développer ses choix à son rythme, en fonction de ses caractéristiques, en se basant sur les outils mis à disposition par la législation nationale, plus juste et plus efficace que le simple crédit d’impôts ».

Rénovation de masse au niveau ultra-local, réseaux intelligents, mobilité partagée. 

Chère, la transition énergétique se doit donc d’être efficiente. Pour se faire, François Moisan, directeur exécutif de la stratégie, de la recherche et de l’international de l’ADEME propose trois axes d’investissements d’avenir : la réhabilitation à grande échelle des logements, à l’échelle de l’ilot voire du bâtiment. Les 2/3 des édifices de 2050 étant déjà bâtis aujourd’hui, les économies d’énergie passeront par une valorisation des énergies renouvelables au plus près des ménages. « La réhabilitation de l’ensemble des logements de France couteraient 600 milliards d’euros, soit 20000 à 30000 euros par ménages, mais sur 20 ans. Soit un montant rentabilisé par les économies d’énergie.

Second axe proposé : des réseaux électriques intelligents, favorisant la production au niveau des ménages plutôt que la production de masse. Troisième axe : la mobilité en ville, où doivent se développer intermodalité, autopartage ou encore covoiturage.

Le mot de la fin revenant à Pierre Ducret : « Le rythme de la transition énergétique sera trop lent si il suit celui de l’épuisement des ressources, vis-à-vis du réchauffement climatique. Pénaliser le fossile dès aujourd’hui, c’est accélérer la transition énergétique. Dans le cas contraire, même les gaz de schiste finiront par apparaître comme une solution moins coûteuse que les énergies renouvelables ! ».

Par Bruno Decottignies

Construire un écosystème urbain désirable

Premier constat, le modèle urbain tel qu’on l’a connu jusqu’à aujourd’hui touche à sa fin. « Les villes telles que nous les connaissons aujourd’hui  se sont développées relativement récemment avec le développement des transports » assure ainsi Jean Ollivro (photo ci-dessous), professeur de géographie à l’université de Rennes II.

Parti de ce constat, l’évolution du paysage urbain dépendra selon lui fortement de l’évolution du coût des transports. « Les métropoles, qu’on associe tant à la modernité, sont en réalité très fragiles ».

La question des transports en ville et vers les villes semble ainsi être au cœur de l’organisation sociétale de demain. Parmi les solutions évoquées, certaines relèvent du projet de société, d’autres du gadget à grande échelle.

Dans le premier cas, Jean Ollivro, encore lui, pense que l’avenir réside dans la mondialisation, inéluctable, l’instantanéisation, portée par le développement exponentiel des télécommunications, et la reterritorialisation, à savoir la réduction – voulue ou subie – de la mobilité du plus grand nombre, faute de solution de transport peu onéreuse. « Le format de ville le plus pertinent pour l’avenir, ça n’est pas les mégalopoles auxquelles on associe la modernité, mais des villes de 20 000 à 100 000 habitants au maximum ». 

« La qualité bio au prix Wallmart »

Côté solutions « gadgets », Didier Marginedes, directeur général de Batscap, société du groupe Bolloré, présente son succès ultra médiatisé : l’Autolib’. Le principal intérêt selon lui étant qu’en permettant de réserver à l’avance voiture et place de parking à l’arrivée, on réduit le temps de circulation du véhicule, et donc la circulation globale dans les rues des villes.

Autre solution proposée : la production de produits agricoles en milieu urbain, auprès du consommateur, et donc sans contrainte de transports. Elle est avancée par David Rosenberg, co-fondateur d’Aerofarms. Sa société produit des légumes sur tissu, hors-sol, sous spectre lumineux spécialement étudié permettant notamment des économies d’énergie au producteur, et par brumisation, utilisant ainsi 90% moins d’eau que l’agriculture conventionnelle. Produits sans pesticides, ces légumes coûteraient ainsi beaucoup moins cher que des légumes issus de l’agriculture conventionnelle. « La qualité bio à prix Wallmart », d’après les mots de David Rosenberg.

Changements sociétaux

Le principal enseignement de cette conférence reste néanmoins que l’avenir des villes ne dépendra pas tant d’innovations technologiques ou d’offres commerciales innovantes, mais bien d’une transformation des modes de vie.

Ainsi, pour Jean Ollivro, la crise actuelle n’est pas qu’une crise économique, mais bien une transformation sociétale, incitant selon lui à l’optimisme, puisqu’elle incite à la coopération via les AMAP, les coopératives énergétiques, le développement du partage parmi les jeunes générations. « 75% de nos clients ont moins de 35 ans. Les jeunes conducteurs sont moins attachés à la propriété du véhicule que nous l’étions et bien plus sensibles à l’idée de partage » affirme ainsi Didier Marginedes.

Par Bruno Decottignies

Global Conference : la septième édition en direct d’Evian

« Âge de la co-construction ou triomphe de la compétition ? ». Telle est la problématique sur laquelle les participants de la septième Global Conference vont plancher pendant les trois jours que dure ce forum. 

A l’heure de la crise économique et climatique, il est fondamental de revoir en profondeur les modèles économiques et de collaboration qui ont été mis en pratique depuis des décennies. 

Bettina Laville (voir visuel ci-dessous), avocate associée au cabinet Landwell en droit de l’environnement, a introduit ces trois jours de débats en rappelant les grandes dates du développement durable au niveau mondial : « Rio+20 fut un échec. La volonté de mettre tous les enjeux écologiques dans les mains de la société civile est le principal écueil de la volonté de co-construire ».

Qu’entend-on par co-construction ?

Aujourd’hui, la co-construction est un modèle qui s’impose de lui-même. Si un progrès a été accompli depuis le sommet de Rio en 1992, c’est bien celui-là : aujourd’hui, toutes les strates de la société sont impliquées sur les enjeux écologiques. Pouvoir politique, ONG, secteur privé, toutes les composantes de la société ont compris que la recherche de solutions par rapport à la raréfaction des matières premières passait par la co-construction de projets innovants répondant à cette problématique.

« co-production horizontale de démocratie »

La co-construction permet la mise en place d’une « co-production horizontale de démocratie », affirme Bettina Laville, « délibérative, participative ». Le seul écueil étant la passation intégrale des problématiques des mains des décideurs politiques vers la sphère associative et privée.

La conférence introductive a également permis aux participants de mieux connaître certains projets de co-construction ayant faits leurs preuves de part le monde.

Prenons l’exemple du projet « barefoot college » : Fondé par Bunker Roy, le barefoot college est un programme d’éducation qui a démarré en Inde. Le barefoot college est un organisme d’enseignement réservé aux femmes pauvres. Le but, faire de ces femmes, en un temps record, des ingénieures spécialisées en énergie solaire. 

Le projet, démarré au Rajasthan, fut un succès. Il fut donc élargi à d’autres pays, à commencer par l’Afghanistan. Six mois plus tard, les trois premières femmes à exercer le métier d’ingénieure dans ce pays sont sorties du barefoot college. Elles ont enseigné leur nouveau savoir à 27 autres femmes. Aujourd’hui, ce sont plus de 200 installations solaires qui été mises en place sous la direction de ces femmes.

Depuis, le succès du projet est total, puisque appliqué avec succès dans certains pays d’Afrique et de Polynésie. Le langage n’est ici pas un obstacle à l’enseignement, puisque l’intégralité des savoirs techniques est transmise par signes. Et selon Bunker Roy, l’efficacité du procédé est avérée : « En six mois, ces femmes ont des compétences en ingénierie solaire équivalentes à une formation spécialisée de trois ans ».

Au final, ces installations de panneaux solaires ont contribué à économiser plus de 1,5 millions de litres de kérosène.

D’autres projets de co-production comme celui-là ont été présentés au cours de cette journée, sur lesquels nous reviendrons au sein de la Veille Actualité, comme le distribution de lampes solaire en Afrique par Total, en partenariat avec une entreprise privée, ou encore la vente de pompes d’irrigation en Afrique pour 40 dollars…

Par Pierre Thouverez

La science en bandes dessinées

Hébergé par le célèbre C@fé des sciences (communauté de blogs de sciences en français), le site a été créé dans le but de rendre plus visible et accessible la bande dessinée scientifique. L’espace de Strip Science est un lieu d’échange entre blogueurs de science et illustrateurs BD férus de science. Chacun, selon ses compétences, apporte ses contributions : des billets de blog à illustrer ou des idées d’illustrations.

Près de 25 collaborateurs commentent en image l’actualité des sciences, décrivent leur vie de chercheur ou illustrent des concepts scientifiques sur un ton souvent comique et décalé. Et l’objectif est largement atteint : la clarté du discours, le second degré et l’ironie des billets confirment que sous cette forme la science est capable d’intéresser beaucoup de monde.

Pierre Kerner, Maître de conférences en génétique évolutive du développement à l’Université Paris 7 (Denis Diderot), est à l’origine du projet de Strip Science. « J’ai toujours adoré la vulgarisation scientifique et toujours déploré l’absence d’illustrations de qualité dans les milieux scientifiques. Dans ma quête de marier ces deux mondes, ce projet-ci est le plus abouti et j’espère qu’on arrivera à démontrer que la BD peut tout à fait servir les objectifs de la vulgarisation scientifique. »

Petite sélection de blogs de BD scientifiques du portail :

http://tumourrasmoinsbete.blogspot.fr/

http://www.alamain.info/

Strip Science :

http://stripscience.cafe-sciences.org/Twitter : @stripscience

Café des sciences :

http://www.cafe-sciences.org/Twitter : @enroweb

Les rats nourris au maïs Monsanto meurent plus vite

Des rats nourris avec un maïs OGM meurent plus jeunes et souffrent plus souvent de cancers que les autres, selon une étude de long terme à paraître mercredi en ligne dans la Revue internationale «Food and Chemical Toxicology» et présentée par ses auteurs comme une «première mondiale». «Les résultats sont alarmants. On observe par exemple deux à trois fois plus de mortalité chez les femelles traitées. Il y a deux à trois fois plus de tumeurs chez les rats traités des deux sexes», a expliqué à l’AFP Gilles-Eric Seralini, professeur à l’Université de Caen, qui a dirigé l’étude.

Deux cents rats ont été alimentés pendant deux ans maximum soit avec un maïs OGM NK603 seul, soit avec ce maïs OGM traité au Roundup, soit avec du maïs non OGM traité au Roundup, herbicide le plus utilisé au monde. Ces deux produits sont la propriété du groupe américain Monsanto. Le maïs était introduit au sein d’un régime équilibré dans des proportions représentatives du régime alimentaire américain.

«Les résultats révèlent des mortalités bien plus rapides et plus fortes au cours de la consommation de chacun des deux produits», résume le chercheur, qui fait ou a fait partie de commissions officielles sur les OGM dans 30 pays. «Le premier mâle nourri aux OGM meurt un an avant le premier témoin. Le première femelle huit mois avant. Au 17e mois, on observe cinq fois plus de mâles nourris avec 11% de maïs (OGM) morts», détaille-t-il.

Côté tumeurs, elles apparaissant jusqu’à 600 jours avant chez les mâles (au niveau de la peau et des reins) et en moyenne 94 jours avant pour les femelles (au niveau des glandes mammaires). Les chercheurs ont constaté que 93% des tumeurs des femelles étaient mammaires tandis que la majorité des mâles sont morts de problèmes hépatiques ou rénaux.

L’article de Food and Chemical Toxicology montre des rats femelles de laboratoire avec des tumeurs plus grosses que des balles de ping-pong. «A la dose la plus faible de Roundup, qui correspond à ce qu’on peut trouver dans l’eau en Bretagne au moment des épandages de ce produit, on observe 2,5 fois plus de tumeurs mammaires», souligne le professeur.

La première étude faite sur une période de trois ans

Les OGM agricoles sont modifiés pour tolérer ou produire des pesticides : 100% des OGM cultivés à grande échelle en 2011 sont des plantes à pesticides, a souligné Gilles-Eric Séralini. «Pour la première fois au monde, un OGM et un pesticide ont été évalués pour leur impact sur la santé plus longuement que les agences sanitaires, les gouvernements et les industriels ne l’ont fait», a affirmé le professeur.

Selon lui, le NK603 n’avait jusqu’alors été testé que sur une période de trois mois. Quelques OGM ont déjà été testés à trois ans, mais jamais avec des analyses aussi approfondies. C’est la première fois, selon le professeur Séralini, que le Roundup est testé sur le long terme. Jusqu’à présent, seul le principe actif du Roundup sans ses adjuvants avait été testé plus de six mois. «Ce sont les meilleurs tests qu’on peut avoir avant d’aller tester chez l’homme», a dit le chercheur.

L’étude a été financée par la fondation Ceres, financées notamment par une cinquantaine d’entreprises parfois dans l’alimentaire qui ne produisent pas d’OGM, et la Fondation Charles Leopold Meyer pour le progrès pour l’homme. Les fonds sont gérés par le Comité de recherche et d’information indépendantes sur le génie génétique (CRIIGEN), dont Gilles-Eric Séralini préside le conseil scientifique et dont le conseil d’administration a été présidé par Corinne Lepage, ancienne ministre de l’Environnement.

Des résultats différents de ceux obtenus par les études financées par l’industrie

Réagissant à la publication de cette étude, le ministre de l’Agriculture Stéphane Le Foll (photo AFP) a dit vouloir revoir les procédures d’homologation des OGM au sein de l’UE afin de les rendre «beaucoup plus strictes». Cela «conforte la position qui était la nôtre», a poursuivi le ministre, ajoutant qu’il allait toutefois demander une «vérification» sur le protocole de cette étude à l’ANSES, l’Agence nationale de sécurité sanitaire.

Les huit « faucheurs volontaires », dont l’eurodéputé EELV José Bové, relaxés en première instance mais condamnés jeudi en appel à Poitiers pour le fauchage de deux parcelles de maïs OGM Monsanto en 2008, vont se pourvoir en cassation. L’eurodéputé vert français José Bové a pour sa part demandé à la Commission européenne de «suspendre immédiatement les autorisations de mise en culture» accordées au maïs OGM MON810 et à la pomme de terre Amflora à la lumière des résultats de cette étude.

«Par conséquent, je demande solennellement au Commissaire européen John Dalli, chargé de la protection des consommateurs européens, de suspendre immédiatement les autorisations de mise en culture accordées à la variété de maïs MON 810 de Monsanto et à la pomme de terre Amflora de BASF, ainsi que les autorisations d’importer du maïs et soja transgénique», a-t-il annoncé.

José Bové considère que «les données fournies par Monsanto et les autres multinationales sont tout simplement biaisées et ne reposent pas sur des travaux scientifiques sérieux et fiables». «Les agences nationales et européennes de sécurité alimentaire doivent réaliser de nouvelles études financées par des fonds publics pour garantir aux consommateurs européens une alimentation saine», a-t-il conclu.

Deux OGM sont actuellement cultivés dans l’UE: la pomme de terre Amflora créée par le groupe allemand BASF et le maïs MON 810 de la multinationale Monsanto. Monsanto a demandé le renouvellement de l’autorisation de culture pour le MON 810, mais le dossier est actuellement bloqué. «Pour les deux OGM dont la culture est aujourd’hui autorisée dans l’UE, nous avons des clauses de sauvegarde dans dix des vingt-sept pays», a rappelé le commissaire Dalli.

Source : AFP

Optimisation des systèmes hypersustentateurs d’avions : un bord d’attaque de forme variable

Or, la portance d’un avion diminue avec sa vitesse. Différents dispositifs, dits hypersustentateurs, permettent alors de compenser une diminution de vitesse en augmentant la portance. Les becs de bord d’attaque, placés à l’avant des ailes, sont des exemples de ces dispositifs.

Durant les étapes de décollage et d’atterrissage, les becs de bord d’attaque sont abaissés, augmentant la portance de l’appareil. Néanmoins, une fente de séparation est présente entre l’aile et le bec de bord d’attaque, à travers laquelle l’air peut circuler de la partie inférieure à la partie supérieure de la voilure. Cet écoulement est responsable de nuisances sonores importantes.


Ci-dessus : Bec de bord d’attaque de forme variable

Une équipe de chercheurs du Centre allemand de recherche aérospatiale (DLR) de Brunswick (Basse-Saxe), en collaboration avec Airbus, EADS Innovation Works et CASSADIAN Air Systems, a donc conçu un bord d’attaque de forme variable (Smart Droop Nose) s’intégrant à la voilure de l’avion. « La forme du bord d’attaque peut être modifiée pendant les phases de décollage et d’atterrissage de telle sorte qu’aucun bec de bord d’attaque distinct n’est nécessaire. Le bord d’attaque peut être abaissé jusqu’à un angle de 20 degrés, et ce quasiment sans perte de portance », explique Markus Kintscher, chef du projet. Afin de ne pas augmenter le phénomène de fatigue, ce bord d’attaque ne peut pas être allongé, mais seulement courbé. Le matériau choisi est un plastique à renfort en fibres de verre.

Les performances du bord d’attaque de forme variable ont été testées dans une soufflerie de l’Institut central d’aérohydrodynamique (TsAGI) de Schukowski (Russie), du 27 août au 7 septembre 2012. En vue de son utilisation effective, le bord d’attaque de forme variable doit également répondre aux exigences en matière de dégivrage, de résistance contre la foudre et les impacts d’oiseaux. Dans cet objectif, la poursuite de son développement est prévue à court terme.

Sources : Les bulletins électroniques

Gaz de schiste : 3 fois moins d’eau douce que le nucléaire

Le BTU (British thermal units, 1 million de BTU est équivalent à 293 kWh thermiques) est l’unité standard pour mesurer le contenu énergétique d’un combustible. L’obtention d’1 million de BTU de gaz de schiste profond requiert 12 litres d’eau douce, plus précisément entre 2 et 22 litres en fonction du contexte géologique. Au niveau du célèbre bassin géant de Marcellus, dans le nord-est des USA, l’intensité hydrique est de 4 litres par million de BTU. Est-ce beaucoup ?

3,5 fois moins d’eau douce qu’avec le nucléaire
7 fois moins qu’avec le charbon

Pour obtenir 1 million de BTU d’uranium prêt à être utilisé dans une centrale nucléaire, ce sont en moyenne 42 litres (entre 30 et 53 litres) d’eau douce qui sont consommés. Et 87 litres pour le charbon. Le groupe AREVA a par exemple recours à  l’usine de dessalement de l’eau de mer de Wlotzkasbaken en Namibie (voir ci-dessous) pour alimenter sa mine d’uranium de Trekkoppje.

Le fleuron du nucléaire français décrit ainsi le processus d’obtention du minerai, le fameux yellow cake : « Une fois extraite, la roche (contenant l’uranium ndlr) concassée et finement broyée sera déposée dans une série de fosses dotées d’un système collecteur et déployées sur une surface de plus de 3 km de longueur sur 810 m de largeur.

Dans un premier temps, elle y sera rincée par arrosage à l’eau douce pendant 40 jours afin d’en éliminer les chlorures. Elle sera ensuite lixiviée au moyen de solutions alcalines diluées, une opération qui consiste à dissoudre peu à peu l’uranium présent par infiltration à travers les tas. La solution ainsi obtenue est alors filtrée par une technologie spécifique (le procédé Nimcix d’échange d’ions). Le minerai, débarrassé de ses impuretés, est récupéré après séchage sous forme de concentré d’uranium, le yellow cake. Il peut alors être conditionné pour être expédié vers les usines de conversion des clients d’AREVA. »

Au nord du Niger, autour des villes d’Arlit et d’Akokan, AREVA pompe depuis 40 ans l’eau douce depuis les aquifères souterrains locaux (ci-dessous un mine d’uranium au Niger). Or l’eau douce est une ressource très  précieuse dans la région sahélienne. Il est bien plus problématique de consommer un litre d’eau douce au nord du Niger (climat désertique) pour produire du combustible nucléaire que deux litres en Allemagne ou en Pologne (climat tempéré) pour produire du charbon. D’un point de vue théorique, le remplacement de l’intégralité du parc électro-nucléaire français par des centrales électriques au gaz naturel de schiste conduirait non seulement à une division par trois de la consommation d’eau douce mais éviterait surtout d’appauvrir les stocks d’eau douce sahariens et d’augmenter la concentration saline du littoral namibien.

Facteur aggravant pour le nucléaire, le rendement énergétique d’une centrale au gaz naturel (60% voir davantage) est supérieur à celui d’une centrale nucléaire (environ 33%), elle consomme moins d’eau douce pour le refroidissement par unité d’énergie électrique délivrée. La pollution thermique des rivières est donc inférieure. Selon les statistiques officielles (Agences de l’eau, RNDE-Ifen, EDF, 2005),  les centrales thermiques françaises d’EDF (principalement des centrales nucléaires) ont englouti environ 57% (42 milliards de mètres-cubes d’eau douce) de l’eau douce consommée en France, contre 18% pour l’approvisionnement en eau potable, 14% pour l’agriculture et 11% pour l’industrie.

Le bilan est encore plus favorable à la filière gaz naturel de schiste si l’on intègre le fait que les centrales au gaz naturel, contrairement aux centrales nucléaires qui sont peu flexibles, constituent un parfait complément aux énergies renouvelables fluctuantes telles que l’éolien dont l’efficacité hydrique est la plus élevée de toutes les filières énergétiques. Pas une seule goutte d’eau douce n’est nécessaire pour qu’une éolienne produise de l’électricité. Le géant américain General Electric a mis au point des centrales à gaz bénéficiant d’une technologie prometteuse baptisée « FlexEfficiency ».

Elle permet des variations de puissance de 0 à 50 MW en quelques minutes, ce qui est idéal pour compenser les fluctuations de la ressource éolienne. La construction de ces centrales prend environ deux ans, ce qui est très rapide comparativement aux autres solutions de masse permettant de gérer la nature fluctuante de l’éolien et du solaire PV.  L’acceptabilité sociale des centrales à gaz est plus élevée que celles des autres outils de flexibilité comme les lignes électriques à haute-tension pour interconnecter la France à ses voisins (échanges d’électricité, « stockage virtuel ») ou que les Stations de Transfert d’Energie par Pompage (hydro modulable par pompage-turbinage).

EDF a signé un accord de partenariat avec GE en décembre 2011, une centrale FlexEfficiency de 510 MW va être installée sur le site de Bouchain, dans le nord de la France.

Une partie du méthane alimentant la centrale peut provenir d’unités de biométhanisation. Il  peut aussi provenir d’unités de méthanation du dihydrogène obtenu par électrolyse lors de surproduction éolienne ou solaire. Peu à peu, la part du gaz fossile pourra ainsi diminuer.

4 fois moins d’eau douce qu’avec le pétrole conventionnel  

Il faut fournir 52,5 litres (30 à 75 litres) d’eau douce pour produire 1 million de BTU de pétrole conventionnel. Avec les sables bitumineux, comme par exemple en Alberta (Canada), le bilan est encore plus lourd : 180 litres, soit 15 fois plus que pour le gaz de schiste.

L’Arabie Saoudite, pays producteur de pétrole, produit aujourd’hui l’essentiel de son eau douce en dessalant l’eau de mer, et le rejet des saumures n’est pas sans conséquences sur les écosystèmes littoraux. En Lybie, l’eau provient principalement de nappes d’eau douce fossiles, une ressource par définition épuisable.

Le remplacement du parc automobile français actuel, très largement dominé par le pétrole (diesel et essence), par des véhicules carburant au gaz de schiste (GNV, gaz naturel Véhicule) permettrait une amélioration d’un facteur quatre du bilan hydrique. Il y a aujourd’hui plus de 13 millions de véhicules au gaz  naturel dans le monde, en particulier en Argentine, au Brésil, en Inde, en Iran et au Pakistan. Il s’agit d’une technologie parfaitement au point. En France l’AFGNV, l’Association Française du Gaz Naturel Véhicule, agit pour promouvoir cette filière.   

14 000 fois moins d’eau douce qu’avec le biodiesel de soja

Le comparatif hydrique entre les filières gaz de schiste et biocarburants est particulièrement instructif. Ce sont 60000 litres d’eau douce qui sont consommés en moyenne pour obtenir un million de BTU de bioéthanol de maïs. Et 168 000 litres avec le Biodiesel de soja. Ce qui est respectivement 5000 et 14000 fois supérieur aux 12 litres d’eau douce nécessaires pour le gaz de schiste. 

Des techniques qui évoluent 

Les entreprises nord-américaines mettent au point de nouvelles techniques pour extraire de gaz naturel de schiste. Une entreprise canadienne, GasFrac Energy,  a par exemple remplacé l’eau douce  injectée pour le fracking par du propane liquide. GasFrac Energy  et eCorp ont reçu l’autorisation de recourir à cette technologie pour extraire le gaz de schiste dans l’état de New York.

Il sera peut-être possible dans le futur d’utiliser du diazote (N2, qui est le constituant principal de l’air à hauteur de 80%) ou du dioxyde de carbone (CO2) à la place de l’eau, des chercheurs travaillent sur cette approche de dry fracking. Notamment pour extraire le gaz de schiste dans les secteurs où l’eau douce est difficilement disponible, ou qui sont trop peuplés pour que soient acceptés les va-et-vient des camions-citernes sur les routes.

 NIMBY 

La France serait riche d’un gisement de 5000 milliards de mètres cubes de gaz naturel de schiste selon une étude préliminaire du Département Américain à l’Energie.

Dans un pays qui importe 98% du gaz naturel qu’il consomme (provenant de Norvège,  des Pays-Bas, de Russie et d’Algérie) ainsi que la totalité du pétrole (provenant principalement de mer du Nord, de l’ex-URSS, de Lybie et d’Arabie Saoudite),  et où plus de  75% de l’électricité provient du nucléaire (uranium importé principalement du Niger, du Kazakhstan et du Canada), est-il vraiment pertinent d’utiliser le critère « consommation en eau douce » pour s’opposer aux projets d’exploitation du gaz de schiste ?

Ce qui est certain, c’est que les réflexes NIMBY (Not In My Backyard, pas dans mon jardin) s’inscrivent rarement dans une perspective d’intérêt général. 
 

Par Olivier Danielo, journaliste scientifique

En savoir plus:

  • L’eau douce consommée par les mines d’uranium du groupe AREVA au Niger

http://niger.areva.com/niger/liblocal/docs/NIGER_DP_VF.pdf

  • Le point de vue de Greenpeace à propos de cette activité minière:

http://energie-climat.greenpeace.fr/au-niger-areva-empoisonne-l-eau-l-air-et-la-terre

  • De l’eau pour l’énergie ! Production de carburants et d’électricité

http://www.ifpenergiesnouvelles.fr/actualites/evenements/nous-organisons/panorama-2011

  • Centrales électriques au gaz naturel, la technologie FlexEfficiency de General Electric (GE) :

http://www.ge-flexibility.com

  • Le GNV (Gaz Naturel Vehicule), par GDF Suez :

http://www.gnvert-gdfsuez.com/fr/carburants-propres/choisir-son-carburant/quels-carburants-pour-quelle-mobilite

  • Association Française du Gaz Naturel Véhicule

http://www.afgnv.info

Lire aussi :

  • Les biocarburants menacent les réserves d’eau douce

//www.techniques-ingenieur.fr/actualite/environnement-securite-energie-thematique_191/les-biocarburants-menacent-les-reserves-d-eau-douce-article_5850

  • Etats-Unis et gaz de schiste : la révolution énergétique ?

//www.techniques-ingenieur.fr/actualite/environnement-securite-energie-thematique_191/etats-unis-et-gaz-de-schiste-la-revolution-energetique-article_70129

Packs exclusifs pour inspections industrielles

Ces deux modèles bénéficient de fonctions FLIR exclusives comme le MSX, un écran tactile, les annotations à l’écran, MeterLink et la connectivité Wi-Fi. La FLIR T640 produit des images thermiques de 640 × 480 pixels. Egalement, l’utilisateur peut choisir la T440 dont les images thermiques comptent 320 x 240 pixels.

FLIR Systems fait une offre promotionnelle unique jusqu’au 31 décembre 2012. Si vous décidez d’acheter une FLIR T440 ou une FLIR T640, vous recevrez GRATUITEMENT:

•   une formation Level I de cinq jours organisée par l’ITC (centre de formation à l’infrarouge), qui vous permettra de maximiser l’utilisation de votre caméra

•   le logiciel FLIR Reporter, qui vous aidera à créer des rapports d’inspection professionnels

•   Un hygromètre MO297 ou une pince ampéremétrique EX845 que vous pouvez connecter à votre caméra thermique FLIR grâce à la technologie exclusive FLIR MeterLink.

Economisez  2.765 €*

* Hors taxes. Cette offre est valable du 1 septembre 2012 jusqu’au 31 décembre 2012. Elle n’est cumulable avec aucune autre offre promotionnelle de FLIR, et s’exerce dans les pays suivants : tous les pays d’Afrique, Albanie, Allemagne, Autriche, Belgique, Bosnie, Bulgarie, Chypre, Croatie, Danemark, Espagne, Estonie, Finlande, France, Grèce, Guadeloupe, Hongrie, Irlande, Islande, Israël, Italie, la Réunion, Lettonie, Lituanie, Luxembourg, Macédoine, Malte, Martinique, Monténégro, Norvège, Nouvelle-Calédonie,  Pays-Bas, Pologne, Polynésie française, Portugal, République tchèque, Roumanie, Royaume-Uni, Serbie, Slovaquie, Slovénie, Suède, Suisse, Turquie . 

À propos de l’imagerie thermique

L’imagerie thermique est l’utilisation de caméras dotées de capteurs spéciaux qui « voient » l’énergie thermique émise par les objets.  L’énergie thermique, ou infrarouge, est une lumière invisible pour l’œil humain car sa longueur d’onde est plus élevée que celle que l’œil  perçoit. C’est la partie du spectre électromagnétique que nous ressentons sous forme de chaleur. L’infrarouge nous permet de voir ce que nos yeux ne voient pas. Les caméras thermiques produisent des images de ce rayonnement infrarouge invisible correspondant à la chaleur. L’imagerie thermique produit une image claire des différences de température entre les objets. C’est un excellent outil pour les applications industrielles, l’inspection des bâtiments, la recherche & développement et les applications d’automatisation. Elle permet de voir dans l’obscurité totale, dans la nuit la plus noire, à travers la brume, à grande distance, à travers la fumée. Elle est aussi utilisée pour la sécurité et la surveillance, dans le secteur maritime, dans l’automobile, pour la lutte contre les incendies et dans de nombreuses autres applications.

À propos de FLIR Systems

FLIR Systems est le premier concepteur et fabricant au monde pour les caméras thermiques destinées à une grande variété d’applications. a wide variety of applications. Elle bénéficie de plus de 50 ans d’expérience. Ses caméras thermiques actuellement utilisées dans le monde se chiffrent par milliers, dans la maintenance industrielle, l’inspection des bâtiments, la recherche & développement, la sécurité et la surveillance, le secteur maritime, l’automobile et d’autres applications de vision nocturne. FLIR Systems possède sept usines de fabrication, situées aux États-Unis (à Portland, Boston, Santa Barbara et Bozeman), en Suède (à Stockholm), en Estonie (à Talinn) et en France (près de Paris). Elle tient des bureaux en Allemagne, en Australie, en Belgique, au Brésil, en Chine, en Corée, aux Émirats arabes unis, en Espagne, aux États-Unis, en France, à Hong Kong, en Italie, au Japon, aux Pays-Bas, au Royaume-Uni et en Russie. Elle compte plus de 3.200 spécialistes de l’infrarouge, et sa présence sur le marché international est assurée par un réseau de distributeurs pour la vente et l’assistance locales.

Visitez www.flir.com pour en savoir plus sur FLIR Systems et nos produits.

FLIR Commercial Systems B.V.

Christiaan Maras
Marketing Director EMEA
Luxemburgstraat 2
2321 Meer
Belgique
Tel. : +32 (0)3 665 51 00
Fax : +32 (0)3 303 56 24

Une balance pour molécule

Publiés dans Nature nanotechnology fin août, les travaux issus de la collaboration entre des chercheurs du CEA-Leti et du Caltech (California Institue of Technology) présentent un nouvel outil de pesée : une nanopoutre.

Plus précisément, cette balance high tech est composée d’une poutre de quelques nanomètres de long servant de résonateur. Lorsqu’une molécule se pose dessus, la poutre vibre. La fréquence de vibration dépend de deux paramètres, la position de la molécule et son poids. Les chercheurs ont ainsi montré que l’analyse des changements de fréquence d’oscillation suffisait pour déterminer la localisation et la masse de la particule.

Pour l’instant, ce système a été testé avec succès pour peser des molécules d’immunoglobuline (IgM), un anticorps produit par les cellules immunitaires. En mesurant les différentes masses des molécules envoyées sur le détecteur, les chercheurs ont compté et identifié les différents types d’IgM présents dans l’échantillon étudié.

Une des applications médicales serait effectivement d’analyser le système immunitaire des personnes ou d’aider au diagnostic de maladies puisque les IgM sont une signature caractéristique de certains types de cancer. A plus long terme, cette technique de pesage viendra compléter les analyses par spectrométrie de masse, méthode inadaptée aux trop grosses particules comme les protéines ou les virus.

Par Audrey Loubens, journaliste scientifique

A lire également :