Un implant neurologique qui active et désactive les souvenirs

Des scientifiques de Wake Forest University (Caroline du Nord) et de l’Université de Californie de Sud (USC) ont conçu un implant cérébral utilisé sur des rats de laboratoire qui a permis de rétablir des souvenirs auparavant perdus [1,2]. En utilisant cet implant électronique qui reproduit les signaux neuronaux de la mémoire préalablement enregistrés, les scientifiques de ces deux équipes ont réussi à rendre des éléments de mémoire aux rats, après qu’ils les aient perdus.

Ces résultats, cruciaux dans le développement de dispositifs neuro-prosthétiques, devraient permettre dans le futur proche de soigner les déficits de mémoire liés aux maladies neurodégénératives, aux accidents vasculaires cérébraux et aux autres lésions cérébrales.

Identification des zones responsables de l’enregistrement de nouvelles informations

Dans une série d’expériences, Sam Deadwyler et son équipe du département de physiologie et pharmacologie à Wake Forest University ont entraîné 45 rats pour qu’ils se rappellent lequel de deux leviers rétractables devait être actionné pour recevoir de l’eau. Cette cohorte d’animaux voyait d’abord apparaître l’un des deux leviers. Puis, après avoir été distraits, les rats devaient toucher l’autre levier pour être récompensés. Les tests répétés ont permis aux rats de comprendre la règle générale. Dans chaque essai, l’animal doit se rappeler quel levier est apparu en premier afin de pousser l’autre levier pour être récompensé par de l’eau.

Lors des essais, les chercheurs de Wake Forest ont enregistré des changements d’activité entre deux grandes divisions internes de l’hippocampe du rat : les sous-régions CA1 et CA3. Ces deux structures communiquent ensemble lorsque le cerveau emmagasine et stocke de nouvelles informations. Afin d’étudier les souvenirs des rats, de minuscules électrodes reliant ces deux sous-régions ont été implantées et les signaux échangés ont été enregistrés par ordinateur.

Mise en place de l’implant après avoir neutralisé les zones CA1 et CA3

Après avoir été enregistrées, les interactions neuronales entre CA1 et CA3 ont été bloquées par prise médicamenteuse. Sans CA1 et CA3 connectés, les rats ne se rappelaient pas quel levier pousser pour recevoir de l’eau. Une fois assurées que les sous-parties responsables de la mémoire ne correspondaient plus naturellement l’une avec l’autre, les équipes ont installé l’implant afin de connecter les deux sous-parties et ont reproduit les données auparavant enregistrées. Grâce à ce système artificiel hippocampique reproduisant les interactions entre CA1 et CA3 enregistrées auparavant, les rats ont retrouvé leur mémoire.

De plus, les chercheurs ont ensuite montré que si l’implant et ses électrodes associées étaient implantés sur un rat ne présentant pas de problème de mémoire, le dispositif peut renforcer ou améliorer leur capacité de mémoire.

Débouchés et application chez l’homme

Encore loin d’être testé chez l’homme, l’implant démontre pour la première fois que les fonctions cognitives peuvent être améliorées et retrouvées grâce à un appareil qui imite l’activité des neurones. Ces dernières années, les neurosciences ont connues un grand essor puisque des implants ont été mis au point pour permettre à des personnes paralysées de déplacer des prothèses robotisées voire un curseur d’ordinateur par une suggestion mentale pour activer l’usage d’un appareil [3,4,5,6]. Récemment le professeur Yoon, du département d’ingénierie électrique et informatique de l’université du Michigan [7] a développé un implant appelé BioBolt qui ne pénètre pas le cortex et est complètement recouvert par la peau afin de réduire le plus possible le risque d’infection. C’est vers cette technique d’intégration qu’évolueront les implants neurologiques.

Grâce à la technologie sans fil et aux puces informatiques, ce système pourrait être aisément adapté pour une utilisation humaine. Mais un certain nombre d’obstacles techniques et théoriques persistent :

  • l’implant doit tout d’abord enregistrer une trace de mémoire avant son amplification,
  • ces signaux, chez l’homme, pourraient être trop faibles pour être enregistrés,
  • le système neuronal humain est complexe et implique d’autres zones du cerveau que CA1 et CA3.

Pourtant, la restauration de certains souvenirs (par exemple : retrouver le prénom d’un proche ou la localisation d’un objet) pourrait aider au quotidien les personnes atteintes de perte de mémoire. Avec certains souvenirs retrouvés et réactivés, elles gagneraient en autonomie et éviteraient un placement dans des structures spécialisées.

Daryl Kipke, professeur de bioingénierie à l’Université du Michigan qui n’était pas impliqué dans les recherches pense que « c’est très impressionnant d’arriver à ce niveau de recherche, compte tenu de nos connaissances actuelles de la neurotechnologie. Ces études ne sont qu’un début en ce qui concerne l’exploitation des interactions existantes dans le cerveau, mais cette expérience montre l’énorme potentiel des neurosciences et de leurs technologies » [2].

 

[1] T. W. Berger, R. E. Hampson, D. Song, A. Goonawardena, V. Z. Marmarelis and S. A Deadwyler « A cortical neural prosthesis for restoring and enhancing memory », Journal of Neural Engineering, 15 juin 2011, 8(4):046017 (Parution en ligne).
[2] B. Carey, « Memory Implant Gives Rats Sharper Recollection », New York Times, 17 juin 2011.
http://www.nytimes.com/2011/06/17/science/17memory.html?_r=3
[3] M. Velliste, S. Perel, M. C. Spalding, A. S. Whitford and A. B. Schwartz « Cortical control of a prosthetic arm for self-feeding », Nature,19 juin 2008, 453, p. 1098-1101.
[4] W. Wang, S. S. Chan, D. A. Heldman, and D. W. Moran « Motor Cortical Representation of Hand Translation and Rotation during Reaching », The Journal of Neuroscience, 20 janvier 2010, 30(3), p. 958-962.
[5] E. C. Leuthardt, G. Schalk, J. Roland, A. Rouse and D. W. Moran « Evolution of brain-computer interfaces: going beyond classic motor physiology », Neurosurgical Focus, juillet 2009, 27(1):E4.
[6] T. Isa, E. E. Fetz and K. R. Müller « Recent advances in brain-machine interfaces. » Neural Networks, novembre 2009, 22(9), p. 1201-1202.
[7] Article « Noninvasive brain implant could someday translate thoughts into movement »sur Eurekalert, 16 juin 2011. http://www.eurekalert.org/pub_releases/2011-06/uom-nbi061511.php

 

http://www.bulletins-electroniques.com/actualites/67160.htm

Sojasun inaugure son éolienne

Installée sur le site de production de Sojasun à Châteaubourg, à côté de Rennes, l’éolienne a été construite sur un ancien site de moulins à vent, propice à un fonctionnement optimal.  D’une hauteur de plus de 80 mètres, l’éolienne est dôtée d’une puissance de 0,8 Mw, l’équivalent de la consommation électrique de 550 habitants par an. Sojasun est l’un des premiers industriels de l’agro-alimentaire à bénéficier d’une éolienne d’une telle ampleur. L’objectif ? Permettre à l’entreprise de couvrir une partie de sa consommation d’électricité par la production de 10 % d’énergie renouvelable dans la fabrication de ses yaourts, desserts et boissons au soja.

Selon Olivier Clanchin, président de Triballat Noyal, « Depuis plus de 15 ans, l’entreprise œuvre pour réduire sa consommation d’énergie. La mise en place de l’éolienne sur le site de Sojasun s’inscrit dans cette logique de continuité. Ainsi, dans le cadre de notre démarche développement durable baptisée « green attitude », nous tenons compte d’un ensemble de préoccupations environnementale, économique et sociale, en cohérence avec nos produits et nos valeurs. »

De mulitples défis énergétiques

En plus de la crise énergétique, une des raisons qui a motivé Sojasun a investir dans l’éolien est la forte dépendance énergétique de la Bretagne qui est l’une des plus importantes de France. En effet, en 2009, la région n’a produit que 7,4 % de l’électricité qu’elle a consommée. Et pourtant, la consommation de produits pétroliers et d’électricité y est plus importante que sur le reste du territoire. Elle est donc d’autant plus vulnérable aux coupures d’électricité, notamment en période de pointe.

Ce gain en indépendance énergétique doit permettre à Sojasun d’assurer non seulement la fabrication de ses produits alimentaires sans risque de coupure d’electricité prolongée mais également d’optimiser sa consommation grâce à l’utilisation d’énergie renouvelable.

MoMath, le futur musée des mathématiques

Glen Whitney n’est pas de ceux qui pensent que les mathématiques n’ont pas leur place dans un musée. Ou qu’un musée consacré aux « sciences » couvrant des sujets mathématiques puissent suffire. Il veut même rendre les mathématiques attractives et ludiques. Pour ce faire, il a décidé d’investir un espace en plein cœur de Manhattan, à New-York, pour en faire un musée entièrement dédié aux maths, passant de la géométrie aux nombres, épousant aussi d’autres notions.

La fermeture en 2006 du précédent musée des mathématiques, le musée Goudreau, à Long Island, l’incite à se lancer dans l’aventure. Aidé en cela par une somme rondelette qu’il a réussi à lever – 22 millions de dollars, dont 2 millions provenant de Google, le reste provenant de donateurs individuels ou de fonds d’investissements – il espère tirer profit de son expérience du « Math Midway », une exposition itinérante qu’il a développé avec son équipe et ayant rencontré un certain succès dans quelques villes américaines.

Cet ancien professeur de mathématiques, après avoir fait ses études à l’université de Harvard et à l’université de Californie, enseigna à l’université du Michigan, pour finir chez un fonds d’investissement privé. Il voit en ce musée un outil de promotion de la discipline, un outil pédagogique, pour les plus jeunes comme pour les plus grands, ainsi qu’un moyen de s’ouvrir l’esprit, ou de le nourrir, passant d’applications relativement simples à l’éponge de Menger. Il espère aussi changer l’image ennuyeuse que peuvent avoir les maths pour un très grand nombre de personnes. Reste à savoir si le monde est prêt à accueillir un tel musée…

Par Rahman Moonzur

 

Déjà paru :

Les noms interdits en .fr bientôt débloqués

Une des modifications majeures concerne l’accès à des dizaines de milliers de termes précédemment interdits et réservés : des expressions correspondant à des crimes, des infractions, des organismes internationaux, des pays, des professions réglementées, des protocoles Internet, des mots de la santé, des structures, des valeurs, des termes étatiques, tout comme les 36 682 noms de communes.

Or, tous ces termes peuvent se révéler fort intéressants. Dior pourrait déposer poison.fr, Longchamp acquérir longchamp.fr (un village des Vosges), La Poste faire main basse sur cheminot.fr (une commune en Moselle). Une concurrence exacerbée pourrait même voir le jour sur les noms communs comme bar.fr, bouteille.fr…

Un décret pour définir l’intérêt légitime

Mais attention, l’accès à ces .fr débloqués ne se fera pas à la hussarde. L’Association française pour le Nommage Internet en Coopération (Afnic) attend la parution d’un décret passé devant le Conseil d’Etat le 21 juin, dont la publication doit intervenir avant le 30 juin 2011.

Ce décret donnera la définition de deux notions clés : l’intérêt légitime et la mauvaise foi. Ces éléments seront étudiés pour chaque attribution. Dans un forum organisé à ce sujet, l’Afnic a précisé « qu’un intérêt légitime peut être un droit (raison sociale, marque, nom patronymique) mais également un intérêt plus personnel (site, services, etc.) »

Techniquement, les demandes pour ces .fr particuliers se feront auprès des bureaux d’enregistrement (registrar) qui demanderont un code d’autorisation auprès de l’Afnic via un formulaire en ligne dans leur extranet. D’après l’Afnic, « ce formulaire sera assez simple mais suffisamment étayé par des informations susceptibles de permettre l’attribution sans demander de pièces complémentaires, ni signature. Le bureau d’enregistrement disposera d’un délai pour fournir les pièces complémentaires nécessaires. Le site de l’Afnic proposera un tableau avec l’état des demandes. Une fois le code d’autorisation obtenu par le bureau d’enregistrement, ce dernier devra l’utiliser dans les quinze jours ; à défaut, la demande sera abandonnée et l’Afnic étudiera la demande suivante en attente sur le même terme. » L’attribution du code d’autorisation se fera sur la base du premier arrivé, premier servi.

Halte à la spéculation

Par ailleurs, l’Afnic met en garde contre une éventuelle spéculation autour de ces noms. S’il y a une revente (opération de transmission volontaire), l’Afnic devra « l’autoriser dans les mêmes conditions que la création d’origine compte tenu du statut réservé du nom ; le nouveau demandeur devra justifier des mêmes critères ».

Les communes ont jusqu’au 30 juin 2011 pour déposer leurs noms réservés dont certains ont une valeur économique forte. La définition de l’intérêt légitime par le décret sera étudiée avec attention.

Par Jean-François Poussard

 

 Depuis 2004, Jean-François Poussard est un spécialiste du marché des noms de domaine. Il en maîtrise l’ensemble des enjeux transversaux : juridique, marketing, communication, référencement, technique et administratif. Il conseille les plus grandes sociétés françaises et européennes dans leur stratégie mondiale de dénomination.

Au printemps 2010, il rejoint l’agence internet Systonic pour y diriger le nouveau département sur les noms de domaine, baptisé Prodomaines.

Il promeut également la plate-forme Keep Alert de Systonic, qui surveille les noms de domaine, les réseaux sociaux, les régies publicitaires (Google Adwords), le plagiat de contenu, etc. afin d’aider les marques contre des agissements frauduleux (cybersquatting, détournement de trafic et de notoriété…).

 

 

Cloud Computing : des chercheurs de Bochum ont découvert des failles de sécurité critiques

Le « Cloud computing » reste une source de controverses. Si certains ont salué l’énorme potentiel des serveurs externalisés en nuage virtuel, dans lesquels les logiciels et les données des entreprises ne sont plus locales mais traitées dans des infrastructures partagées, les autres mettent en garde contre ses risques. En effet, si Amazon et Google confiaient leurs serveurs de données clients à un prestataire privé, personne ne sait exactement ce que ces fournisseurs seraient en mesure d’entreprendre avec les informations récoltées. De plus, ces fournisseurs de « cloud » privé pourraient même présenter des lacunes flagrantes de sécurité.

Les scientifiques de l’Institut de sécurité des réseaux et des données de l’Université de la Ruhr à Bochum (Rhénanie-du-Nord-Westphalie) l’ont prouvé la semaine dernière : sur la plate-forme cloud « Eucalyptus », les chercheurs ont pu contourner le système de sécurité et ainsi accéder à toutes les données et fonctionnalités dans le nuage, qui a été immédiatement fermé.

Plus de 25 000 « nuages » de données privées ont déjà été créés à travers le monde via la plateforme « Eucalyptus » ces trois dernières années, et selon une enquête, environ 40 % des 100 plus grandes sociétés cotées dans le magazine américain « Fortune » utiliseraient cette plate-forme logicielle pour leurs activités. Cependant, lors d’un simple contrôle de sécurité, les chercheurs de Bochum Juraj Somorovsky, Jörg Schwenk, et un étudiant en sécurité IT ont découvert une lacune importante qui leur a servi de passerelle afin d’entrer dans la zone de données hébergées par le nuage. Un message XML valide a suffi. « Nous avons réussi à éviter l’interface de contrôle du nuage simplement avec un message XML caché dans la signature », explique Jörg Schwenk. La technique utilisée est ainsi une signature XML cachée dans le message, et donnant à l’attaquant l’apparence d’un client du serveur officiellement enregistré. En envoyant des commandes sous une identité reconnue comme correcte, les scientifiques étaient capables d’accomplir toute fonction x dans le nuage. Le message caché pouvait même être utilisé indéfiniment pour se connecter.

« Par conséquent, il est impératif de reconnaître les vulnérabilités du cloud computing dès maintenant, afin d’éviter les attaques réelles », a déclaré M. Schwenk. La lacune sécuritaire découverte à ce jour est l’une des nombreux cas potentiellement présents dans l’offre de Cloud et à laquelle les chercheurs de Bochum ont travaillé ces derniers temps.

Le ministère fédéral de l’économie et de la technologie (BMWI) subventionne ainsi le projet « Trusted Cloud » (« nuage de confiance ») dans lequel l’Université de la Ruhr contribuera également à améliorer la sécurité de l’interface des serveurs partagés.

 

http://www.bulletins-electroniques.com/actualites/66982.htm

 

À lire aussi :

Le Cloud Computing au service du plus grand télescope du monde

Qu’est-ce que le Cloud Computing va changer pour vous ?

La sécurisation du Cloud computing est possible et mesurable

Finies les photos floues !

C’est le rêve de tous les photographes amateurs, ainsi que de tous les enquêteurs de la planète : pouvoir faire disparaître complètement le flou d’une photo, après coup. La start-up américaine Lytro se propose de rendre ce service, par le biais de son appareil photo « Light Field Camera », appareil utilisant une lentille plénoptique, disponible à la vente sous peu.

Adobe avait déjà fait la démonstration de cette technologie lors du GTC 2010, technologie encore affinée par Lytro. L’appareil photo capture les informations 4 dimensions du flux lumineux émis par une source, correspondant à sa puissance lumineuse, c’est-à-dire les photons émis par la source à un moment donné, à l’aide d’une lentille plénoptique. Cette lentille est elle-même composée d’une matrice de plusieurs dizaines de mini-lentilles. Épaulée par un logiciel de post-traitement adapté, il devient alors possible de choisir où se fait la mise au point, voire de rendre toutes les parties de la photo nettes.

Les concepteurs mettent en avant, outre la possibilité de mise au point à posteriori, permettant aussi de gagner en rapidité (plus besoin de batailler avec le focus / auto-focus), la possibilité de rendre ses photos ludiques une fois mises en ligne, à l’aide d’un outil autorisant au spectateur lui-même de changer la mise au point sur une photo. Ce type de lentille est aussi très performante pour exploiter un sujet malgré le manque de lumière, sans flash. Cet appareil permet enfin de franchir le cap de la 2D, faisant le lien vers une 3D immersive.

Par Rahman Moonzur

Déjà paru :

Pourquoi certaines entreprises jouent-elles contre leur camp ?

Lorsqu’elles se développent au sein de l’entreprise, ces deux attitudes conduisent à son succès. Comment savoir si votre entreprise encourage le volontarisme, la prise de risques, l’innovation, l’intuition ou ; au contraire, si elle fomente la peur, le découragement, la morosité ?

L’OCI©, (inventaire de la culture organisationnelle), développé par l’université de Chicago, est l’outil de diagnostic organisationnel le plus utilisé dans le monde. Il fournit une image de la culture opérationnelle d’une organisation en termes de comportements que les membres croient devoir développer pour satisfaire les exigences de leurs entreprises. Ces normes comportementales sont représentées sur le Circumplex © (voir illustration ci-dessous).

 

Culture Passive

Ce type de culture encourage des normes comportementales (approbation, conventionnalisme, dépendance et évitement) donnant la priorité à la personne et motivées par le besoin de sécurité. Cette culture montre de fortes tendances vers la conformité et le conservatisme. Les employés estiment qu’ils doivent « suivre le mouvement » afin de s’adapter et qu’ils doivent éviter d’exprimer des opinions contraires à celles de leur hiérarchie. Puisque les erreurs sont habituellement punies, les collaborateurs dans ces cultures évitent la responsabilité et prennent rarement des risques. Ce type de culture se développe « naturellement » dans les organisations fortement bureaucratisées, certains services publics, certaines entreprises jouissant d’un monopole…

Culture Agressive

Opposition, pouvoir, compétition, perfectionnisme : ces comportements donnent essentiellement la priorité aux tâches sur les personnes. La concurrence et la confrontation caractérisent ce modèle culturel. Le surpassement de ses pairs y semble encouragé et empêche généralement le travail d’équipe. Il est commun que les employés se critiquent les uns et les autres et qu’ils se fixent des objectifs individuels qui sont souvent peu réalistes. Si vous travaillez dans une « boîte » d’ingénieurs vous reconnaîtrez probablement cette culture.  

Culture constructive  

La recherche du résultat efficace (accomplissement), le développement individuel (réalisation de soi), l’ouverture aux autres (humanisme) et le travail d’équipe (affiliation) sont encouragés dans ce type de culture. Les employés sont généralement encouragés à être créatifs et à faire bon accueil à la responsabilité, qui favorise en retour un sens de l’appropriation parmi les collaborateurs et conduit à de grands niveaux d’engagement, de fidélité et de résultats. Ce type de culture est presque universellement décrit comme la culture idéale de tout système humain.

Comme on peut l’imaginer, les entreprises qui favorisent une culture constructive auront plus de facilité à encourager ces deux ingrédients de la réussite que sont la combativité et l’audace. Les autres cultures (passives ou agressives), parce qu’elles entretiennent un sentiment ambiant d’insécurité, découragent l’initiative, la prise de risque, la confiance en soi… Qu’ils soient constructifs ou défensifs, les comportements sont encouragés par l’ensemble des acteurs de l’entreprise. Certaines entreprises jouent donc – le plus souvent sans le savoir et avec zèle – contre leur camp. Elles peuvent aujourd’hui changer cela.

Par Dino Ragazzo

MANAGER D’ELITE

Manager d’Elite est un ouvrage écrit par Dino Ragazzo. Consultant expert en développement organisationnel, l’auteur développe à travers l’approche Gestalt, l’intérêt pour les managers d’aujourd’hui de se positionner avant tout sur le plan des sciences sociales existentielles plutôt qu’à chercher à modéliser les modèles traditionnels de la science objective.

Bénéficiez de 20 % de réduction sur l’achat de cet ouvrage grâce à Instantanés Techniques (code promo 1IT11)

Conduire à l’aide d’une seule main

Lors du 13e Congrès EAC (European Automotive Congress) ayant eu lieu au mois de juin à Valence, en Espagne, Ficosa Internacional, IBV (Institute of Biomechanics of Valencia), CEIT et la TECNUN ont présenté conjointement un prototype d’appareil de contrôle de véhicule, foulant au pied le sacro-saint volant et le remplaçant par un système ressemblant à un joystick simple à l’emploi.

Le prototype permet au conducteur de contrôler et de guider le véhicule, d’accélérer, de changer de vitesse ainsi que de freiner, le tout à l’aide d’une seule et unique main. Après avoir discuté et étudié les besoins des personnes à mobilité réduite et de certaines faiblesses musculaires handicapantes dans l’utilisation d’un volant traditionnel, les Espagnols se sont entendus sur le design actuel, à l’ergonomie étudiée, permettant de le rendre pratique et fonctionnel pour de nombreux conducteurs. Ils sont allés jusqu’à améliorer leur système en y adjoignant des petits moteurs procurant les mêmes sensations qu’un volant standard.

José Solaz, l’un des concepteurs du prototype, souligne que « le système prend en compte le degré de force et la capacité de coordination de l’utilisateur ». D’autre part, un mécanisme permet d’imiter la sensation de conduite, en reproduisant les mêmes informations qu’une transmission mécanique procure à un utilisateur lambda. Le design le rend attractif et compréhensible à tout âge, et les personnes dont les handicaps concernent les membres inférieurs sont évidemment celles qui pourront profiter le plus de cette technologie, bien qu’elle soit accessible à presque tout le monde.

Par Rahman Moonzur

Les multiples visages de la bactérie Escherichia coli

Ces jours-ci, en raison des intoxications alimentaires qui ont causé la mort de 25 personnes en Europe, il va sans dire que cette célébrité est négative. À l’heure actuelle, l’adjectif qui lui est le plus fréquemment associé est celui de « tueuse ». En effet, seuls les éléments négatifs de cette très grande famille de bactéries – laquelle regroupe des centaines de membres – font les manchettes.

Pourtant, ces bactéries sont non seulement majoritairement inoffensives, mais, dans bien des cas, hautement bénéfiques. Bien que je ne compte pas tenter de la réhabiliter, j’aimerais néanmoins vous brosser un portrait de quelques-uns des visages de l’Escherichia coli.

L’Escherichia coli, ou E. coli, est une bactérie présente chez les mammifères – y compris l’humain – où elle est l’organisme dominant de la flore intestinale. La colonisation se fait dès les premiers moments qui suivent la naissance. La bactérie s’y multiple rapidement, ce qui empêche d’autres espèces pathogéniques de s’y installer. La bactérie E. coli joue un rôle dans la production de la vitamine K, laquelle aide à la coagulation du sang. C’est pourquoi il est souvent nécessaire de fournir de la vitamine K aux nourrissons après la naissance. Leur flore intestinale n’étant pas complètement développée, elle ne produit pas suffisamment de vitamine K pour prévenir des hémorragies. Combinée à d’autres coliformes, la bactérie E. coli présente dans les selles sert de marqueur indicatif de la présence de bactéries pathogènes dans l’eau.

L’ E. coli a été l’un des premiers organismes dont le code génétique a été élucidé, donnant ainsi lieu à une meilleure compréhension du mode de fonctionnement de l’humain et de l’ensemble des organismes vivants. À ce sujet, le Prix Nobel français Jacques Monod a dit que : « Tout ce qui est vrai pour la bactérie Escherichia coli est vrai pour l’éléphant ». Mais c’est dans ses modifications que la bactérie a apporté le plus d’avantages pour l’humain. Armée des instructions nécessaires, elle peut être transformée en micro-usine capable de produire rapidement, et avec un minimum d’énergie, une grande variété de composés utiles, et ce, sans aucun risque de grève.

Le premier succès de la bactérie dans ce rôle a été la production de l’insuline humaine. Avant son introduction, les patients étaient traités avec de l’insuline provenant d’animaux d’abattoirs. Bien que la protéine soit similaire à l’insuline humaine, l’on répertorie néanmoins quelques différences. En conséquence, chez certains individus, le système immunitaire traite cette protéine comme un corps étranger à rejeter. Dans de tels cas, il se produit une interaction susceptible de causer des réactions inflammatoires au site de l’injection.

Au cours des années 1970, les scientifiques ont réussi à identifier le gène qui codifie la production de l’insuline chez l’humain, et à le transférer dans une bactérie du type E. coli (illustrée ci-contre). L’insuline produite par la bactérie, en tous points semblable à l’insuline humaine, a été mise sur le marché sous le nom d’Humuline (Eli Lily). Cela fut la première application de la technique de l’ADN recombinant, et donna le coup d’envoi aux multiples applications de la biotechnologie. Aujourd’hui, cette dernière, entre autres grâce à l’E. coli, permet la production d’antibiotiques, de vaccins et d’une multitude de traitements.

C’est aussi grâce à l’ADN recombinant ainsi qu’à l’E. coli que sont produits la plupart des fromages dans le monde. Dans sa forme la plus générale, le fromage est le résultat de la coagulation de protéines du lait – principalement de lait de vache, mais aussi de brebis, de chèvre ou d’autres mammifères. D’ailleurs, ceux qui ont vu le film Borat savent qu’il est aussi possible d’en produire avec du lait maternel. Cette coagulation se fait généralement par l’ajout de présure, une substance que l’on trouve dans le suc gastrique du veau ou de l’agneau. Présente dans l’estomac du jeune animal, la présure favorise chez la digestion du lait maternel. Malheureusement, les quantités de présure provenant de ces animaux ne suffisaient pas à la demande. Encore une fois, c’est la bactérie E. coli qui a sauvé la situation.

Le principe actif de la présure est une enzyme nommée chymosine. Comme pour l’insuline, les scientifiques sont arrivés à isoler le gène nécessaire à la production de l’enzyme. Ce gène a été ensuite incorporé dans une bactérie E. coli transformée en usine de production de chymosine parfaitement identique à celle d’origine animale. Outre l’avantage pour les végétariens (ovo-lacto) de ne pas avoir à utiliser un produit d’originale animale, la chymosine est le premier produit issu de la biotechnologie approuvé pour l’alimentation humaine en 1990. Il est amusant de penser que les Français, pour qui l’acronyme OGM est un anathème, utilisent le procédé, et ce, sans le moindre état d’âme, dans la production de leurs fromages.

Sous différentes formes, la bactérie E. coli joue par ailleurs un rôle important dans l’amélioration de l’environnement. Elle fait partie des bactéries qui dégradent les rejets humains dans les fosses septiques. Ces mêmes bactéries produisent du biogaz à partir de déchets organiques. Une innovation particulièrement intéressante dans ce domaine est la possibilité de produire des hydrocarbures directement à partir de la bactérie. Les chercheurs de la société californienne LS9 (LS9 Inc.) sont parvenus à modifier des E. coli, les rendant aptes à convertir en biocarburant des sources naturelles de carbone, comme le sucre ou la cellulose. Ce dernier peut être utilisé dans un moteur, sans subir de traitement supplémentaire. Imaginez avoir un digesteur à bactéries E. coli dans votre appartement. Vous lui donnez du sucre avant de vous coucher et le matin, vous avez assez d’essence pour aller au travail. Malheureusement, je ne crois pas que ce soit pour demain !

C’est justement la grande facilité avec laquelle la bactérie E. coli peut être modifiée et son étonnante rapidité de reproduction qui génèrent les espèces pathogènes qui nuisent à sa réputation. Dans le cas de l’intoxication alimentaire dont les médias traitent présentement, le coupable est une nouvelle variante de la bactérie Escherichia coli entérohémorragique (ECEH). Celle-ci doit son nom à la présence de sang dans les selles dont elle est la cause. La plupart des personnes qui en sont atteintes guérissent en une dizaine de jours, quoique certaines soient sujettes à de graves complications. Potentiellement mortel, le syndrome hémolytique et urémique (SHU) qui affecte les reins touche à peu près 10 pour cent des personnes infectées. Ce nouveau sérotype de la bactérie, baptisée O104, est de la même famille que celui (O157) responsable de la mort de sept personnes et des graves symptômes dont plus de 2 000 individus ont été affectés à Walkerton (ON), il y a quelques années.

À l’instar du cas de Walkerton, l’hypothèse avancée est que la bactérie proviendrait d’eau contaminée par du purin de bétail et qui aurait été en contact avec des légumes. Mais il semble que ce qui rende la bactérie O157 particulièrement virulente et qu’elle ait emprunté les gènes d’une autre. Il s’agit d’un phénomène avec lequel la bactérie E. coli est familière et qui non seulement réhausse la toxicité, mais accroît également la résistance aux antibiotiques. Cela explique que dans le cas de la variante O157 de l’ECEH, le SHU n’est pas observé chez 5 pour cent des patients, mais plutôt chez près de 50 pour cent d’entre eux. Au moment où j’écris ceci, la source de la contamination n’a pas encore été trouvée et ne le sera possiblement jamais.

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

Améliorer la luminosité des LED

Jizhou Song, professeur mais également chercheur en Ingénierie à l’Université de Miami, a longtemps planché sur le sujet des Diodes Électroluminescentes (LED), suffisamment pour avoir de nombreuses idées sur la question, notamment concernant les moyens d’améliorer ce très important composant opto-électronique. Il a donc décidé de passer à l’acte, en aidant à concevoir toute une gamme de LED, allant jusqu’à être 100 fois plus petites que les LED traditionnelles. Ces LED ont une certaine flexibilité d’utilisation, la particularité de dégager vraiment peu de chaleur et par conséquent de se maintenir à une température réduite. D’autre part, elles disposeraient d’une durée de vie significativement supérieure aux diodes actuelles.

Les bulbes incandescents sont peu efficaces, le plus gros de l’énergie utilisée étant converti en chaleur, alors qu’une petite partie est convertie en lumière. La découverte des LED a permis de réduire la déperdition d’énergie liée à ces bulbes. Dans l’étude publiée en ligne par le site « Proceedings of the National Academy of Sciences », Jizhou Song évoque son rôle dans le management thermique de ces nouveaux composants. « Le nouveau modèle utilise un substrat en silicone, (..) et se base sur une nouvelle disposition interne », explique-t-il. « Ce sont ces nouveautés qui permettent la miniaturisation et de conserver des températures assez basses », malgré la même alimentation. La prochaine étape, selon lui, sera de les rendre… déformables.

Par Rahman Moonzur

Une méthode simple pour fabriquer du graphène ?

Au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène est un cristal bidimensionnel de carbone, composé d’une simple couche sans défaut, dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier, de type rayons de nid d’abeille. L’empilement de ces couches constitue le graphite, existant dans la nature. Le graphène est l’un des matériaux les plus résistants testés jusqu’à maintenant, possédant de remarquables qualités de conductivité, rendant potentiellement son utilisation à l’échelle nano très intéressante.  Un hic toutefois : la production reste encore très problématique et onéreuse.

Dans l’édition du mois de juin du « Journal of Materials Chemistry », des chercheurs de l’Université de Northern Illinois (NIU), près de Chicago, rapportent qu’ils ont découvert une nouvelle méthode de fabrication du graphène, en transformant du dioxyde de carbone directement en une assez fine couche de graphène, de moins de dix atomes d’épaisseur (contre un seul normalement). Il suffirait, selon les scientifiques américains, de brûler du magnésium pur dans de la neige carbonique.

« Il est prouvé scientifiquement que la combustion du magnésium métallique dans du dioxyde de carbone produit du carbone, mais la formation de ce graphène, sous forme de quelques couches, et en tant que résultat principal n’a jamais été ni identifiée, ni prouvée, jusqu’à notre dernier rapport d’étude », explique Narayan Hosmane, professeur de chimie et de biochimie, à la tête du groupe de recherche.

« Ce processus peut potentiellement être utilisé pour produire du graphène sous forme de quelques couches, en très grande quantité » explique-t-il encore. Jusqu’à maintenant, le graphène était synthétisé de différentes manières, toutes plus fastidieuses les unes que les autres, utilisant des produits chimiques dangereux et plus ou moins polluants, à un prix proprement exorbitant. Cette nouvelle méthode est simple, produit peu de déchets polluants et est relativement peu onéreuse.

Le professeur Hosmane et son groupe de chercheurs entreprenaient de produire initialement des nanotubes de carbone. Mais, à la grande surprise de toute l’équipe, c’est bel et bien du graphène qui a pu être isolé. Cette technique, d’une grande simplicité, avait pourtant déjà été étrennée puis utilisée auparavant par de nombreux scientifiques, mais ces derniers n’auraient apparemment pas regardé d’assez près la structure du carbone produit. Il ne leur reste plus qu’à roder leur méthode pour pouvoir enfin pouvoir simplement et en grande quantité ce nouveau matériau qualifié de « miracle », source d’espoir et d’enthousiasme aussi bien au sein de la communauté scientifique que du côté des industriels.

(Le prix Nobel de Physique 2010 avait été attribué à Andre Geim et Konstantin Novoselov, deux chercheurs d’origine russe, pour leur découverte du graphène.)

Par Rahman Moonzur

De l’eau potable pour tous, partout

L’alliage contenant de l’aluminium, du gallium, de l’indium et de l’étain, permet de fournir de l’électricité et de l’eau potable dans les villages en manque de cette ressource, voire même à des fins militaires, lors de certaines opérations. En l’immergeant dans de l’eau, qu’elle soit salée ou non, se créé une réaction spontanée séparant les molécules d’oxygène et d’hydrogène de l’eau. L’hydrogène peut alors générer de l’électricité qui servira à créer de l’eau sous forme de vapeur. La vapeur, tuant les bactéries contenues dans l’eau, est condensée pour donner de l’eau purifiée, permettant de passer de l’eau non-potable à l’eau potable.

L’aluminium, peu toxique sous cette forme, peu onéreux et très abondant sur Terre (troisième métal le plus abondant), pourrait vite rendre cette technologie disponible et assez attractive. Puisque cela marche avec de l’eau salée, outre la cruciale désalinisation de l’eau, il peut être intéressant d’embarquer ce système à bord d’un bateau ou d’un véhicule sous-marin, dans le but d’y produire de l’énergie, pouvant servir à leur bon fonctionnement, et évidemment d’y servir de source d’eau potable.

D’après les calculs, l’eau devrait être produite pour environ 1 dollar le gallon (près de 4 litres), alors que l’électricité générée coûterait 35 cents par kWh. Cette unité ne devrait pas peser plus de 45 kilos, ce qui la rendrait assez aisément transportable par un véhicule. Un prototype est sur le point d’être construit, ouvrant la voie à un appareil pouvant servir dans les zones reculées ou en dehors du réseau d’alimentation électrique.

Par Rahman Moonzur

Whing : projet innovant de fauteuil roulant électrique

Né de la collaboration entre Segula Matra Technologies et l’Association française contre les myopathies (AFM), le projet WHING est un projet de fauteuil roulant électrique innovant développé afin de faciliter le quotidien des personnes à mobilité réduite.

Pour mieux répondre aux préconisations du corps médical et, surtout, aux besoins des utilisateurs (morphologie, pathologie évolutive, etc.), une étude a été menée par l’AFM auprès de ces derniers afin de rédiger un cahier des charges de besoin. Cette étude a souligné, par exemple, la nécessité de disposer d’un faible encombrement et d’une assise basse pour faciliter l’accès à un véhicule ou à un bureau.

Soutenu par le Conseil Général des Yvelines pour son caractère innovant, le fauteuil WHING intègre de nombreuses fonctionnalités améliorant l’autonomie et le confort de ses utilisateurs.

Ainsi, des amortisseurs facilitent le franchissement d’obstacles et des vérins électriques permettent de passer d’une position assise à une position verticale, améliorant ainsi l’autonomie des utilisateurs. Autre progrès, l’intégration de la domotique et de son pilotage par infrarouges dans l’IHM (Interface Homme Machine) du fauteuil pour des applications de type : allumer la TV, ouvrir une porte, descendre des volets, etc.. À ce titre, l’IHM accueille un écran pour visualiser le système de gestion de WHING avec une infographie en couleurs, résolument attrayante. Le design du fauteuil a, lui aussi, fait l’objet d’une très grande attention, se voulant valorisant et moderne, limitant ainsi la stigmatisation des utilisateurs.

L’objectif est de démarrer début 2011 la production, à Trappes dans les Yvelines, pour une commercialisation courant 2011.

« L’intégration 3D représente un enjeu majeur de la microélectronique »

Instantanés Techniques : Pourriez-vous nous expliquer quelle est votre fonction et vos missions au sein du CEA-Léti ?

Je suis chef du département « composants silicium », dans lequel sont menées trois grandes activités. La première porte sur les microsystèmes usinés dans du silicium comme des capteurs, des actionneurs, des microcomposants RF (capacités, inductance, MEMs RF), etc., l’étude de leur fiabilité et les techniques de packaging collectif (Wafer Level packaging).

La deuxième concerne la technologie 3D ou l’intégration 3D, ce qu’on appelle le « stacking de puces », l’empilement de puces sur puces ou l’empilement de wafer sur wafer, avec des techniques d’amincissement de puces, dans le but d’aller vers des intégrations de plus en plus poussées. Ces  techniques 3D permettent d’augmenter les performances (exemple la bande passante entre un processeur et une mémoire), de réduire la consommation électrique en remplaçant une longue connexion horizontale par une courte connexion verticale, de baisser les coûts de production en choisissant la technologie adaptée à la fonction recherchée, de réduire le facteur de forme.

Enfin, la troisième activité se rapporte à l’évolution de la microélectronique avancée en travaillant sur de nouvelles architectures de transistors développées sur une couche mince de silicium sur isolant (transistors FDSOI 28 nm et 20 nm), de nouvelles architectures de mémoire non volatiles, des composants de puissance (en choisissant du GaN sur Silicium) adaptés aux marchés du véhicule électrique ou hybride et du photovoltaïque.

Les wafer ?

Ce sont des plaques de silicium allant de 100 microns à 300 millimètres de diamètre pour les tranches les plus larges. Actuellement, nous sommes équipés en lignes 200 millimètres et en lignes 300 millimètres, les deux standards de l’industrie.

Quel est l’enjeu de l’intégration 3D ?

Aujourd’hui, dans les cartes électroniques, vous avez des composants placés dans des packages et soudés sur une carte. L’idée est de prendre des puces nues, et de les empiler les unes sur les autres pour éviter les packages intermédiaires. On obtient ainsi un seul package, une fois les différentes puces empilées. Il en résulte une augmentation du niveau d’intégration, de la fiabilité, de la performance, et une baisse de la consommation électrique et du facteur de forme.

Ceci dit, empiler les puces implique qu’il faut être capable de les amincir. Et une fois que vous avez aminci un wafer à quelques dizaines ou 80 microns, il devient difficile de manipuler ce film très mince qui se retourne sur lui-même. Il faut donc coller ce support très fin sur un autre support plus rigide, durant la manipulation et disposer de techniques de collage intermédiaire.

Il faut également être capable de faire des trous dans le silicium, ce qu’on appelle des « through silicon-via » (TSV) pour pouvoir faire les reprises de contact électrique et pouvoir empiler les puces tout en maintenant un contact électrique vers l’extérieur.

En R&D, nous disposons au CEA-Léti des mêmes équipements que les partenaires industriels. L’avantage est que lorsque nous mettons au point un procédé, ou un nouveau composant, nous pouvons transférer le flow à nos partenaires industriels en donnant et en décrivant les différentes étapes de fabrication, sur les différentes machines.

Quelles sont les autres activités du département ?

Tout ce qui est micro, nanoélectronique, et plus précisément sur le transistor élémentaire. Ce dispositif de base peut être décrit schématiquement comme un interrupteur pouvant être mis en position ON ou OFF, devant commuter le plus vite possible, minimiser les courants de fuite en position OFF, et  faire passer le plus de courant possible. Actuellement, nous travaillons sur les diminutions de géométrie de ces transistors (28 nm, 20 nm, 14 nm, 10 nm). L’état de l’art en  production est autour du nœud 32 nanomètres pour les technologies les plus avancées.

Ce n’est pas 28 ?

Oui, 32-28, le 28 étant une variante du 32, avec un shrink optique. Le Léti a transféré le 32-28 à STMicroelectronics, ainsi qu’à ses partenaires. Aujourd’hui, nous travaillons sur le 20 nanomètres, le 14 nanomètres, le 11 et en dessous, avec différentes architectures de transistor.

Une autre activité du département porte sur les mémoires embarquées non-volatiles. Ce sont des mémoires, qui lorsqu’elles ne sont pas alimentées en tension, conservent quand même l’information qui est stockée.

Un autre domaine de recherche porte sur les composants de puissance. Ce sont des composants susceptibles de travailler à très haute tension et à très fort courant, liés à l’arrivée prochaine et aux besoins futurs de la voiture électrique, de la voiture hybride, du photovoltaïque, et du solaire.

Bien sûr, tous ces projets requièrent des équipes de modélisation, de simulation, de caractérisation électrique, ainsi que des moyens de test, de pré-production, etc. Nous sommes un peu plus de 300 personnes au département « composants Silicium » et nous exploitons les possibilités de nos plateformes technologiques (500 personnes travaillant sans interruption 24 heures / 24 et 7 jours sur 7).

Avez-vous des exemples d’innovations récentes provenant du CEA-Léti à nous donner ?

Grâce à l’empilement 3D, nous avons réalisé récemment avec STMicroelectronics des modules « camera phones », utilisés dans les téléphones SC et les téléphones Nokia.

Nous avons aussi travaillé sur des concepts d’empilement de circuits processeurs et de mémoires. Pour avoir la mémoire au-dessus des unités de calcul, et non à côté, avec ces architectures, on peut augmenter les débits d’information entre la mémoire et le processeur. Ainsi, on peut obtenir de meilleures performances et réduire la consommation.

Finalement, on pourrait résumer la mission du département en ces termes : obtenir les meilleures performances en termes de puissance de calcul, avoir la consommation la plus faible possible, dans l’encombrement le plus réduit possible, s’interfacer avec l’environnement grâce à de nouveaux capteurs et actionneurs. Soit, réaliser des objets toujours plus petits, toujours plus performants, toujours moins gourmands en énergie.

Ce qui est assez désagréable aujourd’hui avec les smartphones, c’est la réduction importante de leur autonomie par rapport à un téléphone classique qui a, lui, 10 jours d’autonomie. Aujourd’hui, sur votre smartphone, vous avez une journée d’autonomie, parfois même moins. Cela dépend du mode d’utilisation, mais globalement, la contrainte utilisateur est forte.

D’autre part, nous travaillons sur de nouveaux concepts pour fabriquer des capteurs en silicium, qui peuvent être des accéléromètres, des gyromètres, des magnétomètres pour faire de la mesure de champ magnétique, des boussoles, et sur des concepts mettant en œuvre simultanément ces capteurs, pour plus de degré de liberté. Ces composants trouvent leurs débouchés dans les consoles de jeux, les portables, etc.

Enfin, un autre axe de recherche concerne tout ce qui est architecture radiofréquence, le but étant d’apporter de l’innovation grâce à une bonne exploitation des microtechnologies dans ces étages de radiofréquence pour pouvoir mieux intégrer (les composants passifs comme les capacités ou les inductance), ou obtenir de meilleures performances.

Quels types de collaborations entretenez-vous ?

Le CEA-Leti ne reçoit qu’une faible partie de son budget en provenance du CEA, de l’ordre des 15 %. 85 % du budget provient donc de ressources externes, dont 50 % de financements industriels, et le reste, de financements de projets coopératifs par le ministère de l’Économie, des Finances et de l’Industrie, le ministère de la Recherche, les pôles de compétitivité ou la Commission européenne.

Quels sont vos partenariats à l’international ?

Aujourd’hui, nos plus gros clients dans le domaine de la microélectronique sont STMicroelectronics, IBM, Soitec. Nous sommes également très impliqués dans le cadre du plan Estrosi, visant à maintenir des emplois dans la microélectronique en France, sur les sites de production. Nous collaborons ainsi avec ST Tours, Altis, IPDIA, Soitec, de grands acteurs français pour qui nous participons au développement de nouvelles activités et participons au maintien et à la création d’emploi. À l’international, nous travaillons entre autres avec Freescale, IBM, Shin-Etsu, tout en cherchant à favoriser l’écosystème local, avec des partenariats majeurs avec STMicroelectronics et Soitec.

Quelle position occupe la France au niveau de la recherche dans ce domaine ?

Le Léti à Grenoble fait clairement partie des trois centres européens à la pointe dans ce domaine, avec l’IMEC en Belgique, et les Fraunhofer en Allemagne. Nous disposons d’investissements annuels récurrents très lourds qui nous permettent d’acheter les équipements dont nous avons besoin et ainsi de rester dans la course de la microélectronique.

 

Propos recueillis par Carole Hamon

« La réduction du coût énergétique du dessalement est le challenge à relever »

Techniques de l’Ingénieur : quel est votre rôle et quels sont vos missions au sein de Veolia Environnement ?

Je fais partie de la direction Recherche et Innovation de Veolia Environnement. Cette entité est découpée en 7 programmes de recherche, dont un est consacré à l’eau potable. Je suis directeur de ce programme depuis 6 ans. Mon rôle est de définir, organiser, suivre tous les programmes de R&D qui sont en lien avec le métier de la production et de la distribution d’eau potable de Veolia.  Cela comprend aussi une activité plus spécialement dédiée au dessalement, qui est l’une des méthodes de production d’eau potable à partir d’eau de mer.

En quoi consiste le dessalement de l’eau ?

Aujourd’hui, deux grandes techniques permettent de dessaler l’eau. La première est le dessalement thermique. Schématiquement, on fait bouillir de l’eau, on récupère la vapeur, on recondense la vapeur, et on obtient ainsi de l’eau débarrassée de ses sels. C’est une technique ancienne, qui s’est perfectionnée depuis maintenant 40-50 ans, avec notamment les techniques multiples effets type MSF ou MED.

La deuxième grande famille de techniques concerne le dessalement par membranes, de type « osmose inverse ». Ce sont des membranes très fines, semi-perméables, au travers desquelles l’eau a naturellement tendance à passer avec un phénomène d’osmose lié à la différence de salinité. L’eau douce traverse la membrane et vient diluer la partie salée. En appliquant une pression sur la partie salée pour repousser l’eau douce de l’autre côté de la membrane, on contrarie le phénomène d’osmose naturelle en faisant de l’osmose inverse.

En quoi sont constituées les membranes ?

Principalement à base de matériau polymère issu de la chimie du pétrole.

Quels sont les avantages et les inconvénients de ces techniques ?

Le dessalement par membranes date d’il y a 40 ans. Ces dernières années, il s’est fortement développé alors que le dessalement thermique a plutôt lui ralenti. Aujourd’hui, on observe une très forte croissance du nombre d’installations qui sont construites selon le procédé d’osmose inverse.

Ce qui a fait la différence dans le temps, c’est la performance de consommation énergétique des membranes. Au départ, elles consommaient beaucoup, entre 10 et 15 kWh par m3 d’eau dessalée. En 20 ou 25 ans, nous avons réussi à descendre à 3,5 kWh par m3.

Quand l’unique besoin est de produire de l’eau sur un endroit donné, le procédé osmose inverse est plus économique, car c’est une technique qui coûte moins cher en énergie.

Par contre, s’agissant de projets où les besoins sont à la fois de produire de l’électricité et de l’eau douce, le procédé thermique peut être plus approprié car l’usine de dessalement thermique est associée à une usine de production d’énergie. Mais aujourd’hui, de moins en moins d’usines fonctionnent comme cela, bien qu’il s’enconstruise encore d’importantes, notamment en Arabie Saoudite.

Quels sont les pays où la production de dessalement d’eau est importante ?

Les pays du Golfe, l’Australie. Ce sont les deux marchés les plus matures. On travaille aussi un peu en Espagne, aux États-Unis et en Chine où cela commence à se développer beaucoup, principalement pour le marché industriel. Il faut rappeler qu’en Chine, les eaux douces sont réservées en priorité à la production d’eau potable. Les entreprises situées en zone cotière et qui ont des besoins d’eau supplémentaire doivent avoir recours au dessalement.

Quels sont les critères pour mesurer la potabilité d’une eau ?

En Europe, les critères sont régis par la directive européenne de 1980 qui définit la qualité minimale de l’eau. Même si certains pays dans le monde y font quelques entorses, la plupart sont alignés sur ces standards européens assez proches de ceux de l’OMS.

De quelle nature sont ces standards ?

Il y a des critères physico-chimiques et des critères microbiologiques (on cherche à retirer les micropolluants, les nitrates, toutes les sources de contamination, les bactéries, les virus, etc.)

Dans le dessalement de l’eau de mer, le principal élément à retirer est le sel. Même si l’eau de mer est beaucoup moins polluée que l’eau des rivières, il y a quand même besoin de procéder à un prétraitement avant d’envoyer l’eau sur les membranes, afin que l’installation fonctionne correctement.

Sur quels projets travaillez-vous actuellement ?

En R&D, nous travaillons sur les meilleures techniques pour prétraiter l’eau de mer, avant de l’envoyer sur les membranes. Cela permet d’allonger la durée de vie des membranes et de réduire la consommation d’énergie. Le deuxième axe de recherche concerne le développement de procédés les moins énergivores possibles. Enfin, le troisième sujet de recherche a trait aux procédés ayant le moins d’impact environnemental possible, tant au niveau des rejets en mer (l’eau rejetée étant plus salée que celle extraite) que des gaz à effet de serre liée à la consommation d’énergie utilisée pour les usines de dessalement.

Pourriez-vous nous parler d’une avancée récente réalisée par vos équipes ?

Actuellement, nous sommes en train de mettre sur le marché de nouvelles membranes développées en collaboration avec une start-up californienne, NanoH2O, et qui permettent d’avoir des flux plus importants pour une consommation énergétique plus réduite.

Qui sont vos partenaires ?

Nous collaborons avec des fabricants de membranes, les plus grands étant les américains et les japonais. Nous nouons aussi des collaborations avec des starts-up qui sortent des procédés innovants et qui nous demandent de les aider à les développer et à les industrialiser. Il peut s’agir par exemple de membranes ou de procédés de dessalement hybrides, à mi-chemin entre le dessalement thermique et le dessalement membranaire.

Par ailleurs, nous collaborons aussi avec des universités renommées. Pour bien connaitre la qualité des eaux de mers, nous travaillons notamment avec l’Observatoire océanologique de Banyuls, rattaché à l’Université de Paris-La Sorbonne. Nous travaillons aussi avec l’Ifremer et des universités étrangères comme l’université du Queensland en Australie ou le KAUST, une grande université nouvellement créée en Arabie Saoudite qui réfléchit entre autres au dessalement de demain, et de laquelle nous sommes partenaires.

Quels sont les différents objectifs auxquels répond le dessalement  de l’eau ?

Aujourd’hui encore, le dessalement coûte cher. Mais c’est parfois l’unique solution pour amener de l’eau à des populations vivant dans des zones où les ressources en eau douce sont insuffisantes. D’un autre côté, le dessalement se développe plus facilement dans des zones plus riches, car c’est une technologie coûteuse.

Une de nos problématiques actuelles : comment faire du dessalement à partir d’énergies renouvelables ? Cela pourrait être ainsi la solution pour dessaler de l’eau dans les pays à faible revenu. Nous travaillons en ce moment sur le développement d’unités de dessalement solaire.

Quel est le besoin des pays riches en dessalement ?

Si l’on regarde le développement des Émirats Arabes Unis, on s’aperçoit que le développement des villes importantes est totalement lié au développement des capacités de production en eau. Là où il n’y a pas d’eau, vous ne pouvez pas développer de vie. Et si des villes comme Dubaï ou Abu Dhabi se sont étendues ces vingt dernières années, c’est en raison de la construction d’importantes usines de dessalement.

Ce qui freine le développement dans d’autres pays, c’est le coût de l’énergie, et c’est pourquoi notre principal axe de travail porte sur la réduction du coût énergétique du dessalement. C’est le challenge à relever si l’on veut pouvoir alimenter en eau potable des millions de personnes demain, qui vivent dans des zones à déficit hydrique.

Actuellement, nous assistons  à un phénomène de déplacement progressif  des populations vers les côtes. 60 % de la population mondiale habite à moins de 60 km du littoral. Pour alimenter demain toutes ces populations en eau potable, le dessalement représente vraiment l’une des solutions, à combiner bien sûr avec le recyclage des eaux usées.

Dans quelques pays du monde, en Australie et aux États Unis par exemple, des détracteurs du dessalement reprochent à cette technologie d’engendrer beaucoup de pollution. Mais ce qu’il faut bien savoir, c’est que quand les collectivités décident de procéder au dessalement de l’eau, c’est parce que c’est la solution d’ultime recours. Dans les périodes d’intense sécheresse, comme en Australie, ou dans les zones qui sont chroniquement en déficit d’eau, il n’y a bien souvent plus d’alternative possible à part dessaler.

 

Propos recueillis par Carole Hamon

Un nouveau souffle pour Galileo

Le projet européen de système de positionnement par satellite, Galileo, concurrent du GPS américain et du Russe GLONASS, censé garantir l’autonomie de l’Union Européenne, peut se targuer de voir sa flottille de satellites passer de 18 à 24 unités, depuis l’annonce faite par le Commissaire européen à l’Industrie et aux Entreprises, Antonio Tajani, dans le cadre du Salon du Bourget. Cette déclaration vient souligner les économies réalisées sur le budget initial du projet, économies s’élevant à un demi-milliard d’euros.

Galileo propose des fonctionnalités avancées par rapport à ses concurrents, sous contrôle civil (une première pour ce genre de système). Il diffuse ses signaux sur 3 bandes en fonction du service, et est complémentaire du système européen EGNOS (European Geostationary Navigation Overlay Service, corrigeant les données du GPS, d’une précision verticale de 2 mètres). Il devrait voir la mise en orbite de ses 24 satellites à l’horizon 2014, bien que le projet accumule de sérieux retards depuis de nombreuses années.

Deux satellites-test sont déjà en orbite depuis plusieurs années, mais le calendrier s’accélère désormais. Deux lanceurs Soyouz STB sont d’ores et déjà arrivés à Kourou, en Guyane, destinés au lancement des quatre premiers satellites. La première mise en orbite de deux satellites est prévue pour le 20 octobre prochain, la seconde pour le courant de l’année 2012. Ces quatre premiers satellites formeront le noyau opérationnel du système, qui devrait représenter un marché de 90 milliards d’euros sur les quinze prochaines années.

Par Rahman Moonzur

Le GPS au service de la détection de tests nucléaires clandestins

L’Organisation du Traité d’Interdiction Complète des Essais Nucléaires (CTBTO, en anglais « Comprehensive Nuclear-Test-Ban Treaty Organization ») joue un rôle majeur dans la détection de toute explosion atomique clandestine sur la planète, servant à la fois de garde-fou et de gendarme, rapportant ses informations à l’ONU.

Même les tests nucléaires souterrains laissent une trace dans la partie supérieure de l’atmosphère, l’ionosphère. C’est en examinant les données enregistrées le même jour d’un test nucléaire Nord-Coréen en 2009 par les stations GPS avoisinantes, que les chercheurs du CTBTO découvrirent un changement inattendu dans la densité des électrons dans l’ionosphère, quelques minutes après. « C’est comme si l’onde de choc de l’explosion souterraine, d’abord transmise à l’atmosphère, aurait alors été communiquée à l’ionosphère, la terre « poussant » l’atmosphère qui pousse à son tour l’ionosphère », explique le professeur Ralph Von Frese, de l’Université d’Ohio.

Les autorités internationales disposent déjà de quelques méthodes de détection, telles que des détecteurs sismiques, des capteurs acoustiques ou encore des capteurs chimiques, inutiles en cas d’essai suffisamment profond. Le GPS (Global Positioning System) doit être vu comme un complément à ces autres méthodes. Bien qu’elle n’ait été conçue que pour la géolocalisation, la technologie du GPS a toujours été très sensible aux perturbations atmosphériques.

Les signaux GPS doivent passer des émetteurs satellitaires vers les récepteurs au sol. Les molécules de l’air, et plus spécifiquement les électrons et autres particules chargées de la Ionosphère, interfèrent avec ces signaux. Alors qu’une partie de la recherche se concentre sur le moyen d’améliorer ce problème, les chercheurs du CTBTO ont exploité cette vulnérabilité pour en faire quelque chose d’utile. Grâce au décryptage du timing de l’onde de choc, les chercheurs peuvent déterminer l’origine de l’explosion.

Par Rahman Moonzur

Un acier plus léger et plus résistant… en 10 secondes

L’entrepreneur américain Gary Cola, basé à Detroit, a fait une découverte surprenante. Il a même soufflé les ingénieurs de l’Université d’Ohio State, en inventant un traitement thermique rendant l’acier 7 % plus résistant que n’importe quel autre acier jusqu’ici, en juste 10 secondes. Cet acier, maintenant déposé sous la marque « Flash Bainite », a été testé comme étant plus résistant et absorbant mieux les chocs que les alliages à base de titane, utilisés notamment dans l’industrie aéronautique pour sa légèreté et sa résistance.

Flash processing

Gary Cola travaille actuellement avec des chercheurs de l’Université d’Ohio State afin de mieux comprendre la science se cachant derrière ce nouveau traitement, appelé le « flash processing ». Cette découverte pourrait bien être la clé, dans le domaine militaire, du développement de véhicules blindés plus résistants, plus légers et donc plus économes en carburant.

« 7 %, c’est énorme ! »

Paru dans le journal Materials Science and Technology, l’article décrit à quelle rapidité l’élévation de température, puis le refroidissement de la tôle d’acier changent la microstructure à l’intérieur de l’alliage, le rendant plus fort et moins cassant. Le procédé basique de traitement thermique de l’acier n’a que très peu changé depuis de nombreuses années. « L’acier est une technologie mure. Nous aimerions penser que l’on sait tout sur lui », raconte le professeur Suresh Babu, de l’Université d’Ohio State. « Si quelqu’un trouve le moyen de renforcer l’acier même d’un faible pourcentage, ce serait important. Mais 7 %, c’est énorme ! »

En moins de 10 secondes

Énorme à tel point que personne n’a au début cru que le procédé décrit par Gary Cola fonctionnerait, générant même une franche suspicion dans le monde scientifique. C’est en ouvrant les portes de son usine et de son laboratoire que les choses ont toutefois commencé à changer. L’acier est en général durci et traité thermiquement autour de 900 degrés Celsius, pendant quelques heures. Voire pendant plusieurs jours, pour certains. Le processus de Gary Cola dure seulement un peu moins de 10 secondes.

Martensite / Bainite

La solution se trouverait du côté de la microstructure de l’acier. L’acier le plus courant est un acier que l’on appelle « martensitique », de par sa microstructure interne composée entièrement d’une forme cristalline appelée martensite. En utilisant un microscope électronique, les chercheurs ont découvert que le nouveau procédé formait en effet une microstructure de type martensitique au coeur de l’acier, mais également une forme appelée bainite, jonchée de composés riches en carbone, les carbides.

Les débouchés de l’acier découverts par ce métallurgiste autodidacte sont très importants : il devient par exemple désormais possible d’alléger n’importe quelle structure, comme le châssis d’une voiture, sans remettre en cause la sécurité des passagers. Ou bien de renforcer un véhicule blindé sans pour autant l’alourdir. Il faudra suivre de près cette équipe, qui compte encore améliorer son « bébé ».

Par Rahman Moonzur

DIAPORAMA – L’innovation, star du salon du Bourget

Les avions de chasse présentés au Bourget constituent toujours une des attractions favorites des visiteurs.

Les avions de transport de l’armée américaine

Les hélices de ces avions transporteurs peuvent atteindre des envergures impressionnantes, mais cela est nécessaire pour faire voler de tels géants.

Les appareils de taille réduite, come celui-ci, sont plus adaptés aux passionnés d’aviation. Sur cet appareil, notons que l’innovation technique se situe plus du côté de l’hélice arrière que de la peinture…

Les fameux avions échappant à tous les systèmes de détection, semblent tout droit sortis d’un film de science-fiction.

Un avion cargo équipé d’un radar, sur l’aéroport du Bourget

Allo la Terre, ici le Bourget !

Des avions taillés pour la vitesse !

Les drônes, désormais arme essentielle lors des conflits armés, servent autant à capturer des images qu’à opérer des frappes de missiles.

Enfin, la star discrète, à savoir les moteurs propulseurs, sans lesquels tous ces appareils présentés au Bourget n’auraient qu’un intérêt assez terre-à-terre…

 

Par P.T et A.T.C

 

 

 

 

 

 

 

 

 

 

 

L’Europe doit maintenir le cap de l’innovation

D’après le tableau de bord européen de l’innovation (TBEI) publié en mars 2010, les performances des 27 en matière d’innovation sont toujours à la hausse. Le gap par rapport aux Etats-Unis se réduit et l’avance par rapport aux pays émergents, comme le Brésil, la Chine et l’Inde, reste nette. Cependant, la crise pourrait compromettre le mouvement de convergence entre les différents pays, tendance observée depuis plusieurs années. En effet, les pays moins avancés avec une forte croissance en matière d’innovation risquent de subir plus fortement la crise. La Commission européenne maintient l’objectif de 3% du PIB pour la R&D, qui constitue « la clé de la sortie de crise ».

 

Le tableau de bord répartit les pays dans quatre catégories :

  • les leaders : le Danemark, la Finlande, l’Allemagne, la Suède et le Royaume-Uni (Allemagne et Finlande étant en plus forte croissance) ;
  • les suiveurs : l’Autriche, la Belgique, Chypre, l’Estonie, la France, l’Irlande, le Luxembourg, les Pays-Bas et la Slovénie (à noter que Chypre, l’Estonie et la Slovénie appartenaient au groupe des modérés en 2008) ;
  • les innovateurs modérés : la République tchèque, la Grèce, la Hongrie, l’Italie, la Lituanie, Malte, la Pologne, le Portugal, la Slovaquie et l’Espagne ;
  • les pays en voie de rattrapage : la Bulgarie, la Lettonie et la Roumanie (la Bulgarie et la Roumanie bénéficient des plus fortes croissances parmi les 27).

Indices de performance de l’innovation des 27 Etats membres de l’Union européenne (2009 SII, summary innovation performance, indice composé de 29 indicateurs, compris entre 0 et 1)

original

L’indice de la France se situe à 0,501, soit une légère hausse par rapport à 2008 (0,5). Comparativement aux autres pays, l’Hexagone obtient de bonnes performances pour les moyens (ressources humaines, crédits et soutiens) et les résultats (innovateurs, effets économiques). Ses faiblesses relatives concernent principalement les activités des entreprises (investissements des entreprises, liens et entrepreneuriat, réalisations).

C.G.

 

Le Comité Richelieu roule pour les PME

Les critères correspondant à la dénomination « Petites et  Moyennes Entreprises » ont été édictés avec la loi de modernisation de l’économie. Ainsi, la catégorie des PME est constituée des entreprises qui d’une part, occupent moins de 250 personnes et, d’autre part, ont un chiffre d’affaires annuel n’excédant pas 50 millions d’euros ou un total du bilan n’excédant pas 43 millions d’euros. Les entreprises de moins de 5.000 salariés qui ne sont pas des PME sont des ETI (Entreprises de taille intermédiaire). Enfin, la catégorie des microentreprises est incluse dans la catégorie des PME. Elle est constituée des entreprises de moins de 10 personnes avec un chiffre d’affaires annuel ou un total du bilan n’excédant pas 2 millions d’euros.

Le Comité Richelieu regroupe aujourd’hui 299 PME adhérentes et 4.027 PME associées, regroupant près de 100.000 collaborateurs. La mission du Comité Richelieu est de représenter les Petites et Moyennes Entreprises innovantes, notamment par des actions de lobbying auprès des pouvoirs publics et des acteurs économiques, ainsi que d’aider ses membres à se développer, par la mise en place de services communs (hotlines en propriété intellectuelle et en droit fiscal, place de marché du Pacte PME, portage à l’international, tarifs négociés auprès de loueurs de voitures, d’assurances ou de compagnies aériennes…).

Ainsi, par exemple, en octobre 2010, le Comité Richelieu, à travers un communiqué, critiquait directement le projet de loi de finances 2011 touchant au statut de la jeune entreprise innovante (JEI).

Agir sur les marchés publics

Mais ce n’est pas tout. Emmanuel Leprince, délégué général du Comité Richelieu, milite férocement pour un plus grand accès des PME aux marchés publics de l’état : « Rappelons que seuls 12 % des marchés publics de l’Etat sont attribués à des PME. A l’échelle européenne, les marchés publics représentent un montant de 1.500 milliards d’euros annuels attribués aux entreprises, soit autant que le PIB de la France. Nous ne demandons pas de passe-droit mais des moyens de rééquilibrer la concurrence pour que les meilleurs gagnent.

Qu’il soit grand ou petit, l’obstacle principal sur la voie du développement reste l’accès au marché. La concurrence entre les jeunes entreprises en développement et les entreprises établies est inégale et la globalisation de l’offre et de la demande a réduit comme peau de chagrin les marchés auxquelles les PME peuvent prétendre. Il ne suffit pas d’être le meilleur pour gagner, il faut aussi être le plus gros et le plus ancien. Le chemin vers la taille critique est ainsi devenu à la fois plus difficile et plus long. Les jeunes entreprises souffrent donc de discrimination dans l’accès à leur marché et c’est ce verrou qui explique leur incapacité à se développer… »

Ces entreprises en voie de développement n’ont donc pas besoin de d’avantage d’aides mais de moins de barrières. L’agence des PME devrait avoir pour mission de faire tomber ces barrières afin de permettre aux meilleures PME de se développer. Le premier champ d’action est celui des marchés publics. L’enjeu est considérable : dans les domaines de l’innovation et de la technologie, ceux où le potentiel de croissance est le plus grand, on peut estimer à 10 milliards d’euros pour la France et à 100 milliards d’euros pour l’Europe le montant annuel des marchés supplémentaires qui seraient attribués aux PME si les conditions de concurrence étaient rééquilibrées. Et l’on serait alors encore loin des 40 % de marchés publics dont bénéficient les PME américaines.

Un espace de revendication et de dialogue

Le Comité Richelieu a également un rôle d’échange. Ainsi, l’agence organise des réunions plénières au cours desquelles ses adhérents peuvent échanger entre eux et dialoguer avec des personnalités extérieures, par exemple des acteurs de l’innovation tels qu’Oséo.

C’est ainsi que le Comité Richelieu a contribué à la mise en place du Pacte PME, contrat d’intention par lequel les grandes entreprises, les agences publiques et les pôles de compétitivité s’engagent à renforcer leurs relations avec les PME innovantes. Le Pacte PME a mené à la création de l’aide à l’innovation Passerelle, un dispositif destiné aux projets associant une PME et un grand compte.

« Tant l’ouverture de la gouvernance que le niveau de participation des PME aux projets collaboratifs nous semblent encore insuffisants. Cela peut s’expliquer pour de très bonnes raisons : les dirigeants de PME ont rarement la disponibilité nécessaire pour représenter leurs pairs dans les instances des pôles. De même, les PME n’ont pas vraiment la surface suffisante pour assumer une participation dans de grands projets stratégiques qui se déploient sur une période longue » commente Emmanuel Leprince.

Par ailleurs, le Comité Richelieu publie des prises de position et des analyses relatives aux politiques de l’innovation : réaction aux rapports du MEDEF et de la Cour des Comptes sur le Crédit d’Impôt Recherche, statut de la PME de croissance, renforcement des aides financières à l’exportation… Ses analyses résultent du travail des commissions thématiques, respectivement dénommées ‘Grands comptes’, ‘Aides à la R&D’, ‘Financement’, ‘Exportation’, ‘Laboratoires’ et ‘Ressources humaines’.

P.T

Le solaire : la surenchère de l’innovation

Le secteur des énergies solaires est en très forte croissance, au niveau national et international. Bien que l’énergie solaire soir de nature dispersée, chère et intermittente, les progrès en matière de conversion sont tels que les projets d’installations ne se comptent plus. L’Europe, les Etats-Unis, le Japon et la Chine sont les principaux acteurs d’un secteur dont les enjeux économiques et environnementaux sont aujourd’hui colossaux. C’est l’occasion de faire un bilan sur l’actualité du secteur, au niveau photovoltaïque et géothermique, ou l’innovation reste le nerf de la guerre.

original

Le contexte en France

 

small La France renoue timidement avec le solaire thermique
Alors que le solaire thermique est en plein boom dans le monde entier, la France, très en retard dans ce domaine, recommence timidement à s’y intéresser. L’ancienne centrale solaire Thémis, installée à Targassonne (Pyrénées-orientales), reprend peu à peu du service. Explications

Premier hangar photovoltaïque en tôle solaire de France
Le premier hangar agricole de France équipé de tôles spécialement conçues pour produire de l’énergie solaire grâce à une membrane photovoltaïque a été inauguré jeudi à Vaudrey dans le Jura.

Casino se lance dans l’énergie photovoltaïque avec sa filiale GreenYellow
Le Groupe Casino par le biais de sa filiale GreenYellow va financer et exploiter des centrales photovoltaïques sur les toitures et les parkings de ses centres commerciaux dont beaucoup sont situés dans des régions à fort ensoleillement.

Le premier magasin à énergie positive
D’importantes économies d’énergie liées aux performances du bâtiment et des équipements techniques intérieurs, couplées à une production d’énergie photovoltaïque sur la toiture font du magasin Leroy Merlin de Valence un bâtiment à énergie positive. Explications.

Dans les bases documentaires

 

[Base doc] Energies
[Rubrique Base doc] Génie énergétique
[Article Base doc] Vecteurs d’énergie et convertisseurs
[Article Base doc] Electricité photovoltaïque – principes
[Article Base doc] Electricité photovoltaïque – filières et marché

Et aussi dans l’actualité…

 

La plus grande centrale solaire française ouvrira en 2010
Les tarifs d’achat du solaire photovoltaïque doivent baisser… vite !

 

 

Le solaire : un intérêt mondial

 

medium L’impact de la politique photovoltaïque allemande
Dans une précédente tribune, j’appelais les responsables politiques à baisser très rapidement les aides au solaire photovoltaïque (PV), celles-ci risquant de provoquer une « bulle » incontrôlable comme ce fut le cas en Espagne l’an passé. Avec les aides actuelles, les flux financiers correspondant risquent en effet de se chiffrer en dizaines de milliards d’euros pour les seuls engagements des 3 prochaines années. La suite

Les USA nouvel Eldorado de la production solaire
La fabrication de cellules et de panneaux solaires aux Etats-Unis devrait croître de 50 % par an jusqu’en 2012. Grâce aux aides fédérales et à la hausse de la demande, les USA deviendront un centre mondial de production solaire affirme une étude de GTM Research présentée à la conférence Intersolar de San Francisco.

Indices au vert pour le marché européen du solaire
L’Europe et le Japon, pionniers de l’énergie solaire, demeurent, au niveau mondial, les places fortes de ce secteur. C’est en substance ce que révèle une étude réalisée par le cabinet d’études Frost&Sullivan.

 

 

La place du solaire au sein de la famille des énergies renouvelables

 

small Energie et architecture : le solaire intégré au bâtiment
Un nouveau schéma architectural se dessine dans la branche solaire, entraîné davantage par des énergéticiens que par des architectes eux-mêmes. Désormais, l’enveloppe classique du bâtiment doit remplir des fonctions supplémentaires : production d’énergie à l’aide du photovoltaïque (PV) ou de la thermie solaire, chauffage, réfrigération, aération, distribution de l’électricité et services de communication… La suite

Le cargo solaire prend la mer
Le cargo Auriga Leader, amarré dans le port de Long Beach en Californie, a été accueilli par des torrents d’éloges dans la presse. Il s’agit du premier cargo partiellement alimenté par l’énergie solaire.

Energie solaire : « Nous serons pleinement compétitifs d’ici 5 à 15 ans »
Début août, de nombreux experts réunis à Washington DC à l’occasion d’un symposium sur l’avenir de l’industrie solaire ont critiqué la priorité donnée à la recherche de nouvelles technologies. Pour le professeur Ken Zweibel, directeur de l’Institut de l’énergie solaire à l’Université George Washington, la technologie solaire est en effet déjà suffisamment avancée.

Dans les bases documentaires

 

[Base doc] Energies
[Rubrique Base doc] Réseaux électriques et applications
[Rubrique Base doc] Production d’électricité
[Article Base doc] Production d’énergie électrique par sources renouvelables

Et aussi dans l’actualité

 

Stockage de l’électricité d’origine solaire : attention aux faux espoirs
La baisse des prix dans le solaire : quelles explications ?

 

 

La course au rendement

 

small Nouveau record mondial : Sharp développe une cellule photovoltaïque d’un rendement de conversion de 35,8 %
La société japonaise Sharp a annoncé le 22 octobre 2009 qu’elle a développé une nouvelle cellule photovoltaïque d’un rendement de conversion de 35,8%, ce qui constitue un nouveau record mondial pour une cellule au niveau laboratoire, sans utilisation d’un concentrateur solaire. La suite

Le solaire photovoltaïque à concentration mis sous la loupe
En plus des modules au silicium et à couche mince, il existe une troisième technique de captation d’énergie solaire photovoltaïque (PV) : les concentrateurs. Ce sont des systèmes qui concentrent la lumière, élèvent ainsi la densité de flux énergétique, et produisent de l’électricité. Les systèmes de concentrateurs pourraient assurer la réduction des coûts en photovoltaïque. Divers concepts sont en concurrence, développés notamment par des entreprises américaines ou allemandes.

12 % de rendement pour les cellules solaires à couches minces
En atteignant une efficacité de 12 %, les chercheurs du laboratoire de photovoltaïque de l’Université du Luxembourg ont franchi une nouvelle étape dans la course au rendement des cellules photovoltaïques à couches minces de semi-conducteurs composites. Les coûts de fabrication, réduits, font de ces couches minces une solution à fort potentiel industriel.

Un générateur solaire dans l’espace en 2016 ?
Les Californiens pourront capter l’énergie solaire par n’importe quel temps si la première centrale solaire au monde dans l’espace voit le jour. Le projet d’envoyer une ferme solaire en orbite attend son feu vert depuis que le fournisseur d’électricité Pacific Gas & Electric (PG&E) a signé un contrat pour 200 MW d’énergie solaire spatiale.

Dans les bases documentaires

 

[Base doc] Energies
[Rubrique Base doc] Innovation – Environnement sécurité énergie
[Rubrique Base doc] Systèmes pour énergies renouvelables
[Article Base doc] Les cellules photovoltaïques organiques
[Article Base doc] Conversion photovoltaïque : de la cellule aux systèmes
[Article Base doc] Conversion photovoltaïque : du rayonnement solaire à la cellule

Et aussi dans l’actualité…

 

Télésurveillance des installations photovoltaïques

 

 

Des applications de plus en plus diversifiées

 

medium Un champ de pétrole qui marche au solaire !
Ce serait une centrale solaire californienne banale, voire tout à fait modeste face aux pharaoniques projets annoncés en Californie. Sauf qu’elle sera installée dans un champ de pétrole, pour en doper la production. Un mariage troublant. Explications

Des cellules solaires à l’intérieur de fibres optiques
Des chercheurs du Georgia Tech Institute of Technology ont développé un nouveau type de cellules photovoltaïques à l’intérieur même de fibres optiques à l’aide de nanostructures d’oxyde de zinc tri dimensionnelles, produites au sein des fibres et couvertes de matériaux à pigments photosensibles. L’approche pourrait permettre aux systèmes photovoltaïques de ne plus être cantonnés à des panneaux solaires sur le toit des maisons, en bref d’être « invisibles ».

Quand le soleil épure les eaux usées
Une installation pilote de traitement solaire des eaux usées permet, par photocatalyse, d’épurer une grande partie des eaux polluées par des corps organiques ou anorganique.

Dans les bases documentaires

 

[Base doc] Energies
[Rubrique Base doc] Génie énergétique
[Rubrique Base doc] Thermique et conditionnement de l’air dans le bâtiment
[Rubrique Base doc] Chauffage des locaux et eau chaude sanitaire
[Article Base doc] Énergie solaire thermique dans le bâtiment. Chauffe-eau solaires
[Article Base doc] Énergie solaire thermique dans le bâtiment.Chauffage. Climatisation

Et aussi dans l’actualité…

 

Projet Solargeotherm : stockage et déstockage de l’énergie thermique
Le synthétique peut jouer un rôle important dans l’énergie solaire
Eleanor, une voiture solaire futuriste mais performante

La France bien placée dans la course à l’innovation

Paru en juillet 2009, le tableau de bord de l’innovation dresse un portrait de la France sous l’angle économique et scientifique. Pour appréhender son niveau d’innovation, la Direction générale de la compétitivité, de l’industrie et des services (DGCIS) s’intéresse notamment aux dépenses en recherche et développement et aux dépôts de brevets. L’Hexagone se place dans les trois ou quatre premiers pays pour ces critères, derrière l’Allemagne et la Suède notamment.

En 2008, les dépenses publiques en R&D ont représenté 0,74 % du PIB français, soit moins que la Suède (0,99 %) et presque le niveau de l’Allemagne (0,76 %), mais plus que la moyenne européenne. En tout, investissements privés compris, la France a consacré 2,08 % de son PIB à la recherche et développement. L’Europe des 15 atteint presque les 2 % du PIB, loin de l’objectif de Lisbonne fixé à 3 %. Les Etats-Unis se situent à 2,7 % et le Japon à 3,4 %. Avec un objectif de 2 % de son PIB en 2010, la Chine devrait rejoindre ces pays prochainement.

original

Les dépenses R&D se traduisent assez fidèlement dans les dépôts de brevets. La France a déposé 119 brevets pour un million d’habitants. L’Allemagne domine largement le classement avec 275 brevets par million d’habitants. Au niveau international, le Japon, les Etats-Unis, la Corée du Sud et l’Allemagne occupent le haut du classement. Selon l’édition de 2008 du rapport de l’Organisation mondiale de la propriété intellectuelle (OMPI) sur l’activité en matière de brevets, ces quatre pays représentaient 73 % environ des 727.000 brevets délivrés dans le monde en 2006. Entre 2000 et 2006, la Chine et la Corée du Sud ont connu une forte croissance, avec des hausses annuelles de 26 et 23 % en moyenne. Les brevets en vigueur en 2006 étaient détenus dans leur grande majorité par des déposants japonais (1,6 million environ) et des américains (1,2 million environ).

original

Le tableau de bord de l’innovation de la DGCIS met également en évidence les points forts et les points faibles de la France dans les moteurs de l’innovation. En matière de ressources humaines, le nombre de diplômés en sciences et techniques et en sciences sociales ainsi que la population avec études supérieures constituent des points forts. Le pays se situe dans la moyenne pour les doctorats en sciences. En revanche, la formation tout au long de la vie reste à améliorer, avec une note de 76, 100 étant la moyenne de l’UE.

original

Pour le financement et les infrastructures, la France se situe au-dessus de la moyenne pour la connexion à haut débit des entreprises et les dépenses publiques en R&D. Cependant, le crédit privé et le capital-risque, des outils indispensables au développement de start-up, demeurent trop faibles.

C.G.

 

 

Présélection de 17 nouvelles plates-formes d’innovation

Présélectionnés pour leur caractère innovant et leur potentiel économique, 17 projets de plates-formes d’innovation au sein des pôles de compétitivité vont bénéficier d’un accompagnement financier pour la réalisation d’études d’ingénierie de projet approfondies, avant décision définitive de sélection. Les projets sélectionnés bénéficieront alors d’une subvention de l’Etat dans le cadre de financements annuels de 35 M€ réservés à cette fin. Les collectivités territoriales et l’Union européenne devraient également apporter leur soutien financier à ces initiatives. La Caisse des Dépôts souhaite également soutenir ces projets structurants, tant comme investisseur immobilier que comme investisseur au sein des structures d’exploitation et de gestion de ces projets, dès lors que leur viabilité économique est assurée par des ressources pérennes.

La politique nationale des pôles de compétitivité lancée en 2005 s’est enrichie, en 2009, d’un nouvel outil en faveur du développement des entreprises et de l’innovation à travers le soutien à des projets de plates-formes d’innovation. Ces structures de mutualisation d’équipements de haute technologie et de services associés à destination principalement des entreprises, petites et grandes, sont destinées à mener à bien des projets de recherche et développement à fortes retombées économiques, pouvant aller jusqu’à la phase de pré-industrialisation.

Les 17 projets présélectionnés l’ont été parmi 39 initiatives soutenues par les pôles de compétitivité et présentées dans le cadre d’un deuxième appel à projets dédié aux plates-formes d’innovation clos le 18 juin dernier. Voici une sélection de quelques uns d’entre eux.

Tout pour les télécoms

La plate-forme d’innovation PFT (Plate-Forme Télécom), labellisée par le pôle mondial Solutions Communicantes Sécurisées, vise à mettre à la disposition des acteurs industriels souhaitant développer ou valider de nouveaux produits, les infrastructures télécom les plus récents, accompagnés d’outils de développement, de test et d’évaluation. Elle se focalisera sur les deux axes innovants et convergents que sont  « les réseaux et services mobiles du futur » et les « applications, composants, réseaux M2M et Objets communicants » en intégrant diverses technologies comme le haut débit mobile (4G/LTE), les infrastructures applicatives (IMS), la TV mobile, les terminaux mobiles, les réseaux et capteurs sans fil faible portée, les applications de gestion d’objets communicants etc. 

Chimie verte de la cellulose

La plate-forme d’innovation Ecolicel, labellisée par le pôle Fibres et co-labellisée par les pôles IAR et Axelera, est dédiée à la valorisation chimique et biochimique du bois, des plantes ligno-cellulosiques et des déchets de bois et de papier. Elle a pour objectif d’industrialiser des procédés d’extraction propres à partir de déchets de bois et de plantes et d’accompagner les chimistes dans l’utilisation des molécules extraites. C’est un outil pour construire le secteur de la chimie du végétal et produire des molécules vertes en masse pour réaliser les matériaux verts aussi bien pour le bâtiment que la construction aéronautique (polymères, colles, résines, solvants, fibres, etc.). 

Pour des plastiques écologiques

La plate-forme d’innovation CRTP, labellisée par le pôle Movéo, consiste à créer un centre de compétences, d’innovation et de transfert technologique dans le domaine de la transformation des matières plastiques intégrant des matériaux et procédés propres. Localisée à Alençon afin d’utiliser les compétences scientifiques et techniques de l’Institut Supérieur de Plasturgie (ISPA), elle interviendra sur tous les process (injection, extrusion, finition,  revêtements et contrôle qualité) et intègrera les nouveaux besoins en matière de développement durable (mise au point et utilisation de polymères et de composites d’origine biologique, biodégradabilité des matériaux, éco-conception, développement de plastiques à hautes performances). Toutes les entreprises intervenant dans la chaîne de valeur de la plasturgie sont concernées. Les domaines d’application sont variés : habitat, cosmétique, sports et loisirs, électroménager, emballage, secteur médical, électronique et autres secteurs utilisant des pièces plastiques. 

Le développement des céramiques

La plate-forme d’innovation PIL, co-labellisée par le pôle Elopsys et le pôle européen de la Céramique, porte sur le domaine des céramiques pour l’électronique, les micro-ondes et la photonique, de l’habitat durable et intelligent, et des céramiques techniques à forte valeur ajoutée. Elle proposera, dans une même structure, un « maturateur » de projets constitué de locaux à vocation industrielle pré-aménagés et flexibles pour héberger des entreprises (start-up et PME/PMI), un ensemble de services d’accompagnement et un parc d’équipements mutualisés pour le prototypage rapide de solutions et de produits innovants.

La mise en forme à grande vitesse

La plate-forme d’innovation INORI, labellisée par les pôles Matériala et Fibres, est dédiée au développement rapide de produits par l’utilisation d’outils et outillages rapides intelligents pour les procédés de mise en forme des matériaux. Elle sera localisée à Saint-Dié-des-Vosges au sein du CIRTES, centre européen du développement rapide de produits. Elle offrira aux entreprises des moyens mutualisés pour réaliser des essais, caractériser des pièces et outillages de production, mettre au point et valider de nouveaux procédés industriels. Tous les secteurs industriels des produits et de la mise en forme des matériaux (métaux, plastiques, verre, fibres….) sont concernés : énergie, équipements mécaniques, automobile, aéronautique, défense, plasturgie, emballage, bâtiment, luxe, etc.

La thermique et l’industrie

La plate-forme d’innovation Fahrenheit, labellisée par le pôle Aerospace Valley, vise à une meilleure maîtrise des phénomènes thermiques qui affectent les composants de base et les systèmes complexes. La maîtrise de ces phénomènes est un des éléments clef de la conception, de la réalisation et de la maintenance des systèmes complexes industriels utilisés dans les domaines de l’aéronautique, de l’espace, des transports, de l’énergie, etc. La transversalité des problématiques liées à la thermique permettra de toucher un large panel d’utilisateurs dans des secteurs d’activité très divers comme l’aéronautique, la santé, l’énergie, l’agroalimentaire, etc.

Des LEDs pour tous

La plate-forme d’innovation PISE, labellisée par le pôle Minalogic, a pour objectif de mettre à la disposition des acteurs industriels de la filière « éclairage » des compétences et des moyens techniques pour les accompagner dans la maîtrise des ruptures technologiques induites par l’émergence des diodes électroluminescentes (LEDs) de haute brillance et l’efficacité énergétique élevée. Cette plate-forme est portée par le Cluster Lumière. 

Synthèse sectorielle sur les matériaux – L’innovation dans les PME en 2009

 

Plastiques, verres, aciers… les matériaux sont présents dans tous les grands secteurs industriels. L’année 2009, bien que marquée par la crise, a démontré le dynamisme et la capacité de ce tissu industriel à se remettre en cause et à maintenir le cap par le biais de la diversification et de l’innovation.

Les entreprises du domaine des matériaux ont largement intégré le concept du développement durable en choisissant de favoriser la création de valeur à l’aide de modes de production et de consommations plus responsables, de répondre à un objectif d’égalité sociale et de préserver l’environnement.

À l’heure où la directive européenne REACH (Registration, Evaluation, Authorisation and Restriction of CHemical substances) est devenue un contexte de travail naturel, l’innovation constitue un élément de différenciation indispensable.

Veille stratégique – Un moyen de dynamiser l’innovation

La veille stratégique est une activité clé dans le processus de définition de la stratégie et d’innovation.

Orientée vers l’obtention d’informations sur l’évolution de l’environnement, elle a principalement un caractère anticipatif. La veille stratégique permet à la Direction générale d’établir sa vision de développement, en lui fournissant les informations sur les évolutions tendancielles de son écosystème.

D’un point de vue plus global, la veille stratégique permet la dynamisation de l’innovation en lui apportant des connaissances externes à l’entreprise. Elle l’interpelle sur ses offres, comme sur ses modes de fonctionnement. Elle l’incite à réagir, à trouver de nouvelles solutions et, au final, à innover.

 

REACH : les news du mois de JUIN (1/2)

1er juin 2011 : 1ère deadline de notification des substances dans les articles

(01/06/2011)

Les producteurs et les importateurs d’articles doivent notifier l’ECHA de la présence de substances de la liste candidate (Substances SVHC – substances of Very High Concern) dans leurs articles. Les notifications doivent être présentées au plus tard six mois après l’inclusion d’une telle substance dans la liste candidate. Pour les 38 substances qui ont été inclus dans la liste des candidats au le 1er Décembre 2010, les notifications devaient être soumises avant le 1er Juin 2011. Huit autres substances ont été ajoutées à la liste candidate le 15 Décembre 2010. Pour ces substances, les notifications doivent être soumises avant le 15 Juin 2011. Les outils de communication nécessaires ainsi que d’un manuel d’instructions sur la façon de créer un dossier de notification, sont disponibles sur le site de l’ECHA. Un conférence web sur la façon de préparer et de soumettre les dossiers de notification a été organisée par l’ECHA 19 mai. Un enregistrement de cette manifestation est disponible sur le site de l’ECHA (http://echa.europa.eu/news/webinars_en.asp%20%20%20).

Pages internet sur la notification des substances dans les articles : http://echa.europa.eu/reach/sia/notification_in_sia_en.asp%20%20%20

Manuel de soumission de données – Partie 20: Comment préparer et soumettre une notification d’une substance dans un article en utilisant IUCLID 5 :

http://echa.europa.eu/doc/reachit/dsm20/dsm_20_v1.0_en.pdf%20%20%20

Dossier des substances intermédiaires non conformes

Sur plus de 400 dossiers de substances enregistrées comme intermédiaires analysés par l’ECHA, 86% ne prouvent pas qu’ils remplissent les conditions pour être classés comme « substances intermédiaires ». Ils ne devraient donc pas bénéficier d’un dossier d’enregistrement allégé. L’ECHA demande donc aux déclarants de mettre à jour ou de compléter leurs dossiers au risque de voir reclasser la substance.

L’ECHA élargit sa politique en matière de bonnes pratiques de laboratoire (BPL)

(01/06/2011)

Depuis 2008, l’ECHA accepte comme étant conformes aux BPL les données qui proviennent de pays qui sont des États membres de l’OCDE ou adhérents à part entière au système d’acceptation mutuelle des données (AMD) de l’OCDE et de pays qui sont des adhérents provisoires au système AMD de l’OCDE et dans lesquels les laboratoires ont été inspectés conjointement par l’autorité de surveillance des BPL concernée et une autorité de surveillance des BPL de l’OCDE. À présent, les études qui sont réalisées dans un laboratoire situé dans un pays qui n’a pas rejoint le système AMD de l’OCDE peuvent également être acceptées par l’ECHA comme étant des études conformes aux BPL dans les conditions suivantes : 

1 – Avant l’exécution de l’étude, la conformité aux BPL du laboratoire a été inspectée par :

  • une autorité de surveillance des BPL de l’UE (y compris la Norvège par le biais de l’accord sur l’EEE) ou
  • des autorités de surveillance des BPL en Israël, au Japon et en Suisse avec lesquelles l’UE a des accords de reconnaissance mutuelle ou
  • d’autres autorités de surveillance des BPL des États membres de l’OCDE ou des adhérents à part entière au système d’acceptation mutuelle des données (AMD) de l’OCDE au cas par cas

et

2 – Le fonctionnement du laboratoire a été estimé conforme aux principes de BPL

L’accord d’acceptation mutuelle des données de l’OCDE indique que les données obtenues lors d’essais de produits chimiques, conformément aux principes de BPL, doivent être acceptées dans tous les autres pays de l’OCDE et dans les pays qui adhèrent à titre provisoire ou à part entière à cet accord, évitant ainsi une répétition des essais sur les animaux. Le règlement REACH exige que les essais et les analyses écotoxicologiques et toxicologiques soient effectués conformément aux principes de BPL.

http://echa.europa.eu/doc/press/na_11_24/na_11_24_echa_extends_glp_fr.pdf

OCDE : bonnes pratiques de laboratoire

http://www.oecd.org/department/0,3355,fr_2649_34381_1_1_1_1_1,00.html

Révision de la fiche d’information sur les exigences concernant les substances dans les articles

(06/06/2011)

L’ECHA publie une série de fiches d’information donnant un aperçu structuré de chacun des guides techniques REACH qu’elle publie. La fiche d’information relative aux exigences concernant les substances contenues dans les articles est disponibles sur :

http://guidance.echa.europa.eu/docs/fact_sheets/articles_fr.pdf

Une nouvelle demande de classification et d’étiquetage harmonisés

(07/06/2011)

L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage du Proquinazid (6-iodo-2-propoxy-3-propyl-3H-quinazolin-4-one) (N° CAS : 189278-12-4). Les commentaires sont à soumettre avant le 22 juillet 2011.

http://echa.europa.eu/consultations/harmonised_cl_en.asp

6ème journée des parties prenantes (18 mai 2011)

(07/06/2011)

Les enregistrements de la 6ème journée des parties prenantes organisée le 18 mai 2011 à Helsinki sont disponibles sur le site de l’ECHA.

http://www.echa.europa.eu/news/events/6th_stakeholders_day_en.asp

Conférence web sur le processus d’enquête

(07/06/2011)

Les enregistrements relatifs à la conférence web sur le processus d’enquête (évaluation de l’identité de la substance, partage de données …) sont disponibles sur le site de l’ECHA.

http://echa.europa.eu/news/webinars_en.asp

Conférences web sur les utilisateurs en aval du 31 mai 2011

(08/06/2011)

Les présentations et enregistrements de la conférence web du 31 mai sur les utilisateurs en aval sont disponibles sur le site de l’ECHA.

http://echa.europa.eu/news/webinars_en.asp

Avis sur l’obligation de communiquer des informations sur les substances contenues dans les articles

(08/08/2011)

Les producteurs, importateurs et fournisseurs d’articles contenant des substances extrêmement préoccupantes sont soumis à une obligation d’information au titre du règlement REACH. Le MEDDTL indique comment interpréter cette obligation dans un avis paru au Journal Officiel du 8 juin 2011 (JORF n°0132 du 8 juin 2011 page 9763 – texte n° 101) :

« Avis aux opérateurs économiques sur l’obligation de communiquer des informations sur les substances contenues dans les articles en application des articles 7.2 et 33 du règlement n° 1907/2006 (Reach). ― Interprétation du seuil de 0,1 % (masse/masse) cité aux articles 7.2 et 33 ».

http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000024144346&dateTexte=&categorieLien=id

Deux nouvelles demandes de classification et d’étiquetage harmonisés

(14/06/2011)

L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de l’Ethephon (acide 2-chloroéthylphosphonique) (N° CAS : 16672-87-0 et N°EC : 240-718-3) et du Cymoxanil (2-cyano-N-[(éthylamino)carbonyl]-2-(méthoxyimino)acétamide) (N° CAS : 57966-95-7 et N°EC : 261-043-0).

Les commentaires sont à  soumettre avant le 29 juillet 2011.

http://echa.europa.eu/consultations/harmonised_cl_en.asp

Par Céline Nectoux, ingénieur environnement CNRI

Les dernières NEWS REACH :

  • Actualités du 16 au 30 juin 2011
  • Actualités du 1 au 15 mai 2011
  • Actualités du 15 au 30 avril 2011
  • Actualités du 01 au 15 avril 2011
  • Actualités du 15 au 31 mars 2011
  • Actualités du 01 au 15 mars 2011
  • Actualités du 15 au 28 février 2011
  • Actualités du 4 au 15 février 2011
  • Actualités du 1 au 3 février 2011
  • Actualités du 15 au 31 janvier 2011
  • Actualités du 1 au 15 janvier 2011
  • Actualités du 15 au 31 décembre 2010
  • Actualités du 1 au 15 décembre 2010
  • Actualités du 15 au 30 novembre 2010
  • Actualités du 1 au 15 novembre 2010
  • Actualités du 15 au 30 octobre 2010
  • Actualités du 1 au 15 octobre 2010
  • Actualités du 15 au 30 septembre 2010

Et aussi :

Recherche et Innovation dans l’informatique et le multimédia

L’Institut National de Recherche en Informatique et en Automatique (INRIA), établissement public scientifique et technologique placé sous la tutelle des ministères de la recherche et de l’industrie, relève au quotidien les défis posés par les STIC (Sciences et Technologies de l’Information et de la Communication). Organisé autour de cinq domaines de recherche de prédilection, « STIC pour les sciences de la vie et de l’environnement », « Mathématiques appliquées, calcul et simulation », « Perception, cognition, interaction », « Réseaux, Systèmes et services, calcul distribué » et « Algorithmique, programmation, logiciels et architectures », l’INRIA compte 214 équipes de recherche répartis dans toute la France dans 8 centres de recherche (Rocquencourt, Rennes, Sophia Antipolis, Grenoble, Nancy, Bordeaux, Lille et Saclay).

Le projet REACTIVE

L’équipe de recherche MINT (Méthodes et Outils pour l’Interaction à gestes) qui étudie l’utilisation à gestes pour l’interaction homme-machine et ses problématiques du point de vue cognitif, numérique/algorithmique et hardware, s’est impliquée dans un projet de réalité virtuelle appliquée à la rééducation : le projet « REACTIVE ». Tout en associant sciences du numérique et recherche médicale, REACTIVE a pour objectif de permettre aux patients souffrant de troubles cognitifs suite à un accident vasculaire cérébral (AVC), de pouvoir s’exercer dans une série d’environnements virtuels interactifs. Ces environnements sont alors des scénarios dans lequel le sujet va évoluer.

Des situations « en extérieur »

Suite à des enquêtes internes menées par Hopale, établissements hospitaliers spécialisés du Nord-Pas de Calais, démontrant une bonne adaptation du patient à son domicile lorsqu’il quitte l’hôpital,  mais également son appréhension vis-à-vis de l’extérieur,  les environnements virtuels développés sont des situations en extérieur.

Alliant travail moteur et travail cognitif dans un milieu sécurisé et écologique, ces situations d’extérieur offrent des interactions pourvoyant à la rééducation et représentent alors un réel dispositif de mesure pour le personnel soignant.

Les paramètres de ces situations diffèrent selon les capacités motrices et cognitives du patient. Devant s’adapter à celui-ci, le dispositif conçu par l’équipe REACTIVE comprend deux ordinateurs, l’un à destination du patient lui permettant l’exécution de l’exercice et la gestion des différents périphériques et l’autre, connecté en réseau avec le premier ordinateur, laissant au thérapeute le bénéfice de modifier l’exercice selon le profil du patient.

Ce dispositif, mis au point par un ingénieur spécialisé dans la gestion des univers virtuels, est régie par différents paramétrages permettant :

 

D’autres technologies innovantes 

Outre le projet REACTIVE, d’autres technologies développées avec la collaboration de l’INRIA, se sont démarquées par leur caractère novateur.

La technologie QuiXProc

Du point de vue logiciel, la société Innovimax a étroitement collaboré avec l’équipe de recherche MOSTRARE (Modèles de structures arborescentes, apprentissage et extraction d’information) – spécialisée dans le développement de nouvelles techniques de recherche et d’extraction d’information utilisant la structure arborescente des documents – dans le développement de la technologie QuiXProc. Celle-ci permet la compilation et la restitution rapide des données échangées par le web dans le standard XML.

Le projet i3DMusic

Du point de vue sonore, l’équipe de recherche METISS (Modélisation et expérimentation pour le traitement des informations et des signaux sonores) a débuté un partenariat avec Audionamix, fournisseuse de services audio pour le milieu du spectacle, dans un projet baptisé i3DMusic centré sur le mixage et la spatialisation du son en qualité 3D.  

« L’objectif est de produire des algorithmes pour permettre une meilleure séparation en temps-réel d’un enregistrement, mais aussi pour optimiser la spatialisation », explique le chercheur Emmanuel Vincent, chargé des recherches au centre INRIA Rennes. « Les algorithmes temps-réel utilisés pour l’instant demeurent assez simplistes. Ceux que nous allons concevoir se révéleront sans nul doute plus performants. Cependant, nous ignorons s’ils parviendront au niveau unique de qualité exigé. Nous attachons donc une grande importance à la phase d’évaluation de ces travaux qui sera menée par les spécialistes en psycho-acoustique de l’École polytechnique fédérale de Lausanne. Si la contrainte de temps-réel s’avère trop forte, nous nous tournerons vers d’autres scénarios applicatifs où la qualité sera au rendez-vous grâce à une séparation préalable en temps différé, tout en gardant la possibilité de spatialiser en temps réel les sources ainsi séparées.»

Une technologie innovante de réalité mixte ou augmentée

L’équipe de recherche WAM (Web, adaptation et multimédia) se centralisant sur le développement et l’utilisation des contenus et applications multimédia sur le web, a développé l’application de réalité mixte.

Au mois de mars dernier, la ville de Grenoble a pu être l’objet d’une expérimentation, « Grenoble Ville Augmentée » laissant aux bénéficiers de la visite touristique l’usage des données web géolocalisées, sonores ou visuelles, superposant ainsi la réalité et le monde virtuel en temps réel.

Cette technologie de type navigateur de points d’intérêts avec contenu HTML5, proposant ainsi une visite libre à distance avec des objets virtuels en 3D, a permis de coupler un gestionnaire de positionnement (GPS des mobiles et centrale d’inertie), un gestionnaire de rendu audio et une cartographie précise intérieure et extérieure.

Avec le développement d’applications pour les nouveaux smartphones, il va de soi de se demander si la réalité augmentée pourrait devenir le nouveau média de masse de demain. A suivre…

Par A.T.C

Biotechnologies, médecine : place à l’innovation ouverte ?

Médecine et biotechnologies sont aujourd’hui à un tournant : innovation, éthique, principe de précaution… alors que ces domaines de recherche sont les plus porteurs pour le futur, leurs modèles actuels doivent évoluer.

La bio-industrie consiste en une nouvelle filière industrielle indissociable de l’innovation scientifique et intellectuelle. En effet, la bio-industrie et les biotechnologies représentent le marché le plus porteur de croissance pour les cent prochaines années, dans la mesure où elles vont révolutionner le secteur de la santé. Un des enjeux essentiels a trait à la brevetabilité du vivant, pour la médecine du futur. Ainsi, grâce à la recherche génétique, les nouvelles thérapies offrent des perspectives d’espoir, mais il convient de se demander jusqu’où nous souhaitons aller. Cette question doit être traitée par les législations nationales.

L’enjeu économique est également majeur : le secteur de la santé est l’un des plus importants au niveau de l’économie mondiale. Les biotechnologies permettent ainsi de relier la communauté scientifique et le monde économique, qui avaient eu tendance à s’éloigner.

En outre, les grandes entreprises de la santé ont changé d’attitude, en externalisant de plus en plus leur politique de recherche. Ceci est en partie lié au coût de développement d’un médicament, qui s’étalonne entre 500 et 800 millions de dollars et dure une dizaine d’années.

Externaliser la recherche

La mondialisation a ainsi donné lieu à de gigantesques fusions et les entreprises pharmaceutiques sont devenues d’immenses outils de marketing pour la mise sur le marché de nouveaux médicaments, mais elles ne constituent plus la source de l’innovation et de la recherche. Elles sont donc conduites à trouver les innovations dans les laboratoires de recherche sur les biotechnologies.

Dans la mesure où les entreprises de biotechnologies se développent à partir de la recherche publique, il existe également un processus d’aide gouvernementale.
Il convient de noter que la création et le développement des entreprises de biotechnologies ont été accompagnés par un nouveau modèle économique d’origine américaine, fondé sur l’initiative.

En effet, l’esprit entrepreneurial est à l’origine de ce développement : un étudiant américain sur deux qui sort de l’université a envie de créer son entreprise. En outre, la facilitation du transfert de technologies est primordiale : les organismes publics de recherche français ont désormais mis en place des nouveaux outils pour accélérer ce transfert de technologies et favoriser la création de valeur.

Investir davantage ne suffit plus !

En Europe, les biotechnologies ont émergé vers 1995, grâce à un changement de mentalité et à la prise de conscience des institutions européennes et des différents pays d’un nécessaire transfert de technologies. Malgré la multiplication d’entreprises de biotechnologie en Europe, elles demeurent deux fois moins nombreuses qu’aux Etats-Unis et emploient nettement moins de salariés. Néanmoins, de plus en plus de produits sont actuellement en phase de test et contribuent ainsi à faire de ce secteur un secteur d’avenir.

Les seules statistiques sur le secteur des nouvelles technologies sont publiées par le cabinet Ernst &Young et remontent pour l’Europe à l’année 2001. Le marché leader était alors le Royaume-Uni, à présent dépassé par l’Allemagne en terme de nombre d’entreprises, grâce à un programme gouvernemental fédéral lancé en 1995.

Le fondement même de la nouvelle économie est appelé le « réseau social » ou social network. Les principaux facteurs clés de succès permettant les conditions de création de valeur grâce à un potentiel scientifique sont les suivants :

  • la présence de grandes entreprises du secteur sur un territoire géographique délimité ;
  • l’existence d’un fort potentiel au niveau de l’enseignement supérieur, de la recherche et d’un environnement clinique et médical important ;
  • un environnement économique favorable.

Les entreprises pharmaceutiques ont donc besoin d’innover très rapidement

On le sait les coûts de développement des nouveaux produits pharmaceutiques ou biotechnologiques sont faramineux : 1,3 milliard selon l’industrie du médicament. Ce coût a cru de façon exponentielle durant ces 20 dernières années. Pour autant, le nombre de médicaments lancés sur le marché n’a pas suivi cette pente ascendante. Il est même resté stable. Il y a ainsi une diminution drastique du ratio entre le nombre de nouvelles molécules et les dépenses en R&D. En effet, en 1996, on comptait environ 52 nouvelles molécules pour une dépense totale de R&D de 17 milliards de dollars contre 20 nouvelles molécules pour 50 milliards de dollars en 2008. Fait à noter, les petites entreprises de biotechnologies ont mis au point davantage de produits que les entreprises pharmaceutiques.

Selon un rapport de « Burrill & Company » portant sur les biotechnologies et les sciences de la vie, la stratégie de fusion / acquisition des entreprises pharmaceutiques n’a pas eu l’effet escompté sur l’innovation. Le terme « échec » est même prononcé. Les chiffres parlent d’eux-mêmes. Réalisée à partir des données de 17 groupes pharmaceutiques les plus actives sur le marché des F&A, l’étude indique que les acquisitions de ces groupes s’élevant à un total de 1,57 trillion de dollars dans les années 2000 sont désormais estimées à 1,041 trillion (chiffres 2010). De plus, en retranchant les 420 milliards en acquisition durant l’année 2010, l’estimation retombe à 1 trillion. Soit une dévaluation de 570 milliards.

Les tendances ne vont pas à la faveur des sociétés pharmaceutiques. Premièrement, la concurrence entre les médicaments de marque et les médicaments génériques devient de plus en plus rude puisque d’une part les brevets des blockbusters arrivent à expiration. Secondement, le législateur et les organismes de remboursement des médicaments tendent à favoriser les médicaments génériques. De surcroît, le cadre réglementaire désormais plus rigoureux n’est pas à la faveur du lancement de nombreux produits sur le marché.

Plusieurs stratégies ont été mises en oeuvre :

  • Celles qui permettent de réduire les coûts de recherche comme l’externalisation des unités de recherche, ou les collaborations avec les universités.
  • Celles qui consistent à acquérir des entreprises pharmaceutiques (Merck-SheringPlough ou Pfizer/Wyeth) ou biopharmaceutiques (Sanofi/Genzymes) afin de compléter les portefeuilles de produits nouveaux.
  • Celles qui consistent à mettre la priorité dans des domaines clés de recherche (cancer, diabète par exemple) : stratégie clairement affiché de Pfizer qui souhaite réduire de ¬ ses dépenses de R&D.

Aucun résultat probant n’a été observé jusqu’à maintenant. Elias Zerhouni, responsable de la R&D à Sanofi l’indique sans détour : « il est nécessaire de repenser les stratégies et orientations jusqu’alors mises en place ». De nouvelles orientations stratégiques sont donc envisagées : En partant du constat que l’acquisition des entreprises de biotechnologie n’apportait pas de résultats probants, les têtes dirigeantes ont pris du recul et consenti que l’environnement de travail importait beaucoup. Ces dernières souhaitent ainsi garder en l’état les entreprises acquises c’est-à-dire qu’ils souhaitent préserver la culture innovante des petites start-ups. De cette volonté émerge l’idée de créer des petites unités de recherche, spécialisée et indépendantes de la société mère.

L’ « Open innovation » ou le modèle d’innovation ouverte

Pfizer avait déjà lancé son centre d’innovation ouverte en 2010, le « Global Center for therapeutic Innovation » à Cambridge à l’instar de Proctor & Gamble dans le secteur des produits de grande consommation. Ce centre rassemble des équipes académiques et industrielles.

Maintenant, c’est au tour des dirigeants de Astrazeneca qui pensent regarnir leur portefeuille. Ils estiment que, d’ici 2014, 40 % de leurs produits feront l’objet de recherche extérieure. De plus, pour stimuler les chercheurs, ils souhaitent les gratifier en fonction de leurs travaux.

Biogen Idec, quant à elle, compte aussi utiliser cette stratégie d’innovation ouverte pour la découverte de nouvelles molécules. Preuve que l’industrie pharmaceutique est dans une phase de réflexion profonde, le nouveau CEO de Biogen Idec, Georges Scangos remet même en question l’utilité du fonds de capital-risque que possède la société (celle-ci se monte à 100 millions de dollars). Celui-ci envisage de davantage investir ce fonds dans la recherche (collaboration avec les universités…).

Sanofi a également exprimé sa volonté avancée de se lancer dans l’innovation ouverte. Enfin, GSK a récemment mis en place un portail dédié à l’innovation ouverte dans sa division « produits de consommation ». Il s’agit ici plus d’une stratégie de développement que de recherche de nouveaux produits par l’utilisation des nouveaux médias sociaux.

L’industrie pharmaceutique est en perpétuel mouvement (orientation de recherche, changement de stratégie, changement des têtes dirigeantes…). Les enjeux y sont grands : cette industrie, estimée à 850 milliards de dollars par an, a tout intérêt à se renouveler et innover afin de garder le cap dans ces périodes difficiles (brevets, réglementation, recherche peu innovante).

P.T

Sources : Insee, bulletins-électroniques, recherche.gouv.fr, Ademe.

News Environnement / Sécurité / Energie de juin

Certificats d’Economies d’Energie : une réponse à l’insuffisance des mesures actuelles ?

 

La Commission européenne vient de présenter ce 22 juin une proposition de directive sur l’efficacité énergétique. CertiNergy – première entreprise conseil dans le dispositif des certificats d’économies d’énergie (CEE) – se réjouit que le modèle des CEE ait été retenu comme l’un des outils clé pour permettre d’atteindre les objectifs Européen d’économies d’énergie. Selon Frédéric Utzmann, président de CertiNergy : « Cette proposition de directive est une véritable reconnaissance des CEE. Elle démontre l’efficacité d’un dispositif innovant, qui, en permettant de mesurer et chiffrer les économies d’énergie, leur donne une valeur ». En présentant cette directive, le commissaire européen à l’énergie Günther Oettinger a notamment reconnu que les certificats d’économies d’énergie avaient « fait leurs preuves ».

La France fait partie des pays pionniers puisqu’elle s’est dotée depuis 2006 du dispositif des CEE. Il s’agit d’un outil d’une efficacité redoutable pour inciter l’ensemble des acteurs économiques à la maîtrise de l’énergie, sans pour autant peser sur les finances publiques.

« La Commission européenne dresse un constat d’insuffisance des dispositifs classiques face aux objectifs d’efficacité énergétique qu’elle s’était fixés, et confirme que la transposition du dispositif des CEE dans le droit communautaire permettrait d’impulser des actions efficaces d’économies d’énergie », ajoute Frédéric Utzmann.

En effet, si l’Union européenne continue au rythme actuel, elle ne réalisera au mieux que 9% d’efficacité énergétique d’ici 2020 alors qu’elle s’est fixée un objectif de 20%. La Commission a d’ailleurs calculé que les CEE pourraient délivrer 6,4%, soit plus de la moitié des 11% d’économies d’énergie encore nécessaires pour atteindre son objectif. Frédéric Utzmann déclare : « L’obligation d’économiser 1,5 % par an des volumes de vente est très ambitieux. Ce serait une rupture dans l’histoire de la consommation énergétique européenne ». Les obligations sur les fournisseurs d’énergie étaient déjà présentes dans le Plan pour l‘efficacité énergétique du 8 mars 2011, et renforcées dans le projet de directive jusqu’au 21 juin au soir…

Cependant, à la surprise générale, le texte final de la directive a été modifié dans la nuit. « Il est clair que les angles ont été arrondis notamment sous la pression des énergéticiens allemands, mais tout reste à jouer au Parlement ! », conclut Frédéric Utzmann.

 

Estimation du niveau sonore d’un insecte aquatique pygmée !

 

Même s’il n’est pas nécessaire de crier pour se faire entendre, il est dans certains cas utile de pouvoir émettre des sons de manière intense. Or, produire un son avec puissance tout en respectant sa structure temporelle et fréquentielle n’est pas chose aisée. Explorant la diversité des sons produits par les insectes des rivières et des mares, Jérôme Sueur du laboratoire « Origine, structure et évolution de la biodiversité » (Muséum national d’Histoire naturelle / CNRS), David Mackie et James F.C Windmill (University of Strathclyde, Glasgow) ont découvert qu’une toute petite punaise d’eau, le Micronecte pygmée (Micronecta pygmea), est capable de produire un son très intense. On savait déjà que les mâles de cet insecte avaient la particularité de produire un chant de cour à l’adresse des femelles grâce au frottement de leurs pièces génitales. En revanche, personne n’avait estimé l’intensité de ce signal qui est audible depuis le bord de l’eau. Les résultats de cette étude sont publiés cette semaine dans la revue PLoS ONE.
 
Afin d’estimer la puissance de ce chant, les scientifiques ont capturé plusieurs dizaines d’individus des eaux parisiennes. Grâce à un hydrophone et à un système d’enregistrement calibré, ils ont pu enregistrer, décrire et estimer la puissance du chant de 12 mâles. Les estimations indiquent une puissance moyenne de 79 dB à une distance de 1 m avec des pics à 99 dB. En effet, le chant des mâles est si intense qu’il traverse l’interface eau/air et peut être entendu à plusieurs mètres de distance. Ce niveau sonore est considérable surtout si l’on considère la toute petite taille de l’insecte. Si l’on compare le rapport puissance acoustique / taille du corps, le Micronecte pygmée apparaît comme l’animal le plus efficace en terme d’énergie acoustique, dépassant notamment les grands mammifères comme les éléphants ou les baleines !
 
L’intensité de ce chant pourrait être le résultat d’une sélection sexuelle non contrôlée par des contraintes externes comme celles exercées par des prédateurs. Cette faculté pourrait ainsi être considérée comme un caractère sexuel secondaire extrême au même titre que les bois des cervidés, les chants complexes de certains oiseaux ou les couleurs variées et éclatantes observées dans de nombreux groupes animaux.
 
Le mécanisme exacte de la production de ce chant reste encore à découvrir et pourrait peut-être inspirer le développement de systèmes audio de petites tailles. Ces observations montrent combien la diversité acoustique des animaux des mares et des rivières reste très peu explorée. Le comportement et les propriétés physiques des insectes aquatiques réservent certainement de nombreuses surprises.

L’éolien offshore en perpétuel mouvement…

 

Assystem a annoncé s’associer avec Atkins pour se positionner sur le marché en pleine expansion des éoliennes offshore en France. Le gouvernement français a mis en place un important plan d’investissement dans le domaine des infrastructures offshore afin de développer l’énergie éolienne et de créer une véritable filière nationale. Ensemble, Assystem et Atkins conjuguent leurs savoir-faire en matière d’ingénierie afin de relever les défis de cette industrie.

La France a lancé un plan d’investissement de 20 milliards d’euros dans le secteur des énergies renouvelables, avec la volonté spécifique d’accélérer le développement de l’énergie éolienne en mer et des énergies marines. Les estimations portent sur une production de 6000 MW d’ici à 2020, ce qui correspond à 1200 éoliennes et à 3,5% de la consommation d’électricité du pays, contribuant à respecter les engagements du Grenelle de l’Environnement.

Un tel programme requiert une expérience nourrie de compétences très spécifiques et exigeantes en matière d’ingénierie des infrastructures complexes, de production et distribution énergétique, ainsi que la prise en compte des contraintes environnementales.  Assystem, avec le soutien d’Atkins, apporte une offre de conception et bureau d’étude mais également de maîtrise d’uvre ou d’assistance à maîtrise d’ouvrage, associée à une capacité à créer et piloter des alliances entre partenaires.

Assystem s’appuie sur une expérience de plus de 40 ans en ingénierie et exploitation des infrastructures complexes, couplée d’une forte culture de la sûreté, particulièrement dans le domaine de l’énergie, ainsi que sur sa bonne connaissance du marché français. Atkins apporte de solides références en conception et ingénierie des infrastructures éoliennes offshore.  Les deux entreprises ont déjà eu l’occasion de s’associer sur des projets majeurs, tels que la maîtrise d’oeuvre des bâtiments d’ITER. Elles ont récemment formé une joint-venture dans l’ingénierie nucléaire, n.triple.a, afin de prendre en charge des projets internationaux.

« Assystem possède un savoir-faire en matière d’énergies renouvelables et de grands  projets de développement que nous sommes heureux de partager et faire grandir,  » commente Stéphane Aubarbier, membre du Directoire d’Assystem. « Fort de la qualité de notre relation avec Atkins, nous avons confiance en notre capacité commune à pouvoir aider la France à atteindre ses objectifs en matière d’énergie renouvelable ».

Le Directeur de l’Energie d’Atkins, Martin Grant, ajoute être  « impatient de partager l’expertise d’Atkins acquise au Royaume-Uni dans le secteur éolien afin d’aider à la construction des infrastructures qui permettront un développement accéléré de la filière éolienne en France ».

Zoom sur la Chine

La Chine considère comme réalisables ses objectifs en termes de nucléaire

La Chine est en bonne voie pour atteindre 70GW de capacité nucléaire en 2020, bien que le pays ait gelé depuis le 16 mars l’approbation de nouveaux projets depuis la catastrophe de Fukushima. Cela semble toutefois n’avoir aucun impact à long terme sur l’industrie du nucléaire en Chine. C’est le message qui ressort du séminaire sur le développement de l’énergie nucléaire tenu mi-mai à Pékin, évènement co-organisé par l’Académie des Sciences en Chine (CAS) et l’Académie d’ingénierie en Chine (CAE). Une vingtaine d’académiciens y étaient présents et ont réaffirmé le fait que la Chine poursuivrait le développement de son industrie nucléaire, tout en insistant sur l’aspect sécurité et sureté et en tirant les leçons des évènements derniers. La proposition de créer un institut dédié à la sécurité nucléaire a été évoquée ainsi que celle de mettre l’accent sur la recherche.

Le bouquet énergétique chinois, dont la part du charbon représente plus de 60%, diffère nettement de la situation française, à majorité nucléaire. Toutefois la Chine semble vouloir s’en rapprocher. Treize réacteurs sont actuellement en exploitation en Chine, ce qui représente une capacité nucléaire installée de 10,8 GW, soit 1,1% de la capacité totale du pays en 2010. La part en 2010 de la production nucléaire, par rapport à la production totale du pays, représentait 1,9% de la production totale soit 78 TWh. La capacité nucléaire prévisionnelle pour 2015 se situe autour de 40 GW, sachant que 32GW sont en cours de construction (28 réacteurs). Pour atteindre cette capacité à l’horizon 2015, la Chine devra mettre 6 à 7 nouveaux réacteurs en service chaque année. Les chiffres pour 2020, avant l’accident de Fukushima, oscillaient entre 80 et 100 GW, soit entre 4 et 5% de la capacité installée totale.

Suite aux évènements de Fukushima, des équipes d’experts ont été chargées d’inspecter les centrales chinoises. Ces équipes composées de 60 à 70 personnes chacune, viennent d’achever leur enquête concernant les centrales en exploitation (Daya Bay et Ling Ao dans la province du Guangdong, Qinshan dans la province du Zhejiang et Tianwan dans la province du Jiangsu). Les rapports ont été rendus fin mai, mais ils n’ont pas encore été communiqués. L’Agence pour l’énergie nucléaire (AEN) devrait recevoir des responsables chinois pour évoquer l’audit de leurs centrales. Les centrales en cours de réalisation seront dans un deuxième temps inspectées. Pour la plupart des nouveaux projets à partir de 2015, la Chine adoptera la technologie AP 1000 de 3ème génération ou dérivée de l’AP 1000, qui fonctionne sur un mode de « sûreté passive » incluant un système de refroidissement automatique (sans intervention humaine et sans apport d’énergie extérieure).

Le manque de personnel qualifié et la demande d’uranium restent des problématiques que le pays se devra de résoudre s’il veut augmenter significativement sa part d’énergie nucléaire. Le pays ne possède que 6 ou 7 écoles pour former les professionnels du secteur nucléaire, précise Mr Zou Shuliang de la China Atomic Energy Authority (CAEA) ajoutant que « la Chine manquera de personnel si le pays atteint en 2020 les 70GW ».

La consommation annuelle d’uranium en Chine a brutalement augmenté. L’Association mondiale du nucléaire a annoncé une consommation de 20.000 tonnes d’ici 2020. La Chine a importé 17.136 tonnes d’uranium l’an dernier, soit trois fois plus que l’année 2009. Sans considérer les questions de sécurité d’approvisionnement d’uranium, la Chine possède suffisamment de ressources pour atteindre la capacité de 80 GW, affirme Mr Xu Yuming, de la China Nuclear Energy Association (CNEA).

En savoir plus : http://www.bulletins-electroniques.com/actualites/67031.htm

La Chine, deuxième pays à réaliser un prototype de turbine éolienne de 6MW

La société chinoise Sinovel, leader sur le marché de l’éolien chinois, vient de réaliser un prototype de turbine éolienne de 6MW. L’annonce a été faite par Gang Tao, vice-président de la société.

Avec un diamètre de pâle de 128 mètres, le prototype possède une importante prise au vent, rendant le système plus efficace. Ce prototype, qui est le premier du pays de par sa taille, pourra être utilisé dans des parcs éoliens onshore ou offshore. Avant cette réalisation, seule l’Allemagne était en mesure de concevoir de tels équipements, les plus importants au monde en terme de capacité, et de les avoir testés en milieu naturel.

La production de cette turbine accélèrera le développement de l’éolien offshore en Chine. La première ferme éolienne offshore de 100MW a été mise en service durant l’été 2010 près de Shanghai, composée de 34 turbines de 3MW. La même année, l’appel d’offres public pour le parc éolien offshore du Jiangsu d’une capacité d’1GW a été clôturé. La construction du parc éolien débutera cette année. Sinovel travaille également sur la réalisation d’une turbine de 100MW selon Gang Tao.

Avant 2000, le marché domestique chinois s’appuyait presque exclusivement sur les équipements importés d’Europe. Shi Pengfei, vice-président de la Commission chinoise de la China Wind Energy Commission (CWEA), explique que l’introduction des projets de concession d’énergie éolienne et les politiques tarifaires préférentielles en faveur de l’énergie éolienne ont dynamisé localement sa production. Fin 2010, selon les derniers chiffres annoncés, la capacité éolienne installée s’élevait à 44,7GW, représentant 23% de la capacité mondiale, selon la CWEA.

En savoir plus : http://www.bulletins-electroniques.com/actualites/67028.htm

Par S.B

LES BILANS :