Des cellules photovoltaïques enroulables

En randonnée ou en haute mer, les cellules photovoltaïques enroulables peuvent s’avérer des producteurs d’électricité durables et flexibles. Attachées sur un sac à dos ou un kayak, elles permettent par exemple aux appareils de navigation et de communication de fonctionner indépendamment du réseau électrique.Un groupe de recherche de l’Université de Duisbourg-Essen (UDE) développe actuellement un nouveau concept photovoltaïque. Le Land de Rhénanie du Nord Westphalie et l’UDE soutiennent le projet à hauteur de 1,42 million d’euros pour les 5 prochaines années. L’équipe de recherche, sous la direction de Niels Benson, travaille en particulier sur le photovoltaïque hybride enroulable : « Le besoin en énergie mobile disponible augmente considérablement. Satisfaire à la « fringale énergétique » croissante de façon la plus durable possible est notre objectif ».La plupart des cellules photovoltaïques utilisées actuellement sont constituées de silicium cristallin rigide. La nouveauté est l’utilisation de semi-conducteurs organiques et à base d’oxyde métallique, qui possèdent potentiellement un haut rendement en tant que système purement organique et peuvent aussi être intégrés dans diverses applications mobiles malléables. Selon Benson, « un avantage réside dans le fait que ces substances ne nécessitent pas de hautes températures de fabrication pour utiliser des matériaux porteurs flexibles – une condition importante pour les cellules solaires enroulables ».La création du groupe de recherche renforce l’axe prioritaire de recherche en nanotechnologie et en particulier en génie nanoénergétique de l’UDE, implanté dans le Centre des techniques de nanoénergie (NETZ) et coordonné par le Centre de recherche pour la nanointégration de Duisbourg-Essen (CeNIDE). Source :Les bulletins électroniquesEn savoir plus :

  • Dr.-Ing. Niels Benson, chef de projet de recherche – Université de Duisbourg-Essen, Forsthausweg 2, D 47057 Duisburg – tél : +49 203/379-1058
  • Dr. Tobias Teckentrup – UDE – tél : +49 203/379-2817

Process alimentaire : l’innovation ne connait pas la crise

IPA 2010, le salon International du Process Alimentaire, vient de publier les résultats de sa seconde Enquête Minute 2010, sur la capitalisation des savoirs, la R et D et l’Innovation. Réalisée en mai 2010, cette enquête a permis de collecter les témoignages de 144 professionnels nationaux et internationaux issus de tous les secteurs représentatifs des IAA (produits laitiers et fromages, liquides et boissons, produits carnés/poissons boulangerie/pâtisserie/confiserie).En matière d’innovation, les services ont la cote : sur les deux dernières années, 78,5 % des répondants affirment avoir lancé un ou plusieurs nouveaux produits, services ou procédés (ils étaient 71 % en 2008). Les résultats de l’enquête montrent que le nombre des innovations incrémentales (modification, transposition ou amélioration de produits/procédés déjà existants) dépasse toujours celui des innovations de rupture (36 %).Au nombre de ces innovations, les innovations produits sont encore les plus citées (84 % vs. 88 % en 2008). Les innovations de procédés sont en baisse (27 % vs. 33 % en 2008). Ces innovations concernent principalement l’automatisation, qui enregistre une hausse sensible (55 % vs. 28 % en 2008), le traitement thermique (35 % vs. 28 % en 2008) et l’économie d’énergie qui reste stable (22 %).Le client au centre des préoccupations : comme en 2008, les objectifs majeurs de l’innovation restent l’augmentation des ventes/du chiffre d’affaires (65 % vs. 62,5 % en 2008) et le développement d’un avantage concurrentiel (53 % vs. 52,5 % en 2008). En revanche, 2010 fait apparaître une nette progression de l’intérêt des industriels pour « le service client » : améliorer la qualité des produits (37,5 % vs. 23 % en 2008), satisfaire la demande (31 % vs. 19 %), accroître la notoriété (14,5 % vs. 10,5 %).En ces périodes tourmentées, les préoccupations économiques dominent : le gain de productivité est un objectif en hausse (21 % vs. 13,5 % en 2008).Toutes les ressources en interne sont mises à contribution : si le service R et D interne demeure logiquement le premier acteur de l’innovation des entreprises, celles-ci sont de plus en plus nombreuses à mettre à profit les savoir-faire et les expériences de leurs équipes internes non spécifiquement dédiées à la R&D (production, commercial…) : 51 % vs. 38 % en 2008. Les entreprises font également plus largement appel aux centres d’innovation, aux centres de compétitivité et aux /centres techniques externes (14 % vs. 8,5 % en 2008) et aux laboratoires (13 % vs. 9,5 % en 2008).Le budget, premier frein à l’innovation : en 2010, seulement 2 % des entreprises affirment que l’innovation ne s’inscrit pas dans leur stratégie actuelle. Un chiffre en nette régression, si on le compare aux 11 % de 2008.Les trois freins à l’innovation sont les mêmes qu’en 2008. Toutefois, si les problématiques de temps et les moyens humains enregistrent une baisse (respectivement 27 % vs. 33,5 % en 2008 et 26 % vs. 32,5 % en 2008), la problématique budgétaire connaît une hausse significative (47 % vs. 35,5 % en 2008). Juste après arrivent les difficultés techniques et technologiques (24 %) et l’accès aux financements extérieurs (19 %).Des investissements en hausse : la part du chiffre d’affaires consacré à la R et D est en nette progression. Un pari osé en temps d’instabilité économique qui témoigne de l’intérêt croissant porté par les entreprises à la R&D et à l’innovation. 28 % des entreprises y consacrent de 1 à 3 % de leur chiffre d’affaires (vs. 18,5 % en 2008) ; 16 % plus de 3 % de leur chiffre d’affaires (vs. 13,5 % en 2008) ; 24 % moins de 1 % de leur chiffre d’affaires (vs. 28,5 % en 2008). Donnée stable par rapport à 2008, 63 % des sociétés n’ont pas bénéficié d’aides publiques pour financer la recherche. Celles qui y ont eu droit ont surtout utilisé le crédit impôt recherche (10,7 %) et les aides régionales (8 %).Cette tendance à la hausse des investissements devrait perdurer puisque 68 % des entreprises pensent que la part investie en R&D augmentera (38 %) ou restera stable (30 %) dans les deux années à venir. Dans le même temps, 77 % des répondants envisagent de lancer des innovations sur le marché.Les secteurs les plus innovants restent les mêmes: aux quatre premières places des secteurs les plus innovants de l’industrie agroalimentaire, on retrouve les mêmes qu’en 2008… dans  un ordre différent. En 2010, les répondants plébiscitent les produits laitiers et fromagers (44 % vs. 30 % en 2008), les liquides et boissons (38 % vs. 23 % en 2008), les plats cuisinés (33 % vs. 50,5 % en 2008) et les produits diététiques/infantiles (30 % vs. 46,5 % en 2008).Par Marc Chabreuil

Captage et de stockage du CO2 : feu vert pour 4 démonstrateurs de recherche

Le captage et le stockage géologique du CO2 (CSC) est l’une des options envisagées pour réduire les émissions de ce gaz à effet de serre, en complément des politiques d’efficacité énergétique et du développement des énergies renouvelables. C’est également une filière industrielle stratégique de la croissance verte : le marché du CSC devrait représenter une centaine de milliards d’euros entre 2020 et 2030. Le Fonds démonstrateur de Recherche, créé par le Grenelle Environnement et confié à l’ADEME, a pour objectif de soutenir le potentiel des industriels français pour les positionner dès à présent sur le marché des technologies innovantes, tant sur le captage (technologie de postcombustion, d’oxycombustion,…) que le stockage du CO2 (stockage dans des gisements d’hydrocarbures déplétés ou dans des aquifères salins).Suite à l’appel à manifestations d’intérêt lancé en 2008, un premier projet avait été retenu en 2009 : Pil-Ansu (Pilote d’anti-sublimation), présenté par Alstom. Il a pour objectif la réalisation d’un démonstrateur de captage du CO2 par antisublimation (givrage/dégivrage des gaz) sur les fumées d’une centrale à charbon. Une recherche conduite par l’École des Mines de Paris avec le soutien de l’ADEME, il y a quelques années, avait démontré l’intérêt de ce procédé très innovant de séparation du CO2 dans les gaz de combustion. Suite à cette première opération, Alstom, EDF, GDF Suez et Armines se sont associés pour présenter un projet visant à démontrer la faisabilité de ce procédé à une échelle industrielle. Ce démonstrateur sera expérimenté sur une centrale de production d’électricité à charbon existante. Trois nouveaux projets pilotés par des grands groupes industriels et associant des entreprises, notamment des PME, et des organismes de recherche, viennent d’être instruits et sélectionnés pour recevoir un soutien du Fonds. Les aides qui ont été attribuées à l’ensemble de ces projets approchent 45 millions d’euros sur une durée de 6 à 8 ans.Tous ces projets consistent en des démonstrateurs de recherche qui permettront de tester de nouvelles technologies de captage et de stockage à une échelle de l’ordre 1/100ème d’une application industrielle qui pourrait voir le jour vers 2020. L’objectif est également de mesurer l’acceptabilité sociale de telles technologies et de préparer le cadre réglementaire et les critères de sécurité relatifs à ces technologies.

France-Nord : recherche d’un site géologique de stockage 
Ce projet, piloté par Total associé à plusieurs industriels et organismes de recherche français et européens, permettra d’étudier la possibilité d’implanter dans le bassin sédimentaire situé dans le Centre-Nord de la France métropolitaine, une infrastructure pilote de transport et de stockage de CO2, utilisée par plusieurs industries émettrices de CO2. Des études techniques approfondies seront réalisées afin de sélectionner un site géologique approprié pour le stockage de CO2 dans des aquifères salins profonds (roches sédimentaires contenant de l’eau non potable, situées à une profondeur d’au moins 1000 m et recouvertes d’une couche sédimentaire étanche).Le projet vise également à définir les infrastructures de transport de CO2 adaptées pour relier les sites industriels au site de stockage. A l’issue de deux années d’études, les partenaires, en concertation avec les pouvoirs publics et la population locale, devraient être en mesure de proposer un site sur lequel sera réalisé le pilote.

Ulcos : recyclage des gaz de hauts-fourneaux
ULCOS (Ultra-Low CO2 Steelmaking), consortium européen de recherche et développement consacré à la mise au point de processus de production d’acier réduisant les émissions de gaz à effet de serre, prévoit de lancer un projet pionnier de captage, transport et stockage de dioxyde de carbone (CO2) en Lorraine. A l’issue des démarches d’information et de concertation et sous réserve d’approbation par les autorités compétentes et d’obtention des financements requis, le projet de recyclage et captage sera mis en œuvre à l’usine d’ArcelorMittal à Florange.La technologie apportée par Air Liquide, associée au haut fourneau à recyclage contribue à réduire la consommation de carbone et donc les émissions de CO2 qui en résultent et à obtenir du CO2 suffisamment pur pour être stocké dans le sous-sol.Cette technologie de rupture devrait offrir la possibilité, pour l’ensemble des hauts fourneaux sidérurgiques installés dans le monde, de réduire leurs émissions de CO2 de plus de 50%. Il s’agit donc d’un enjeu considérable pour la sidérurgie européenne, déjà soumise au système de quotas d’émissions de CO2 adopté par l’Union européenne pour lutter contre le réchauffement climatique (EU ETS).Depuis 1975, l’industrie sidérurgique a réduit de 50% ses émissions de CO2. Afin de poursuivre ces progrès, la mise au point d’une technologie de rupture est nécessaire. Ceci constitue une priorité du secteur en Europe.Soucieux de contribuer aux efforts pour lutter contre le changement climatique, ArcelorMittal, leader industriel du programme ULCOS, travaille sur le déploiement d’un pilote dans son usine d’Eisenhüttenstadt (est de l’Allemagne) et d’un démonstrateur industriel sur son site de Florange en Lorraine (nord-est de la France). Ces travaux permettront de valider le principe du captage de CO2 et du recyclage des gaz de haut fourneau. Le démonstrateur de Florange sera assorti d’un projet pionnier de transport et de stockage de CO2.
C2A2 : une technologie destinée aux centrales à charbon
Porté par EDF et Alstom, avec la participation de Veolia Environnement, ce projet porte sur le captage post-combustion par solvant à base d’amines. Il s’agit d’une technologie optimisée à la fois au niveau du procédé et du solvant. Il prévoit la réalisation d’un démonstrateur de recherche de captage de CO2 sur l’unité n°4 de la centrale de production d’électricité au charbon EDF du Havre (Haute Normandie) La technologie, proposée par Alstom et retenue par EDF, est celle du « captage post¬combustion aux amines ». Elle sera testée sur le CO2 présent dans les fumées issues de la  combustion du charbon de la centrale thermique du Havre.Les amines constituent la base du réactif utilisé pour extraire le CO2 des fumées. Des technologies « par lavage aux amines » sont couramment utilisées dans le secteur de la purification du gaz naturel mais celle qui sera testée au Havre a été spécialement développée par The Dow Chemical Company, en partenariat avec Alstom, pour une nouvelle application dans le secteur de la production d’électricité. Ce démonstrateur de recherche aura pour objectif de réduire la consommation d’énergie et d’amines de l’installation. Il permettra aussi de vérifier les performances de cette technologie en milieu industriel et d’analyser sa flexibilité en exploitation.

Le datacenter vert prend une tournure politique

De la préservation du climat à l’éthique du climat : la consommation énergétique élevée des datacenters prend lentement mais sûrement un tour politique. Le 1er avril dernier, le Royaume-Uni a adopté la première loi européenne contraignant les entreprises à examiner activement la question des rejets de CO2 de leur datacenter. Celles dont la consommation énergétique annuelle dépasse 6.000 MW/h – soit quelque 3.425 tonnes par an de rejets de CO2 – doivent désormais acheter des certificats couvrant leurs rejets. Le volume de ces émissions entraînera donc selon les cas, soit des incitations sous forme de primes, soit des amendes si elles sont trop importantes, sans parler de la mauvaise réputation des pollueurs. La loi, le  » Carbon Reduction Commitment (CRC) Energy Efficiency Scheme  » (Programme d’efficacité énergétique avec engagement de réduction des rejets de carbone) entend contribuer à réduire les rejets de gaz à effet de serre à hauteur de 80 % à l’horizon 2050.

Contraintes juridiques ou autodiscipline ?
L’Union européenne table, quant à elle, sur l’autodiscipline. Le 30 octobre 2008, elle a donné naissance à une initiative en direction des entreprises pour réduire la consommation électrique de leurs datacenters. Ce  » Code de conduite européen sur l’efficacité énergétique des datacenters  » vise à mettre en place un système standardisé, afin de  » mettre au vert  » ces derniers et d’appliquer un ensemble de pratiques  » métier  » recommandées. Dans ce cadre, des initiatives privées telles que  » The Green Grid  » créent un ensemble de paramètres acceptés au niveau mondial pour l’efficacité énergétique des datacenters.

Reconnaissance des économies potentielles
Une chose est certaine, les exploitants s’attachant à mesurer et à optimiser leur consommation énergétique réduisent leurs coûts. Mieux armés face à l’évolution de la réglementation, ils peuvent bénéficier de mesures incitatives. Mais comment savoir où se cachent les gros consommateurs d’électricité ? Et comment optimiser les ressources existantes ? Le consortium  » The Green Grid  » a introduit les critères PUE (Power Usage Effectiveness) et DCE (Data Center Efficiency) qui permettent de comparer et de mesurer l’énergie nécessaire pour stocker et acheminer une information en fonction de l’énergie totale indispensable pour le fonctionnement des datacenters, comme les circuits de refroidissement, les systèmes de sécurité et de surveillance ou l’alimentation des équipements IT.

Les points névralgiques
L’un des principaux facteurs d’amélioration consiste à analyser la consommation d’énergie de l’infrastructure du datacenter et de déterminer là où il est possible de la réduire. Une étude de l’AFCOM (Association for Data Center Professionals) a montré que le refroidissement des datacenters est en moyenne 2,6 fois trop puissant. En cause : la climatisation, représentant 40 % à 60 % de la consommation totale d’électricité, toujours conçue en fonction des emplacements où la chaleur est la plus élevée. Un simple serveur, constamment à plein régime, peut être à l’origine d’une consommation énergétique faramineuse puisqu’il sollicitera davantage la climatisation. La suppression de ces points névralgiques représente une réduction potentielle de 20 à 35 % de la consommation électrique. Le but étant d’identifier d’abord quels sont les équipements qui consomment le plus, puis, de répartir les tâches ou les applicatifs de façon à équilibrer leur consommation électrique et à réduire ainsi la dissipation calorifique et les besoins en climatisation. Avec les rampes électriques intelligentes, le service informatique assure une alimentation continue de l’ensemble du datacenter, suit et maîtrise la consommation électrique de chaque équipement.

Planification, mesure et contrôle de la consommation énergétique des datacenters
Dans le fonctionnement quotidien des datacenters, des outils matériels et logiciels permettent de mesurer la consommation électrique des matériels en temps réel et de modéliser le site idéal. Le but : maîtriser et équilibrer leur consommation d’énergie de façon optimale sur l’ensemble du système d’information. Grâce à ces dispositifs, il devient plus facile d’appréhender ou de corriger les fluctuations de la consommation électrique. Ces solutions de gestion de l’énergie fournissent les données nécessaires pour analyser la consommation énergétique de l’infrastructure du datacenter. Des logiciels de planification, de visualisation graphique et de gestion des datacenters permettent non seulement une exploitation optimale de la capacité disponible, mais également de créer un plan  dynamique du datacenter. Plutôt que d’attendre les directives du législateur, les entreprises ont donc tout intérêt à réduire, dès aujourd’hui, leur consommation énergétique et leurs rejets de CO2 pour prendre une longueur d’avance sur la concurrence. Et peut-être éviter de subir, puisqu’elles ont toutes les cartes en main, une réglementation imposée par l’Etat en devenant éco-responsables. Par Wolfgang Goretzki, directeur du marketing produits d’Avocent pour la région EMEAEn savoir plusAvocent, constructeur – éditeur offre des solutions matérielles et logicielles de gestion de la consommation d’énergie des datacenters. La société fait partie du groupe Emerson Network Power qui est depuis 2007 membre de « The Green Grid », un consortium qui s’attache à faire progresser l’efficacité énergétique dans les datacenters.

Le projet européen AMARSi : des robots apprennent en interagissant

Le projet européen AMARSi (Adaptive modular architecture for rich motor skills) vient d’être lancé. A ce jour, les responsables du projet n’ont pas encore ouvert de site d’information à ce nom. Indiquons seulement que le coordinateur du projet est le Dr Jochen Steil, directeur du Cognitive robotics and learning laboratory (CoR-Lab), à l’université de Bielefield. L’article de Wired référencé ci-dessous donne de ce projet une première description intéressante. Pour résumer sommairement, il s’agit d’un programme de 4 ans, doté de la somme relativement modeste (compte-tenu des ambitions affichées) de 7 millions d’euros, visant à développer des robots capables de développer des compétences manufacturières, ou autres, en interagissant dans un espace équipé de divers matériels. L’idée est d’imiter ce qui se produit entre humains dans un atelier où des travailleurs acquièrent progressivement de nouvelles compétences en imitant celui d’entre eux qui résout le mieux les problèmes posés à l’atelier. Des humains pourront intervenir au sein du groupe pour suggérer, le cas échéant, de nouveaux comportements que les capacités évolutionnaires encore limitées des robots ne leur permettraient pas d’acquérir avant de trop longs tâtonnements. Le projet se fixe deux objectifs. Le premier est d’ordre pratique. Il s’agit d’obtenir de la part d’une équipe de robots adaptatifs engagés dans une tâche donnée, des réponses rapides à un changement dans les contraintes ou dans les demandes. Le travail en équipe est censé en ce cas renforcer les capacités auto-adaptatives des robots individuels, par la création d’une « intelligence » collective.

Renforcer les entrées-sorties des robots
Sur le plan théorique, le projet devrait aider à mieux comprendre ce qui se passe, aussi bien chez les humains, les animaux que chez les robots, lorsque sous les contraintes de la survie, un groupe s’adapte à de nouvelles conditions environnementales. Ceci devrait permettre d’approfondir le concept de sélection de groupe. Alors que la sélection darwinienne s’exerce en priorité sur les individus, comment les groupes peuvent-ils acquérir, à travers les individus qui les composent, une meilleure adaptation dans le cadre de la compétition avec d’autres groupes. Quelle est alors la part de l’apport de l’autonomie individuelle dans l’augmentation de l’autonomie du groupe ? Les groupes réussissent mieux lorsqu’ils laissent de la liberté à leurs membres, plutôt que les contrôler étroitement ? Sur le plan de la technologie robotique, de nouvelles instructions et procédures devront être développées (en attendant qu’elles émergent éventuellement spontanément). Il faudra aussi renforcer les entrées-sorties des robots les rendant aptes à observer les objets et outils porteurs des tâches à accomplir comme les réactions de leurs collègues-robots. Concrètement, l’équipe expérimentera à partir des deux plate-formes robotiques que nous avions précédemment présentées sur ce site [admiroutes.asso.fr] : iCub imitant un enfant et Cheetah un quadrupède. Les chercheurs viseront à reproduire le plus fidèlement possible les caractéristiques des organismes biologiques. Un autre projet européen de même nature vient d’être engagé. Il s’agit de Humanoids with auditory and visual abilities in populated spaces (HUMAVIPS) auquel participe l’Inria en France et auquel s’associera le cas échéant Aldebaran Robotics avec son robot Nao, que nos lecteurs connaissent bien.Il faut se féliciter de l’intérêt porté par la robotique européenne à ces questions essentielles, ainsi que du soutien donné par les services de la Commission. Il faudra évidemment mieux faire connaitre les résultats de ces travaux, qui demeurent encore du domaine du confidentiel. Ajoutons, pour ce qui nous concerne, que l’interaction des robots avec des humains et des machines dans le cadre des deux projets de recherche évoqués ci-dessus devrait permettre de préciser la façon dont se construisent en pratique les systèmes anthropotechniques, objets de notre dernier essai Le paradoxe du Sapiens. Par Jean-Paul Baquiast et Christophe Jacquemin (article paru le 26/03/2010 sur le site de la revue Automates intelligents)

© Automates Intelligents
SourceAutomates intelligentsEn savoir plus
  • Article de Wired 
  • Dr Jochen Steil
  • Corlab 
  • RobotCub et iCub
  • Le robot quadrupède Cheetah 
  • Sur HUMAVIPS, lire cet article de Wired
  • Voir aussi www.actroide.com/humavips

 

Une alimentation perpétuelle à partir de la récupération d’énergie thermique

La capture de l’énergie (energy harvesting), technique selon laquelle l’énergie électrique utile est générée par des sources disponibles gratuitement telles que les vibrations, la chaleur ou la lumière, est une caractéristique essentielle des capteurs sans fil auto-alimentés qui ne requièrent aucune maintenance de la batterie. Or, ces réseaux de capteurs sont de plus en plus utilisés, notamment dans des applications telles que l’automatisation de processus, le contrôle d’état ou les immeubles intelligents.
Pour répondre aux besoins de ce marché, STMicroelectronics, fournisseur mondial de semi-conducteurs pour applications de puissance et de gestion de l’énergie, et Micropelt GmbH, une jeune entreprise allemande spécialisée dans le développement d’appareils thermoélectriques innovants à couches minces, ont développé conjointement un kit d’évaluation de capteurs sans fil autonomes baptisé TE-Power NODE.
Au cœur de ce nouveau kit d’évaluation, un générateur thermoélectrique (TEG) exploite un phénomène physique appelé  » Effet Seebeck  » où l’énergie électrique résulte du flux thermique produit par un différentiel de température sur une couche thermoélectrique micro-structurée. À partir d’un gradient effectif de 10°C, le générateur thermoélectrique produit une tension de 1,4 V. Le système de conditionnement d’énergie personnalisé de Micropelt convertit cette tension en une énergie suffisante pour commander le réseau de capteurs sans fil et charger une batterie en utilisant le surplus d’énergie thermique. Dans le kit, le générateur thermoélectrique Micropelt MPG-D751 est placé entre une plaque d’aluminium solide et un radiateur à ailettes. La plaque est reliée à une source de chaleur appropriée, de sorte que l’effet refroidissant du radiateur peut créer un différentiel de température sur le générateur thermoélectrique enfoui.  » La récupération d’énergie thermique offre un potentiel exceptionnel dans la mesure où cette technique représente une source d’énergie auto-suffisante virtuellement infinie en exploitant gratuitement un surplus de chaleur qui sinon serait perdu « , déclare Fritz Volkert, CEO de Micropelt.
La batterie rechargeable utilisée dans le kit est une batterie à couches minces et haute densité énergétique EFL700A39 développée par ST dans la technologie EnFilm. Elle affiche un grand nombre de cycles de charge/décharge, c’est-à-dire supérieur à 1.000 à une profondeur de décharge de 50 % et occupe une surface de 25,4 x 25,4 mm pour une épaisseur de seulement 0,2 mm. Rechargeable à 80 % de sa capacité initiale en 20 min sous une tension constante de 4,2 Vdc, sans limitation du courant de charge, elle ne contient pas de matières solvantes et ne présente aucun risque d’inflammation en cas de courts-circuits ou de surcharge. Cette batterie de 700 microampère-heure peut générer un courant crête pulsé élevé (jusqu’à 10mA) pour alimenter le nœud de capteurs sans fil au cours de ses communications avec le réseau.
Lorsque la plaque de base du kit d’évaluation est en contact avec une source de chaleur, le générateur thermoélectrique de Micropelt alimente le système et recharge la batterie EnFilm. Dès que la source de chaleur disparaît, le générateur cesse de fonctionner et seule la batterie EnFilm alimente le capteur sans fil. L’association du générateur et de la batterie EnFilm permet d’équilibrer les écarts d’alimentation thermique et permet d’alimenter le système sans fil connecté à l’aide d’une source d’énergie virtuellement infinie.
Conçue par ST, la carte de la batterie héberge la batterie EnFilm et les circuits électroniques qui commandent et surveillent à la fois le niveau de charge de la batterie et le bilan énergétique : un régulateur linéaire BiCMOS STLQ50 spécialement conçu pour les environnements qui requièrent une très basse consommation d’énergie, ainsi que le circuit de gestion de batterie STC3100 qui surveille la tension de la batterie, le courant et la température. Ce circuit intègre également un compteur de Coulomb chargé de superviser le niveau de charge/décharge de la batterie.
Le circuit de gestion de l’alimentation et de contrôle de la charge de la batterie peut être visualisé à travers le  logiciel d’interface utilisateur graphique inclus via une liaison sans fil à 2,4 GHz GHz. Le logiciel affiche et enregistre les paramètres thermiques et électriques essentiels du système, parmi lesquels un bilan énergétique mesuré en continu entre le générateur thermoélectrique et la batterie EnFilm. Pour l’utilisateur, ce dispositif constitue un moyen d’évaluer les performances du système de récupération thermique avec la batterie EnFilm dans une application donnée, ce qui facilite la conception du système et réduit les délais de mise sur le marché.

EDF analyse en continu les gaz et les poussières d’une centrale au fioul

Chaque fois qu’EDF agrandit son parc thermique à flamme, il intègre le respect de l’environnement dès la phase de conception du projet. Ainsi, les  turbines à combustion au fioul (TAC) qui bénéficient des meilleures technologies disponibles pour réduire les émissions polluantes, utilisent un fioul peu soufré  permettant, à production équivalente, de réduire les émissions d’oxyde d’azote et de dioxyde de soufre. Par ailleurs, répondant à un besoin d’électricité en pointe et extrême pointe, elles ne sont appelées à fonctionner que quelques centaines d’heures par an, ce qui réduit d’autant leurs émissions dans l’atmosphère. La centrale électrique de Vaires-sur-Marne, en Seine-et-Marne, ne faillit pas à la règle. Cela n’a pas empêché EDF de l’équiper, sur chaque émissaire, d’une solution complète  d’analyse des gaz et des poussières de Sick qui répond à la fois à ses besoins mais aussi aux normes NF EN14181 et à la réglementation 2001/80/CE relative aux Grandes Installations de Combustion.L’analyse des gaz est assurée par une sonde en ligne de prélèvement chauffée, solution qui permettra de conserver toutes les caractéristiques du gaz, et par une armoire d’analyse MKAS Sick, un système extractif de mesure à froid dans lequel est intégré un système de traitement de l’échantillon (groupe froid, filtre, …) et des analyseurs Sidor. Ces derniers utilisent la technologie infra¬rouge non dispersif (NDIR ou non dispersive infrared sensor), pour la mesure en continu du dioxyde d soufre (SO2), du monoxyde de carbone (CO) ainsi que des oxydes d’azote (NOx) et oxygène (O2). Certifiés par le TUV allemand (Technischer Überwachungs-Verein) et le MCert (Environment Agency’s Monitoring Certification Scheme), ils garantissent une bonne qualité de mesure en terme de précision et stabilité de détection, ce qui permet d’espacer les opérations de maintenance du photomètre de plusieurs mois, sans avoir besoin d’effectuer des étalonnages fréquents.L’analyse des poussières est assurée par le système de mesure RM 230 de Sick qui est particulièrement adapté aux applications des grandes installations de combustion pour lesquelles la législation exige une surveillance et un traitement en continu. Basé sur la technique in situ, le savoir-faire du groupe depuis plus de 40 ans, le RM 230, calcule les concentrations en poussières à partir de la mesure de l’intensité de la lumière diffusée, après calibration par une mesure gravimétrique : l’émetteur envoie un faisceau lumineux infrarouge qui est diffracté par les particules présentes dans le flux gazeux, puis détecté par un capteur à haute sensibilité. Ainsi, le RM 230 permet des mesures directes dans le flux gazeux et donc d’obtenir rapidement (entre 1 et 255 sec) des valeurs instantanées avec une précision de ± 2% pleine échelle. Il est aussi doté d’un système de changement automatique d’échelle selon le niveau de concentration en poussières, son filtre compensant la puissance de lumière en fonction de la gamme requise par l’utilisateur.L’ensemble des mesures est envoyé vers le MEAC, système d’acquisition de données, développé par Sick et certifié TÜV qui mémorise toutes les données et calcule les moyennes semi-horaires, journalières et mensuelles à partir des moyennes minutes. L’ensemble de ces calculs permet d’éditer les rapports mensuels destinés à la Direction générale de l’Environnement, de l’Aménagement et du Logement (DREALE) et de prouver le respect absolu des VLE (Valeurs Limite d’Emission) définies dans son arrêté préfectoral. Les données traitées ainsi que les alarmes en cas de dépassement, peuvent ensuite être transmises au contrôle-commande de la centrale pour une gestion centralisée, ce qui permet au personnel d’exploitation de suivre en permanence les données pour une réactivité optimum.

Nos données de demain sur une molécule ?

Pour réaliser ces molécules, la chimie de coordination constitue une approche particulièrement intéressante. En effet, elle permet au chimiste d’organiser de façon contrôlée des ions métalliques (fer, manganèse, cuivre…) en utilisant des petites molécules organiques aussi appelées ligands. Les objets ainsi formés, qui sont de la taille de quelques nanomètres, possèdent des propriétés tout à fait remarquables (magnétiques, optiques, conductivité électrique…) induites par ces assemblages et les propriétés intrinsèques des ligands et des ions métalliques. La chimie de coordination présente le double avantage de contrôler la matière à l’échelle de la molécule et de mettre en forme ces molécules par des techniques peu coûteuses, comme par exemple, le dépôt en solution.  Sous l’effet de la température ou de la lumière, certains composés de coordination voient leurs états magnétiques et leur couleur se modifier de manière réversible. Stocker une information au niveau de ces molécules est envisageable quand le changement induit par la température ou la lumière implique au moins deux états aux propriétés bien différentes (dans le cas binaire, les deux états peuvent être assimilés à un codage 0 ou 1). Ainsi, à la fin des années 1990, l’équipe japonaise du Prof. Hashimoto découvre un matériau non magnétique qui se transforme en aimant sous l’effet d’une lumière rouge à basse température. Ce matériau est obtenu à partir d’un précurseur moléculaire de l’ion fer entouré par six ligands cyanures (-CºN) et de l’ion cobalt. L’assemblage final forme une architecture tridimensionnelle similaire au bleu de Prusse dans laquelle les ions fer et cobalt sont liés par des ponts cyanures dans les trois directions de l’espace selon un réseau cubique. Quand ce solide est irradié par la lumière, un électron est transféré à travers le pont cyanure depuis l’ion fer vers l’ion cobalt. Ainsi, ce matériau bascule d’un état diamagnétique (d’aimantation nulle en champ magnétique nul) à un état d’aimant. Ce phénomène est parfaitement réversible puisqu’une augmentation de température (>150 K) est suffisante pour que le solide retrouve son état non magnétique initial.

De nouvelles avancées
Ce résultat a motivé de nombreux groupes de recherche à travers le monde pour obtenir un équivalent moléculaire de ce réseau qui serait plus facile à manipuler et à mettre en forme dans les dispositifs du futur. C’est ce challenge qu’a très récemment relevé une équipe internationale de chimistes américains et français composée de chercheurs du Centre de recherche Paul Pascal et de l’Institut de chimie de la matière condensée de Bordeaux (CNRS) soutenue par un Projet International de Coopération Scientifique du CNRS.Pour obtenir cet équivalent moléculaire, la stratégie de synthèse choisie par cette équipe consiste à bloquer certains sites de coordination sur les ions fer et cobalt pour éviter la formation de la structure tridimensionnelle. En 2008, cette stratégie a permis à ces mêmes chercheurs d’obtenir une molécule en forme de cube, [Fe4Co4] (environ 2,5 nm), qui représente un fragment moléculaire de la structure tridimensionnelle du type des bleus de Prusse. Très récemment, ils ont synthétisé et étudié une molécule carrée, [Fe2Co2], encore plus petite (environ 1,8 nm) qui est en fait une face du cube [Fe4Co4] précédemment obtenu. Ce nouveau composé présente deux états distincts (« 0 » ou « 1 »), contrôlables par la lumière et/ou la température. Ces deux états ont pu être étudiés à l’aide de techniques structurales, optiques et magnétiques. La combinaison de ces trois techniques a permis de démontrer le mécanisme de transfert d’électron entre les ions fer et cobalt au sein même de la molécule carrée. Ainsi le composé rouge (magnétique) (FeIII2CoII2) à haute température devient vert et diamagnétique (FeII2CoIII2) à basse température. Mais s’il est irradié par une simple lumière blanche, il redevient rouge et magnétique. Le passage d’un état à l’autre s’effectue sans fatigue apparente car le phénomène est essentiellement d’origine moléculaire. Ce composé répond donc parfaitement à la fonction de stockage des composants classiques de nos disques durs entre deux états magnétiques et optiques que l’on peut coder comme des états « 0 » et « 1 ».Ces résultats illustrent la capacité de la chimie de coordination à concevoir de façon contrôlée, à l’échelle de quelques atomes, de nouvelles molécules pour le stockage de l’information dans les ordinateurs de demain, et ouvrent ainsi de nouvelles perspectives dans la miniaturisation des dispositifs de stockage.

Les nanotechnologies ont désormais leur guide

Les nanosciences et les nanotechnologies connaissent depuis les années 90 un formidable essor. Considérées comme l’un des moteurs de la prochaine révolution industrielle, les nanotechnologies présentent un potentiel de développements et d’applications considérables, notamment dans les domaines des biotechnologies, des matériaux, et des technologies de l’information et de la communication.  Les chiffres sont évocateurs :

  • les produits issus des nanotechnologies génèreront un marché de mille milliards de dollars d’ici 2015 (55 milliards en 2002) ;
  • le potentiel de création d’emplois dans le monde pourrait atteindre 10 millions d’emplois d’ici à 2014 ;
  • le nombre de produits « nano » commercialisés est passé de 219 à 800 entre 2006 et 2009. Les produits intégrant des nanotechnologies devraient à terme représenter 15 % de l’ensemble des biens commercialisés ;
  • en France, 4.000 chercheurs sont impliqués dans cette discipline.

Pourtant, comme en témoigne les conclusions du grand débat public sur les nanotechnologies, force est de constater que beaucoup d’éléments sont encore mal connus des professionnels, industriels et chercheurs. Les risques sanitaires et environnementaux en premier lieu, mais aussi les opportunités de croissance, les réels bénéfices technologiques ainsi que les acteurs présents sur ce nouveau secteur. En effet, que sait-on réellement du marché des nanotechnologies en France ? Quelles entreprises sont impliquées dans son développement ? Quels produits sont concernés ? Edité par les Techniques de l’Ingénieur en partenariat avec la société de conseil ALCIMED, le tout nouveau guide des nanotechnologies est le premier et le seul annuaire de référence multisectoriel consacré au marché français. Il permet de dessiner les contours de ce marché émergent et répond au besoin des professionnels de se repérer dans ce nouvel environnement concurrentiel.

Une expertise associant analyses et données pratiques

Le lecteur y retrouvera :

  • Un répertoire exhaustif des entreprises et organismes dont l’activité est liée aux nanotechnologies ;
  • Un référencement de tous les acteurs de la chaîne de valeur des nanotechnologies, du fournisseur de matériaux ou d’équipements à l’utilisateur final, en passant par le transformateur et l’intégrateur ;
  • Une hiérarchisation des sociétés par secteur industriel ;
  • Une analyse complète du marché français par les experts du CEA, du CNRS, de l’OMNT, de l’AFSSET, de l’AFSSA, etc. : études sectorielles, enjeux économiques, réglementations, nouveaux produits et opportunités de croissance.
  • Un code QR ®, sur chaque fiche entreprise, permettant de récupérer instantanément et automatiquement avec un smartphone l’adresse du site Internet de chaque société référencée.

Le cahier nanotechnologies sur Instantanés Techniques
Considérées comme l’un des moteurs de la prochaine révolution industrielle, les nanotechnologies présentent un potentiel d’applications considérables, notamment dans les domaines des TIC, des matériaux, de la santé et de l’énergie. Mais elles suscitent également beaucoup de craintes comme en témoigne le débat public sur les nanotechnologies. Zoom sur les débats et les innovations de cette filière. Voir le cahier : nanotechnologies : quelles promesses, quelles réalités

Le CH de Dax assure la Haute Disponibilité de son SI

Etablissement public de santé réparti sur 7 sites, le Centre Hospitalier de Dax-Côte d’argent a toujours été un précurseur en matière d’informatisation. Il y a 20 ans déjà, l’établissement a mis en place la solution « Plus », initialement développée en interne avant d’être commercialisée depuis 2008 par l’éditeur Mediane SAS. Cette solution de gestion des dossiers Patient en ligne a porté au début prioritairement sur le programme de médicalisation des systèmes d’information (PMSI) et notamment la partie MCO (Médecine, Chirurgie, Gynécologie-Obstétrique). Mais, très vite, le champ fonctionnel de Médiane PLUS cible d’autres fonctions relatives à la prise en charge globale des patients, parmi lesquelles aujourd’hui le bloc opératoire, l’activité urgences, la gestion des rendez-vous, le circuit du médicament et le dossier de soins.« Le dossier Patient est bien sûr au cœur de nos préoccupation. Mais un hôpital s’apparente à un paquebot », souligne Gilbert Martin, responsable des systèmes d’information et d’organisation (RSIO). « Derrière notre mission principale qui consiste à fournir des soins médicaux, se cachent 150 métiers divers comme la restauration, la blanchisserie, les RH, la gestion de la paie, la comptabilité, la GTT, la facturation, etc. Ce sont autant de progiciels et d’applications dédiés à gérer et qui nécessitent un système musclé ».A ce jour, 450 000 dossiers patients sont en ligne et plusieurs millions de documents produits en interne depuis 1990 sont accessibles en temps réel. L’équipe informatique du centre hospitalier de Dax, composée de 10 personnes, œuvre sans cesse pour améliorer le système d’information et assurer la continuité des activités.

Le CH optte pour la virtualisation du stockage
En 2006, outre l’augmentation exponentielle des volumes de données, la DSI se trouve devant une problématique bien spécifique. A cette époque, la direction du CH de Dax a décidé de transformer tout un bâtiment, dans lequel se trouve notamment la salle blanche centrale, en unité de soins. La DSI est donc contrainte de déménager sa salle informatique centrale dans un nouveau bâtiment, à l’autre bout du site hospitalier. Pendant le déménagement, elle doit assurer une disponibilité maximale des applications et des données. Les centres hospitaliers, privés ou publics, ont comme obligation de garantir l’accès aux informations, et au dossier patient en particulier, quasiment 24/7. « La tolérance de panne est proche de zéro », explique Gilbert Martin. « C’était l’occasion pour nous de revoir l’ensemble de notre infrastructure. Celle-ci est une partie invisible du SI, mais qui n’en n’est pas moins cruciale pour assurer les performances indispensables à la mise en œuvre de projets d’ampleur. », Si la virtualisation des serveurs sous VMware ESX (de 30 serveurs d’applications physiques en 2003, on est passé à 14 machines virtuelles en 2007 puis 24 en 2010, le tout sur 6 méta-serveurs physiques) et le déploiement de clients légers Citrix (près de 700 sur 900 postes de travail) lui avait déjà permis la consolidation de son parc informatique et la réduction des coûts d’exploitation, de maintenance et de support inhérents, la DSI ressent le besoin de mettre en place un SI sécurisé et hautement disponible à la fois, avec un plan de continuité de services à la clé.  Le déménagement prévu pour 2007 ne fait qu’accentuer ce besoin et accélérer le projet.Un appel d’offres est lancé en mai 2006. Le marché est attribué deux mois plus tard à APX Synstar (aujourd’hui APX Groupe), intégrateur déjà connu par le centre hospitalier dans le cadre du projet clients légers et remplacement des imprimantes en attachement parallèle (pour des LANs) que le prestataire avait remporté en 2005. Pour répondre à la problématique de Haute Disponibilité et la mise en place d’un PCA (Plan de Continuité d’Activité), APX préconise de s’appuyer sur la virtualisation du stockage, avec la solution DataCore SANsymphony. Cette solution, 100% logicielle et complètement ouverte, permet de s’affranchir totalement de l’infrastructure en place, tant au niveau du matériel, des logiciels que du réseau. De cette manière, la DSI peut mettre en place un SAN (Storage Area Network), complètement redondant, en reprenant l’ancienne baie de stockage IBM Fast T600, répliquée avec SANsymphony en mode synchrone vers une nouvelle baie de son choix. En temps normal, les deux baies vont fonctionner en mode actif/actif. Pendant le déménagement, la DSI va pouvoir débrancher l’une des baies et la transférer dans le nouveau bâtiment, pendant que l’autre prend le relais grâce à l’option Fail-over/Fail-back de DataCore. Après le transfert et la remise en production de la seconde baie, le (re)basculement et l’équilibrage de la charge se fait automatiquement. Ce processus, complètement transparent pour les utilisateurs, élimine le besoin d’une migration fastidieuse et hasardeuse, et assure la disponibilité des données à tout moment.

Deux SAN reliés par fibre optique
Le SI du Centre Hospitalier de Dax est désormais réparti sur 2 salles blanches, dans deux bâtiments distincts, distantes de 250 m. Chaque salle est désormais équipée de : -un SAN composé  d’un contrôleur DataCore SANsymphony (rachat de deux servers biprocesseur, bi-cœur IBM 3650) et d’une baie de stockage (reprise de la baie IBM Fast T600 existante et rachat d’une nouvelle baie IBM DS4700) :
  • 2 serveurs VMware clustérisés (VMware ESX4.0, Vsphere, Vmotion) (reprise des serveurs IBM 3650 existants) ;
  • 2 switches Brocade ;
  • un serveur IBM hébergeant la solution de sauvegarde Atempo Time Navigator couplé à une librairie de sauvegarde sur une baie de disques SATA et sur bandes IBM LTO4 .
Les deux SAN, reliés par une nouvelle fibre optique (10 Go), fonctionnent en mode de réplication synchrone (actif/actif) grâce à la technologie DataCore SANsymphony. L’option Thin Provisionning de DataCore assure l’allocation dynamique et optimisée des capacités de stockages en environnement hétérogène. Quant à l’option Auto Fail-Over et Fail-Back de DataCore, elle garantit un basculement automatique d’un SAN vers l’autre en cas d’interruption impromptue ou planifiée, comme par exemple dans le cadre d’une maintenance ou encore d’un déménagement à l’instar du CH de Dax. Au retour à la normale, le système bascule et le rééquilibrage des charges se fait automatiquement, sans intervention humaine. Deux personnes de la DSIO du CH de Dax ont été formées sur la solution et ont participé au déploiement fait par 2 représentants d’APX, qui assure également la maintenance. « La migration s’est déroulée en douceur, sans problème, étape par étape, sur une période d’environ 3 mois. Cela aurait pu se faire beaucoup plus vite je pense. Cependant, dans notre cas, nous préférions prendre notre temps et ainsi éviter de lourdes interruptions de services. Tout s’est fait avec beaucoup de précaution, vu le contexte de la migration de notre SI complet et une activité critique 24/7 », explique Gilbert Martin. « Avant le déménagement, nous avons d’abord installé les contrôleurs DataCore, ce qui nous a permis de mettre notre ancienne et notre nouvelle baie en miroir. Nous avons ensuite répliqué une machine après l’autre sur la nouvelle baie. Cette opération a duré entre 3 et 4 semaines. Mais la configuration était différente dans le sens où nous étions déjà sur des machines virtuelles. L’opération la plus lente concernait la migration de nos serveurs de fichier – la sauvegarde de ce type de machine s’avère toujours plus longue. Une fois la migration des serveurs terminée, nous avons transféré l’une, puis l’autre baie dans le nouveau bâtiment. Pendant ce temps, nos serveurs continuaient de tourner ». Selon Gilbert Martin, «  le bilan global est très positif. Avec un retour sur expérience de près de trois ans maintenant, le plus grand défi résidait dans la préparation du personnel aux changements. Si la virtualisation des serveurs sous VMware et la mise en place de clients légers Citrix nous ont permis de réduire notre parc de clients lourds au profit des clients légers et notre coût d’exploitation, la solution de virtualisation du stockage SANsymphony de DataCore nous a apporté la Haute Disponibilité et la continuité de service de notre SI, et en particulier pendant la phase cruciale de notre déménagement. De plus, avec DataCore, nous disposons désormais d’un système complètement ouvert, indépendant et évolutif, ce qui nous a permis de tirer parti de nos investissements antérieurs et d’anticiper nos besoins futurs. Actuellement, nous gérons un total de 10 To de volumes de données (5 To par SAN). Cela nous laisse encore environ 30% de marge, mais nous prévoyons une croissance importante en 2011 avec la consolidation de nos différents systèmes d’imagerie. L’étude pour la mise en place d’un PACS (Picture Archiving and Communication System), qui s’y rattachera, est en cours ».

Traçabilité des flux logistiques : l’exemple de Coexpan France

Depuis près de 25 ans, Coexpan France est spécialisé dans la fabrication et la commercialisation de feuilles de matière plastique et leader dans l’emballage primaire de yogourts. La société fait partie du Groupe Coexpan Net, l’un des principaux opérateurs mondiaux du secteur de l’emballage plastique et flexible, destiné au secteur alimentaire. Le groupe, d’origine espagnole qui dispose de 13 usines implantées dans les pays de deux continents, compte parmi ses clients de grands groupes internationaux tels que Danone, Campina, Müller, Nestlé, Parmalat, Yoplait, .etc. Implantée à Beaucouzé, près d’Angers, l’usine de Coexpan France emploie 80 personnes et produit environ 35.000 t d’emballages par an. Les feuilles de matière plastique sont vendues à la tonne et conditionnées sous la forme de bobines. En fin de production, chaque bobine est pesée et étiquetée par un opérateur de production puis stockée dans la plate-forme logistique. Une structure qui expédie en moyenne 1.250 palettes de bobines par semaine. Coexpan France reçoit également en moyenne 150 palettes par semaine en provenance des autres filiales du groupe. Lors de l’expédition des produits, le service Administration des Ventes (ADV) édite un bon de préparation de commande. Le responsable transport sélectionne le transporteur adéquat, puis l’information est transmise à la plate-forme logistique pour le chargement des camions. La gestion des stocks, des réceptions et des expéditions a longtemps été effectuée manuellement et à l’aide de fichiers Excel. Afin d’accompagner la hausse de son activité, Coexpan France a décidé de mettre en place un outil de gestion des stocks et des expéditions automatisé et fiable :  » Lorsque les quantités produites ont commencé à croître, il est devenu très difficile de travailler efficacement et rapidement avec des fichiers Excel « , indique Benoit Fraud, responsable logistique chez Coexpan France.Pour répondre aux besoins de Coexpan, Nomadvance, partenaire de Honeywell, a mis en place la solution logicielle de gestion d’entrepôt Stock-Util, des terminaux durcis Honeywell Dolphin 9551 et Dolphin 9900, des imprimantes code-barres ainsi qu’une infrastructure Wi-Fi. La solution Stock-Util est notamment utilisée pour l’identification de production, le stockage des produits ainsi que pour la gestion des préparations de commande et des expéditions.

Identification et gestion des mouvements de stock
Le processus débute en production lorsque le responsable de production entre un ordre de fabrication pour un article donné dans l’interface PC de Stock-Util. A sa sortie de production, la bobine de feuille est pesée sur une balance industrielle qui renseigne automatiquement le poids de l’article dans le logiciel. Une étiquette code-barre, avec la description de l’article, le code article, le poids, la longueur et le nom du client, est imprimée puis collée sur chaque bobine. La bobine est ensuite placée sur une palette et emballée, une nouvelle étiquette code-barres est imprimée et apposée sur la palette. Chaque palette peut contenir une ou plusieurs bobines d’une même référence. Le magasinier scanne avec son terminal Honeywell l’étiquette de la palette pour renseigner l’emplacement de la palette dans l’entrepôt. L’étiquette code à barres permet d’identifier et de suivre en temps réel les différents mouvements de la palette jusqu’à son expédition. Tous les déplacements, les sorties ou transferts de palettes entre les filiales de différents pays sont ainsi tracés et suivis par le logiciel Stock-Util.Par ailleurs, Coexpan France a sélectionné les terminaux Dolphin 9551 et Dolphin 9900 qui intègrent les technologies de collecte de données, de communication et de géolocalisation les plus récentes : fonctions de communication vocale et de données, navigation GPS ainsi que la technologie Imageur Adaptus avancée pour la lecture des codes à barres et la lecture d’images.

Préparation de commande et expédition 
Le processus de préparation de commande et des expéditions débute avec la création d’un bon de préparation de commande sur Stock-Util par le service d’administration des ventes (ADV). Pour chaque commande reçue, le service ADV a accès, via l’interface Stock-Util, aux données sur les produits en stock et peut ainsi préparer le bon de préparation de commande. Ensuite, ce bon passe par le responsable transport qui affecte le transporteur adéquat à la commande préparée. Pour finir, ces données sont envoyées via le réseau Wi-Fi sur les PDA et le PC de la plate-forme logistique. Le magasinier a accès sur son PDA à un listing de bon de préparation avec toutes les informations nécessaires pour préparer sa commande. Il scanne les étiquettes de chaque palette chargée. Une fois cela terminé, une liste de colisage et un bon de transport sont imprimés et le camion du transporteur chargé. Stock-Util fournit également des statistiques concernant la production, les états des stocks et les transferts de produits opérés entre les différentes entités de Coexpan.

Fiabilisation des données, hausse de la productivité et visibilité en temps réel
 » Le temps gagné, grâce à cette solution, s’est très rapidement fait sentir et ce, à tous les niveaux de l’entreprise, déclare Benoit Fraud, Responsable Logistique. Auparavant, l’édition d’une liste de colisage prenait de 15 à 90 minutes en fonction du nombre de palettes expédiées. Maintenant, c’est l’affaire de quelques secondes. Avant, en production, chaque opérateur de production notait à la main, le poids et les différentes références de chaque bobine produite, ces informations étaient ensuite ressaisies au niveau de la logistique avec son lot d’erreurs et de temps perdu. Aujourd’hui, toutes les informations sont transmises automatiquement et sans erreur. « Au vu de ces résultats positifs, Coexpan a choisi Nomadvance pour déployer une solution similaire pour la deuxième usine française de Coexpan, FSP spécialisée dans la production de feuilles barrière. Par Marc Chabreuil

Un carter d’huile géant en polyamide pour véhicules hors route

MTU Friedrichshafen, filiale de Tognum, fabrique des moteurs dont les cylindrées vont de 10,5 à 21 litres pour une puissance de 270 à 730 kW. Leur  production en grande série a débuté à l’automne 2009 avec la version V12 destinée à des générateurs de secours et à courant constant. Dans un second temps, ces moteurs équiperont des engins agricoles, industriels et de chantier tels que des moissonneuses-batteuses, des broyeurs et des grues.Pour le secteur dit « hors route », l’industriel a fait le pari de doter ses moteurs de la série 1.600 d’un carter d’huile en polyamide Ultramid A3HG7 Q17 (PA 66) de BASF développés et fabriqués en petite série par Hummel Formen GmbH à Lenningen (Allemagne). Quatre exemplaires ont déjà été produits. Il s’agit des plus gros carters d’huile en polyamide jamais produits à ce jour. En se substituant à leurs classiques homologues en fonte d’aluminium coulée sous pression dans ce type d’application, ils génèrent un gain de poids est de l’ordre de 40 à 50 %. Pour satisfaire au strict cahier des charges, la résine doit non seulement posséder une bonne aptitude à l’écoulement, mais supporter en outre un contact de 24.000 heures dans diverses huiles à 120 °C. De plus, comme il arrive que le moteur soit posé sur le carter d’huile, le matériau doit impérativement offrir une rigidité suffisante tout en étant capable d’absorber les chocs et les vibrations. La réussite de la mise au point repose notamment sur le logiciel de simulation universel Ultrasim de BASF qui a permis aux spécialistes d’étudier directement par ordinateur la pression d’éclatement statique ainsi que la montée en température du carter sous tension, mais aussi le remplissage, le gauchissement, le fluage, la fréquence propre et les analyses modales. Parallèlement, la pièce a été soumise à des essais physiques. Les essais effectués sur le pot vibrant de BASF ont prouvé que la résine était capable de satisfaire aux critères extrêmement sévères de tenue au vieillissement dans l’huile. En effet, 1.000.000 de chocs dans chaque direction spatiale et sous différentes accélérations, tout cela en contact avec de d’huile chaude, n’ont pas altéré les carters d’huile ni provoqué de fuites. Selon la variante des trois moteurs en V à laquelle se destine le carter d’huile (V8, V10 ou V12), il suffit de changer les inserts pour transformer rapidement le moule polyvalent de Hummel Formen. Ces pièces de MTU marquent une nouvelle avancée dans l’histoire des carters d’huile en matière plastique Ultramid. Elles avaient été précédés en 2003 par le premier carter d’huile de camion en polyamide du Mercedes Actros BR 500, puis par le carter d’huile des moteurs Avalon de Cummins et celui du Ford Scorpio en 2009.Marc Chabreuil

Solar Decathlon Europe 2010 : 2 équipes françaises en lice

Compétition universitaire biennale internationale organisée depuis 2002 par le Département de l’Energie des Etats-Unis, le Solar Decathlon a pour objectif de développer la transmission des savoirs et de la recherche dans le domaine des énergies renouvelables et notamment de l’énergie solaire. Le principe est de faire concevoir et réaliser par une équipe d’étudiants architectes et ingénieurs encadrée par des enseignants et des chercheurs d’universités du monde entier, un prototype d’habitat passif avec le soleil pour seule source d’énergie. La première version européenne de ce concours aura lieu à Madrid du 18 au 27 juin. Comme son nom l’indique, le Solar Decathlon est une compétition où les concurrents seront notés suivant 10 critères, notamment  » Innovation  » et  » Développement durable  » qui n’existaient pas dans la version américaine. Chacun des vingt prototypes dont 2 français formeront un village solaire relié en réseau et sous monitoring constant pendant les 10 jours de la compétition. A partir de données objectives, mais aussi subjectives, un comité d’experts jugera leurs qualités architecturales, leurs performances solaires, leur pertinence sociale et notera le confort offert. Chaque projet doit respecter un ensemble de règles très précises. Ainsi, les dimensions et la forme du terrain sont imposées, la surface maximum ne doit pas excéder 74 m2, la surface habitable doit être de 42 m2 au minimum, la température intérieure doit être maintenue entre 22 et 24°C, l’humidité entre 40 et 55 %, et enfin le sol ne peut être ni creusé ni planté.

Armadillo Box : le concept Core-Skin-Shell

Le projet de l’Armadillo Box est porté par l’équipe  » Architecture et Cultures Constructives  » de l’Ecole Nationale Supérieure d’Architecture de Grenoble (ENSAG), en partenariat avec l’Institut de l’Energie Solaire (INES) et les Grands Ateliers de l’Isle d’Abeau (GAIA). En plus de créer un habitat écologiquement responsable, les étudiants de l’ENSAG se sont imposés des contraintes financières, dans le but de créer un projet non seulement autonome, mais aussi accessible financièrement à la majorité de la population et adapté au marché français. Par ailleurs, le prototype devant être construit en cinq jours, il est primordial de favoriser une architecture simple et légère. Le concept moteur de l’Armadillo Box est celui de la décomposition  » core-skin-shell  » qui permet le mariage de hautes technologies industrielles avec des systèmes constructifs simples et économiques :

  • Core : un noyau technique préfabriqué comprenant la cuisine, la salle de bain, la machinerie et les systèmes de connexion aux fluides. Il peut être produit industriellement et amené sur le chantier prêt à monter ;
  • Skin : une enveloppe thermique étanche à l’eau et à l’air constitue la partie Low tech et Low cost du projet. Elle est réalisée avec des matériaux naturels, locaux, économiques et faciles à mettre en œuvre : bois sous toutes ses formes (massif, laine, fibres, panneaux industrialisés), terre, acier démontable et recyclable, toile en fibres de verre précontrainte enduite de PVC… Elle peut être réalisée par une main d’œuvre peu qualifiée et peut intégrer une part d’auto-construction assistée par des professionnels ;
  • Shell : un bouclier solaire, protecteur et capteur d’énergie, constitue l’élément High tech du projet. Il protège l’enveloppe thermique des aléas climatiques et capte l’énergie du soleil. Il est constitué d’éléments industriels de haute technologie qui sont installés par des spécialistes.

La maison est pensée pour pouvoir être reproduite facilement à un coût accessible au plus grand nombre : le noyau technique est conçu pour être préfabriqué et industrialisé ; l’enveloppe thermique peut au contraire être réalisée en auto-construction. Sa conception se prête par ailleurs à la réalisation de maison en bandes, ou d’immeubles collectifs dont elle constituerait l’unité d’habitation élémentaire.

Une stratégie passive et active

Pour maintenir une température constante entre 22 et 24°C, il est d’abord nécessaire de posséder une bonne isolation. Armadillo Box utilise une enveloppe étanche à l’air, sans pont thermique et fortement isolée par une vingtaine de centimètres de laine de bois. En hiver, l’important est de conserver la chaleur à l’intérieur et d’exploiter au maximum les apports thermiques dégagés durant la journée – notamment ceux en provenance du soleil – pour en profiter la nuit. C’est là qu’entre en jeu l’inertie de l’enveloppe thermique. En partie composée de terre, elle permet d’accumuler de l’énergie pour ensuite la rediffuser avec un certain déphasage horaire. Durant cette saison, les toiles protectrices du bouclier protecteur sont relevées, pour permettre aux murs de capter le plus possible de chaleur. Le bouclier se referme ensuite la nuit, pour conserver cette chaleur à l’intérieur et permettre à l’enveloppe de la diffuser.En été, c’est exactement l’inverse qu’il faut rechercher. En effet, l’important est de ne pas laisser entrer la chaleur et d’essayer de conserver la fraîcheur de la nuit pour ensuite l’exploiter durant la journée. Au coucher du soleil, les toiles protectrices seront donc relevées, et le bouclier protecteur sera totalement clos durant la journée afin de procurer de l’ombre à la masse des murs de l’enveloppe qui joue un rôle d’accumulateur tampon et qui relâche la chaleur accumulée le jour grâce à une très bonne ventilation nocturne.En fonctionnant uniquement avec ces stratégies passives, Armadillo Box nécessite déjà très peu d’énergie pour fonctionner, puisque ses besoins sont évalués à 32,8 kW.h/m2/an (chauffage, eau chaude, ventilation) soit 1873 kW sur l’année.Stratégies actives : pour répondre au cahier des charges du Solar Decathlon, c’est-à-dire obtenir un habitat positif en énergie, les dispositions passives ne suffisent pas. Il faut donc développer des stratégies actives qui permettent de compenser les besoins, et si possible, produire un surplus d’énergie à insuffler dans le réseau du village solaire.Armadillo Box possède une large surface de panneaux solaires, placés sur son toit, qui permettent l’approvisionnement en électricité de toute l’habitation, le fonctionnement d’un four, de 3 plaques de cuissons, d’un frigo, d’une machine à laver et sécher le linge, d’équipement HI-FI et multimédia (TV et PC). Les panneaux photovoltaïques produisent également assez d’électricité pour l’éclairage, la production de 40 % de l’eau chaude sanitaire. Quelques 3 m2 de panneaux thermiques assurent la production des 60 % d’eau sanitaire restant. Une machine compacte de type   » 3 en 1 « , installée dans le noyau technique, prend en charge la ventilation double flux, la pompe à chaleur d’air repris, le chauffage et le rafraîchissement sur l’air entrant, l’eau chaude des sanitaires, et la connexion solaire thermique.Le problème majeur des panneaux solaires photovoltaïques (PV) réside dans le fait que seulement 15 % de l’énergie captée est transformée en électricité, le reste étant rediffusé sous forme de chaleur (qui peut provoquer une montée de la température jusqu’à 80°C en été, en sous-face des panneaux). Cette montée en température provoque une chute notable de la productivité des panneaux. Dans un souci de régulation thermique et de préservation des performances des PV, il est donc nécessaire de remédier à cet inconvénient par des dispositions spatiales. Le bouclier high tech est surélevé par rapport au toit de l’enveloppe afin d’assurer une très bonne ventilation de l’arrière des panneaux. Ceci permet d’évacuer la chaleur produite et de maintenir une température de fonctionnement optimale des panneaux en fonction des conditions climatiques. Un système de brumisateur est prévu pour rafraîchir le comble de la surtoiture.  En octobre 2008, lors du dépôt de candidature, l’équipe d’Armadillo Box était la seule à décliner un projet qui associe habitat et transport et qui relève simultanément les défis énergétiques et climatiques. C’est maintenant chose faite sous la forme d’un ensemble de moyens de locomotion (vélo, scooter et voiture électriques, dont la recharge est assurée exclusivement par les modules photovoltaïques placés sur le toit de l’Armadillo Box par Ténésol, filiale du groupe Total, et Photo – watt. En effet, le bilan énergétique du pavillon intègre la consommation d’une voiture électrique qui ferait 14.000 km par an, soit beaucoup plus que la moyenne française.Si les deux roues sont déjà commercialisés, le choix s’est porté sur la C- Zen de Courb. Un prototype léger (500 kg) aux formes innovantes dues au designer industriel Boxer, conçu à partir de matériaux recyclables et doté de batteries lithium-ion. Petite urbaine, elle atteindre 90 km /h, elle affiche une autonomie de 160 km en cycle urbain, soit à 50 km/h et est équipée de technologies de pointe (radar de stationnement, géo-localisation du véhicule, affichage de la pression de pneu, alarme de dépassement de vitesse…). Un second véhicule électrique, la petite urbaine Think city que va bientôt distribuer Mobivia (ex Norauto) via sa filiale O2, sera également présent.

Nápévomó : architecture bioclimatique et high tech

Les instigateurs du projet Nápévomó sont des élèves-ingénieurs de l’école des Arts et Métiers ParisTech de Bordeaux. L’équipe s’est attachée la force de recherche des laboratoires de l’école d’ingénieur Arts et Métiers, du centre de ressources technologiques Ecocampus / Nobatek et du Laboratoire Trefle UMR 8508, spécialisé notamment dans les transferts énergétiques Elle s’est aussi alliée la créativité de l’architecte chilien Gonzalo Rodriguez, et le savoir-faire de quelques entreprises régionales, plutôt des PME, avec des savoir-faire pointus dans leurs domaines respectifs. L’ensemble de la maison est préfabriqué en atelier. Les solutions énergétiques mises en oeuvre dénotent une réflexion technique très avancée et un souci de limitation de l’impact environnemental (autre qu’énergétique et carbonique) : système de production d’énergie solaire par concentration et suivi 1 axe (micro-cogénération) ; système de chauffage-ventilation-rafraîchissement  » 3 en 1  » (VMC double flux thermodynamique) ; système passif de refroidissement d’air à matériaux à changement de phase ; toiture végétalisée légère et auto-irriguée ; système naturel de traitement des eaux usées par lombrifiltration ; système de domotique permettant une interface simple et transparente avec l’utilisateur ; solution complète d’isolation naturelle (fibre de bois et ouate de cellulose) ; construction bois 100 % pin maritime ; électroménager haute performance énergétique et usage de l’eau.  L’équipe s’est fixée comme ambition de remporter l’épreuve  » développement durable « , ce qui transparaît clairement dans les choix techniques. Ce projet  met en exergue plusieurs avancées technologiques :

  • utilisation d’un matériau à changement de phase, composé de paraffines, pour stocker la chaleur du jour et la restituer la nuit. En lissant les pics de température diurne ce matériau favorise ainsi le confort d’été et, couplé à un système de ventilation, il permet une réelle optimisation des échanges thermiques ;
  • production d’énergie solaire optimisée grâce à un capteur hybride innovant : le concentrateur cylindro-parabolique. Ce système de micro-cogénération permet la production simultanée d’électricité et d’eau chaude. Priorité est donnée à l’utilisation directe en chauffage de la production d’eau chaude solaire, une véritable avancée par rapport à l’utilisation actuelle du solaire qui se limite essentiellement à la production d’eau chaude sanitaire. La maison Nápévomó peut fonctionner en  » tout solaire « .

Son architecture bioclimatique est le premier élément de ce concept avec :

  • des ouvertures en lien avec la course du soleil de manière à favoriser la pénétration de la lumière naturelle (ouverture zénithale), et à permettre les gains en chaleur (grandes ouvertures en façade sud) ;
  • une toiture et un mur végétalisés auto-irrigués pour faciliter le rafraîchissement naturel de la maison et favoriser son confort d’été. L’irrigation se fait à partir de la récupération de l’eau de pluie et du recyclage naturel des eaux usées (par un procédé de lombrifiltration).

Bien que la technologie intégrée à Napevomo soit complexe et élaborée, la maison offrira à ses habitants un réel confort de vie grâce à une gestion facilitée par l’introduction de la domotique au quotidien de son utilisation. Pour exemple, la gestion des éclairages et la commande des persiennes sont entièrement automatisées.Par Marc Chabreuil

200.000 cartes de transport rechargeables sur les DAB ou Internet

Autorité organisatrice des transports urbains de l’agglomération strasbourgeoise, la Communauté urbaine de Strasbourg regroupe 28 communes totalisant 458 000 habitants. Le réseau urbain est exploité par la CTS qui compte 5 lignes de tramway et 26 lignes de bus. Une sixième ligne de tramway est en construction, et une ligne de tram-train est en projet. Une douzaine de lignes interurbaines du Réseau 67, organisées par le Département du Bas-Rhin, pénètrent dans l’agglomération strasbourgeoise.  Jusqu’à la fin 2008, la CTS assurait l’exploitation d’une majorité de ces lignes. Elles sont désormais exploitées par la Compagnie des Transports du Bas-Rhin (CTBR), filiale de la CTS et d’autres transporteurs.Dès 1999, la Communauté urbaine et le Département ont, par voie de convention, convenu d’un système billettique commun. Le réseau urbain CTS est équipé du système billettique TIMS (Ticketing management System) depuis septembre 2000 pour la partie magnétique et depuis septembre 2004 pour la partie télébillettique. Conçue par EffiTIC, la solution TIMS équipe les lignes interurbaines desservant l’agglomération depuis septembre 2005. La carte Badgeo sert de support unique pour les abonnements urbains, interurbains et combinés interurbain + urbain. Aujourd’hui, environ 200 000 cartes Badgeo sont en circulation.

Première étape : le rechargement sur les DAB
Dans un premier temps, une extension du projet Système Billettique de Strasbourg, opérationnel depuis janvier 2008, a consisté à mettre en œuvre un serveur de rechargement de badges sans contact (smartcards) permettant l’écriture d’informations à distance et de façon sécurisée. Réalisé en collaboration avec le groupe Crédit Mutuel-CIC, ce projet avait pour objectifs principaux de faciliter l’accès au service en multipliant les points de ventes et en profitant du déploiement de distributeurs automatiques de billets (DAB) existants. Aujourd’hui, ce sont 135 DAB qui sont équipés pour recharger les cartes Badgeo. Lors de cette première phase, EffiTIC a assuré chaque étape du projet : l’étude, le prototypage, la réalisation, la mise en service, la garantie, le support à l’exploitation, les évolutions majeures, et la maintenance du système de rechargement de badges.Ce système est ouvert et peut s’interfacer avec les solutions d’autres opérateurs bancaires et d’autres réseaux de communication capables de gérer des transactions bancaires et de chargement de titres de transport. Par l’utilisation d’un protocole en voie de standardisation, le système peut étendre le service aux téléphones portables et à la vente via Internet.

Deuxième étape : le rechargement sur Internet
Après avoir ajouté les DAB dans la chaîne de vente du système billettique, la CTS décide de déployer ce même dispositif sur Internet. Pour ce faire, la possession d’un périphérique (lecteur de cartes) permettant de communiquer avec la carte de transport est un pré requis. EffiTIC a alors conçu  un serveur internet, dont le rôle est de piloter les équipements lors du processus de vente à distance via le serveur de rechargement déjà en place. Ces briques indépendantes s’interfacent avec le système central billettique TIMS.Depuis septembre 2009, les cartes e-Badgeo peuvent être rechargées via Internet. Dans un premier temps limité au réseau urbain pour les abonnés et l’achat de carnets de tickets, le système permet aux usagers de recharger leur carte, chez eux, via Internet, en toute sécurité. Ce rechargement nécessite un kit d’achat en ligne à brancher sur un port USB et d’une nouvelle carte Badgeo e-service, également à contact et au standard Calypso (type B’). Ce dispositif repose sur le même modèle que le rechargement des cartes sur automate bancaire, transposé à Internet. A ce jour, moins de 6 mois après la mise en place du système, 5% des chargements de forfaits mensuels sont effectués par le serveur de rechargement à distance.

Diaporamas à la Une

DIAPORAMA – L’éruption du volcan islandais Grimsvötn

 

 

DIAPORAMA – Concours Lépine : l’environnement, grand vainqueur 2011

 

 

DIAPORAMA – Solar Impulse fait le tour du cadran 

 

 

 

DIAPORAMA – Power Flower : des arbres éoliens dans les villes

 

DIAPORAMA – Architecture de demain : vers le design vert

 

 

DIAPORAMA – le Phantom Ray, nouveau drone de combat de Boeing

 

 

DIAPORAMA – Salon de l’Automobile de Shanghaï 2011

 

 

DIAPORAMA – Ces prototypes qui nous racontent le monde de demain

Les robots touchés par la vague verte

Le concept de « Green Automation » couvre à la fois des systèmes d’automatisation moins gourmands en énergie et les techniques d’automatisation utilisées pour la fabrication de produits non polluants, économiques en ressources naturelles. Parmi les produits qui bénéficieront de ce label lors du salon Automatica, en juin prochain, le produit vedette sera sans nul doute le robot sur câble IPAnema, mis au point par l’Institut Fraunhofer pour les techniques de production et l’automatisation (IPA) qui devrait jouer à l’avenir un rôle clé lors de l’assemblage de centrales solaires de grande envergure. Parmi ceux-ci, citons le projet du consortium Desertec qui prévoit des installations de production d’énergie solaire en Afrique de Nord. Une telle installation thermique serait composée de plusieurs champs de capteurs solaires dont chaque miroir parabolique couvre une surface supérieure à un kilomètre carré. Mais comment installer des milliers de miroirs paraboliques dans le désert ?

Des robots au service des projets verts…
A ce jour, il n’existe aucune possibilité d’automatisation pour un tel volume et pour la mobilité demandés. Le robot sur câble dont le prototype a été baptisé IPAnema pourrait apporter une solution. Le directeur de l’institut, le Prof. Dr.-Ing. Alexander Verl lui accorde les meilleures chances :  » Le robot sur câble est capable d’effectuer les mêmes tâches qu’une grue et de transporter des éléments de construction de grande dimension. Toutefois, il est  bien plus rapide, plus précis et surtout entièrement automatisable. En raison de sa construction extrêmement légère, il est très mobile et peut couvre un vaste rayon d’action. « vidéoÀ la base de la nouvelle cinématique de ce robot, des câbles entraînés au moyen de plusieurs treuils qui déplacent dans l’espace un plateau, un bras ou tout autre élément. Sur le robot IPAnema qui sera exposé sur le salon Automatica, de 1 à 7 ou 8 treuils actionnés par une commande numérique peuvent entrer en action. Ils ont été conçus pour effectuer des mouvements hautement dynamiques et autorisent des vitesses de déplacement pouvant atteindre 10 m/s ainsi que des accélérations jusqu’à 10 g. Pour ce faire, il est possible de régler avec précision la longueur du câble grâce à un système de mesure absolue intégré au treuil. Le système de commande comprend une commande CNC spécialement conçue pour les robots et fonctionne en parallèle avec une commande par programme enregistré en temps réel. Le rayon d’action du robot dont la charge peut atteindre plusieurs tonnes par câble, peut couvrir une espace de 100 x 100 x 30 m. Pour sa part, la société VMT, appartenant au groupe Pepperl + Fuchs, s’est intéressée à l’énergie éolienne. L’entreprise a développé un système complet de robots sur rail destinés à affûter et à peindre les pales des éoliennes qui peuvent atteindre 70 m de long et qui, jusqu’à présent, étaient nettoyées et peintes à la main. Pour ce faire, VMT a monté 2 robots sur chacun des deux axes linéaires, l’un se chargeant du décapage de la pale au moyen d’un système de jet de sable sous vide, l’autre étant responsable du laquage. Le mesurage en ligne est effectué par deux systèmes de mesure du temps au laser fixés sur le robot de nettoyage. De cette façon, le rail du robot est capable de s’adapter aux torsions et fléchissements de l’aile.

… Mais aussi moins gourmands en énergie
La branche robotique Motoman de la société Yaskawa, s’est elle attachée à réduire les dimensions des robots et les rendre moins gourmands en énergie durant les pauses de production. La réduction de la taille de ces engins de manipulation a pour conséquence des robots plus compacts qui nécessitent une surface au sol plus faible. Les installations de production où le robot à bras coudé commute en mode économie d’énergie pendant les temps morts du processus industriel économisent jusqu’à 30 % d’énergie électrique. Grâce à cette alternance, les installations Motoman économisent de l’argent et contribuent par la même occasion à la protection de l’environnement.Quant au robot parallèle 4 axes Quattro s650H de la société Adept, il a été spécialement conçu pour accomplir des tâches ultra-rapides dans l’industrie de l’emballage et dans l’industrie solaire. En raison de son extrême rapidité et de son faible coût en énergie, ce robot à 4 axes baisse les coûts revenant au propriétaire du processus de production industrielle. Selon les informations communiquées par l’entreprise, il consomme 25 à 35 % moins d’énergie comparé aux autres robots de sa catégorie. Comparé à un robot 6 axes, l’Adept Quattro s650H atteint même des économies d’énergie allant jusqu’à 45 %.Enfin, le fabricant de robots Kuka joue, lui, sur les deux tableaux. Il a non seulement conçu sa production dans le souci du respect de l’environnement, mais il a aussi mis au point systématiquement des produits qui fonctionnent tout en économisant les ressources naturelles. Il a concentré ses efforts sur la consommation d’énergie, la consommation de lubrifiants et la longévité de ses robots. Un indicateur d’efficacité énergétique est le rapport entre le poids propre du robot et sa charge : moins il doit déplacer et transporter de matériaux, moins il doit consommer d’énergie. Le robot 7 axes Kuka LBR est un exemple révélateur de ce principe, puisqu’il affiche un rapport de 2 contre 1 entre le poids propre et la charge. Kuka présentera au salon une commande qui permet de mettre les robots hors tension durant les pauses, à l’image des automobiles dont le moteur se coupe automatiquement à l’arrêt.Par Marc Chabreuil

Une hydraulienne qui prend en compte la maintenance

Les turbines sous-marines ou hydroliennes constituent une solution au problème de la fourniture d’une énergie renouvelable qui soit prévisible, économique et présentant un impact visuel minimal sur l’environnement. C’est le cas de la Rotech Tidal Turbine (RTT) dont un prototype de 1 MW se trouve actuellement dans ses dernières phases de construction et produira suffisamment d’électricité pour alimenter environ 800 foyers. Le système de commande et l’équipement hydraulique ont été assemblés et testés et le générateur synchronisé avec un réseau électrique simulé. L’étape suivante est un essai à vide complet.Turbine bi-axiale à axe horizontal logée dans une tuyère Venturi,  la RTT comprend une cassette centrale amovible contenant le générateur, la pompe hydraulique à cylindrée fixe en ligne, le frein de Wichita (Altra Industrial Motion Inc.) et les moteurs. Une conception qui facilite la maintenance. Afin de maximiser l’efficacité du flux à travers la turbine, le générateur d’électricité est monté à l’extérieur du tube de courant. La pompe hydraulique entraîne le générateur par l’intermédiaire de deux moteurs hydrauliques à plateau oscillant dans un système en boucle fermée. Le frein constitue un élément capital de la conception de la cassette centrale, permettant à celle-ci d’être fabriquée, manipulée et installée en toute sécurité tout en étant séparée du tube environnant et de la fixation au fond marin. Il constitue un mécanisme d’arrêt complet pour empêcher l’arbre central et les aubes de tourner durant la construction, l’installation et la maintenance. Le montage en ligne avec l’arbre impose un diamètre maximum dicté par le moteur de la pompe hydraulique. Une dimension restreinte qui exige du frein qu’il fournisse une force de freinage extrêmement élevée dans un espace limité.

Un frein entièrement dynamique
Le frein assure également une fonction d’arrêt d’urgence et doit être assez puissant pour pouvoir arrêter la turbine en quelques secondes lorsqu’elle fonctionne à pleine vitesse, et ceci, de manière répétée. Il reste actionné quand la puissance hydraulique n’est pas fournie. Il s’agit d’un frein entièrement dynamique qui assure la protection à la fois de l’installation et des personnes qui travaillent autour. Wichita a collaboré étroitement avec l’équipe d’ingénieurs de Rotech afin de créer une solution convenant à ce type d’application. Martin Graham, l’ingénieur chargé du projet déclare : « Le défi auquel nous étions confrontés était de trouver un système de freinage qui puisse supporter les rigueurs uniques de toute une durée de vie en service sous la mer. »  Le produit fourni n’était pas un produit sur stock bien que basé sur une technologie Wichita existante, notamment le modèle T8000 développé pour des solutions similaires. Le modèle de base est un frein à bain d’huile extrêmement compact par rapport à sa puissance de freinage et constitue par conséquent une solution idéale pour le module RTT car il peut être monté en ligne avec l’arbre mais réduire le courant à travers la turbine, maximisant ainsi le rendement générateur de celle-ci. Grâce à des garnitures cellulosiques, combinées à un grand volume d’huile de refroidissement dans le carter, l’unité est en mesure de dissiper environ 13  mégajoules d’énergie de freinage. Le frein est capable de fournir un couple de freinage dépassant un million de Newton-mètres. Un système d’étanchéité innovant a été développé par Rotech spécialement pour cette application afin d’équilibrer la pression d’huile dans l’unité et de s’harmoniser avec la conception de la cassette qui comporte uniquement un joint dynamique sur l’ensemble de l’arbre, y compris le système de palier. 

Tera 100, le supercalculateur le plus puissant d’Europe

Destiné à garantir la fiabilité des armes de la dissuasion nucléaire, le supercalculateur Tera 100 a été mis sous tension fin mai 2010, quelques semaines seulement après le début de son installation en mars. Il est constitué de 4.300 serveurs de type bullx série S, annoncés par Bull en avril dernier et intègre 140.000 cœurs Intel Xeon série 7500, pour 300 To de mémoire centrale. Il  disposera d’une capacité totale de plus de 20 Po de stockage. En outre son débit de 500Go/sec constitue un record du monde pour ce type de système.Tera 100 offre une capacité de calcul exceptionnelle. A titre de comparaison, la machine peut réaliser plus d’opérations en une seconde que ce que la population mondiale ferait en 48 h, à raison de 1 opération/sec/personne. C’est aussi une capacité de transfert d’information équivalente à 1 million de personnes regardant en même temps des films HD ou une capacité de stockage équivalente à plus de 25 milliards de livres. » La mise sous tension de Tera 100 constitue un important succès industriel. Elle valide pleinement le partenariat industrie et recherche que le CEA et Bull ont su développer, partenariat dont les bénéfices iront sans délais à toute la communauté scientifique et industrielle européenne « , déclare Jean Gonnord, chef du projet simulation numérique et informatique du CEA.  Car,  » fondamentales dès aujourd’hui pour des applications comme celles du CEA, ces technologies le sont également pour la conception des centrales numériques du futur et des grands cloud computing. C’est pourquoi la maîtrise des technologies pétaflopiques est un atout majeur pour la France et pour l’Europe,  » souligne Philippe Miltin, Vice‐Président de la Division Produits et Systèmes de BullLe programme Tera 100 associe étroitement Bull et le CEA dans la conception et le développement des nouvelles technologies de l’Extreme Computing. Pour répondre aux besoins du CEA, le supercalculateur se distingue à la fois par sa capacité à exécuter un large spectre d’applications, par un juste équilibre entre puissance de calcul et flux de données, et par sa tolérance aux pannes. Véritable système généraliste de haute productivité, Tera 100 est développé autour de l’architecture et de technologies Bull intégrant une vaste suite de logiciels ouverts, et des plus récents processeurs d’Intel.Bull a notamment apporté son savoir‐faire dans la conception et la production de serveurs haute performance ainsi que pour la réalisation de logiciels nécessaires à l’exploitation de grands systèmes. Le CEA apporte en particulier son expertise en matière de spécifications, d’architecture informatique, de développements logiciels ainsi que sa maîtrise des infrastructures des grands centres de calcul. Plusieurs centaines d’ingénieurs et de chercheurs de très haut niveau sont ainsi mobilisés dans ce projet.Par rapport à Tera 10, mis en production en 2005, Tera 100 est 20 fois plus puissant, occupe le même emplacement au sol et son rendement énergétique est multiplié par 7. Quelques mois après la désignation aux Etats‐Unis de bullx comme meilleur super calculateur au monde, Tera 100 confirme ainsi la maîtrise technologique acquise par Bull et le savoir‐faire du CEA dans les infrastructures complexes pour le Calcul Haute Performance. Le succès de Tera 100 souligne également la position de premier plan acquise dans le Calcul Haute Performance par les architectures à base de composants standards, en particulier celles associant processeurs Intel Xeon, système Linux et logiciels Open Source.

La simulation numérique prédit les défauts des cloches

Implantée dans la Manche à Villedieu-les-Poêles, la fonderie Cornille Havard fabrique des cloches de petite et moyenne taille (jusqu’à 5 t) en alliage de bronze CuSn22. Son savoir-faire repose en partie sur un principe de coulée dit « inversé » conférant aux cloches une meilleure qualité dimensionnelle, métallurgique et acoustique. Le fondeur, qui souhaite élargir son marché à des cloches de très grande taille (10 tonnes), a fait appel au Centre Technique des Industries de la Fonderie (CTIF) pour son expertise et ses moyens de simulation numérique. Objectif : mieux appréhender les conditions de coulée et de solidification, et limiter les risques de non qualité.Pour ce faire, CTIF a procédé à des essais de laboratoire, consolidés par des méthodes numériques, afin de déterminer les propriétés thermo-hydrauliques de l’alliage de bronze CuSn22. Pour affiner et valider la base de données matériau, la Fonderie de Cloches de Cornilles Havard a instrumenté et coulé une cloche de taille moyenne (400 kg) dans les conditions réelles de fabrication. Le moule de cloche a été équipé de 13 thermocouples reliés à une centrale de mesure qui ont permis d’étudier et de mettre en évidence l’évolution des températures et les temps de remplissage, les phases de solidification et de refroidissement de l’alliage ou encore les échanges thermiques entre l’alliage et les différents milieux constituant le moule.

Des fonctionnalités d’autocorrection qui améliorent la précision des résultats
Ensuite, par comparaison avec les relevés de températures, CTIF a calibré la réponse de l’outil de simulation QuikCAST d’ESI Group. Cet outil répond aux besoins de toute fonderie par la modélisation du remplissage de moule, de la solidification du métal et des défauts associés. Le logiciel permet aussi de calculer les tirs de noyaux et l’injection semi-solide qui sont le fruit de projets et de collaborations avec les industriels spécialisés dans le domaine. Il se base sur une méthode aux différences finies avec des fonctionnalités d’autocorrection améliorant ainsi la précision des résultats.Les résultats obtenus ont clairement démontré la validité de la démarche de caractérisation de la coulée de cloches. L’utilisation des outils de simulation permet aujourd’hui d’envisager l’étude des systèmes de remplissage et de masselottage pour la production de cloches de très grande dimension. De futurs travaux sur la prise en compte de la microstructure et des défauts de porosité permettront d’avoir une meilleure connaissance des propriétés mécaniques des cloches et de leur réponse acoustique.Marc CHABREUIL

Le synchrophaseur, la nouvelle arme du smart grid

Source : http://www.bulletins-electroniques.com/actualites/63472.htm

99.7% du temps le réseau de transmission fonctionne parfaitement et l’électricité est délivrée selon les besoins. Mais que se passe-t-il pour les 0.,3% du temps restant lorsque le réseau tombe en panne ? Les coupures et fluctuations de courant aux USA coûtent 150 milliards de dollars chaque année, dont 33% sont dus aux coupures totales, et 66% aux interruptions momentanées [1]. Depuis 40 ans, cinq grands black-outs ont eu lieu et parmi eux, trois se sont passés dans la dernière décennie. Cette recrudescence s’explique par une demande grandissante. Depuis 1982 le pic de demande a toujours excédé de 25% l’augmentation des capacités de transmission. De plus on s’attend à ce que cette demande en électricité double dans les 20 prochaines années. Dans ces conditions de stress habituel sur les lignes de courant, il devient essentiel de maîtriser et d’optimiser au maximum les flux sur le réseau. Mais comment y parvenir lorsqu’on sait que le réseau électrique est âgé de plus de 50 ans ?

Cartographier le comportement des lignes de transmission et le réseau de distribution en temps réel

Une des solutions pour rendre le réseau plus fiable est l’ajout de synchrophaseurs appelés également Phase measurement units (PMU) [2]. Placés à l’intersection des lignes de transmissions et sur une partie du réseau de distribution, les PMU permettent de mesurer la phase du courant 30 fois par seconde, soit une fréquence 120 fois supérieure aux systèmes actuels. A l’aide d’un système GPS, les informations récoltées sont alors comparées entre elles, permettant de tracer une carte en temps réel des phases du réseau électrique. Grâce à ces données, il est possible d’estimer le stress sur le réseau et de synchroniser les lignes de transmissions entre elles. Ce système devrait également permettre d’estimer les risques de panne et d’éviter les coupures de courant à grande échelle, de parvenir à une meilleure optimisation des lignes de transmission, de faciliter l’intégration des sources d’énergie intermittentes et enfin, d’améliorer la sécurité sur le réseau.

Un programme soutenu par les institutions fédérales

Afin d’accélérer et de cadrer le déploiement des synchrophaseurs, la North american synchrophasor initiative (NASPI) [3] a été mise en place. La NASPI est une collaboration entre le US department of energy (DoE), la North american electric reliability corporation (NERC) ainsi que plusieurs distributeurs, centres de recherche et industriels. Grâce à la NASPI plusieurs projets ont pu voir le jour. Le DoE a ainsi attribué une bourse de 53,9 millions de dollars pour lancer le Western interconnection synchrophasor program. Neuf autres partenaires ont également investi dans le projet, rassemblant un total de 107,8 millions de dollars. Le programme, mené par le Western electricity coordinating council (WECC) qui gère la sécurité et la robustesse du réseau électrique pour 11 états de l’Ouest, devrait permettre d’économiser près de 2 milliards de dollars dans les 40 prochaines années, selon les prévisions. Depuis son lancement 137 PMU ont été installés [4].

Un déploiement encore à ses débuts

A l’heure actuelle, grâce aux PMU installés, les distributeurs sont parvenus à améliorer la compréhension et le contrôle en temps réel de l’état du réseau. Cependant seul le distributeur Southern California Edison a mis en place un véritable système opératoire automatisé. Par ailleurs, il est bon de noter que la Chine reste le meneur dans cette industrie avec plus de 1.000 unités déjà déployées. Pour comparaison les USA disposent actuellement de seulement 250 unités. [5]

 

Source : BE Etats-Unis numéro 209 (28/05/2010) – Ambassade de France aux Etats-Unis / ADIT –  http://www.bulletins-electroniques.com/actualites/63472.htm

– [1] Understanding the Cost of Power Interruptions to U.S. Electricity Consumers, KH LaCommare and J.H. Eto, technical report LBNL-55718, September 2004
– [2] Phase Measurement Unit sur Wikipedia : http://en.wikipedia.org/wiki/Phasor_measurement_unit
– [3] Site officiel de la NASPI : http://www.naspi.org/
– [4] Une carte des PMU installés dans la Western Interconnection est disponible à l’adresse 
– [5] Une carte des PMU installés sur l’ensemble du territoire américain est accessible à cette adresse 

&l

Premier bâtiment administratif passif de France

Le secteur du bâtiment est responsable de 42 % des consommations d’énergie et de 20 % des émissions de gaz à effet de serre en France. Le Conseil Général des Vosges, ayant à gérer un parc immobilier de près de 500.000 m², a décidé de s’investir afin de réduire sa facture énergétique et de participer à la préservation de l’environnement. Ainsi il vient de prendre livraison d’un bâtiment passif, le premier du genre pour une administration en France.Pouvant accueillir 60 personnes sur une superficie de 1.659 m², le bâtiment situé à Epinal consommera seulement 15 kWh/m²/an en chauffage, soit 1,5 l de mazout. Ainsi la consommation a été divisée par 10 par rapport aux bâtiments existants dont la consommation moyenne avoisine les 200 kWh/m²/an. Sa consommation énergétique totale sera inférieure à 65 kWh/m²/an. Tout a été pensé pour réduire au maximum la consommation en énergie du bâtiment. Ce dernier est sur-isolé par rapport aux bâtiments traditionnels : les murs comprennent 30 cm d’isolant contre une dizaine pour un bâtiment respectant la réglementation en vigueur. Le sol du bâtiment est lui aussi isolé par 20 cm de polystyrène. Les vitrages ont une résistance thermique deux fois supérieure à celle d’un double vitrage classique. A cela s’ajoute un puits canadien relié à une centrale de traitement de l’air double flux (VMC) ce qui permet un renouvellement d’air optimal, été comme hiver. Aucune climatisation (grande consommatrice d’énergie) n’a été installée dans ce bâtiment. Les besoins en fraîcheur se font en utilisant l’eau de la nappe phréatique. Cette eau est prélevée à quelques mètres de profondeur, puis passe dans un ballon échangeur de chaleur et est ensuite réinjectée dans la nappe.Lauréat du projet PREBAT (Programme de Recherche et d’Expérimentation sur l’Energie dans les Bâtiments), ce bâtiment permettra à l’Ademe, grâce à des compteurs installés dans le bâtiment, de vérifier l’exactitude des calculs et de les confronter à la réalité. Car souvent des chiffres sont avancés dans les communiqués et autres présentations de projet sans pouvoir en vérifier la véracité. Ce sont les scientifiques du CETE Est (Centre d’Etudes Techniques de l’Equipement, un service extérieur du Ministère de l’écologie), qui ont en charge de récolter les données et pourront ainsi valider les techniques utilisées pour la construction de ce bâtiment et établir les nouvelles normes énergétiques du futur.Par Marc Chabreuil

Amplifier les impulsions térahertz grâce à la commutation de gain

Le térahertz est une partie du spectre pauvre en sources et détecteurs, notamment à des puissances élevées. C’est pourquoi des physiciens du laboratoire Pierre Aigrain de l’ENS, en collaboration avec le laboratoire Matériaux et phénomènes quantiques et l’université de Leeds ont mené des recherches pour mettre au point un amplificateur.  « Pour créer un amplificateur, on peut songer à utiliser les lasers à cascade quantique térahertz, qui présentent un gain important à ces fréquences. Cependant, le gain obtenu est toujours limité, bloqué au niveau des pertes de la cavité laser », explique Jérôme Tignon, enseignant-chercheur, qui a dirigé le projet avec le chercheur Sukhdeep Dhillon. Lorsqu’un laser fonctionne en régime stationnaire, il n’est pas possible de tirer profit de tout le gain disponible pour une amplification optimale. Or, contrairement à ce qui peut se faire en optique, il est très difficile de réaliser dans le domaine térahertz des traitements antireflets de qualité pour éliminer les réflexions dans la cavité et supprimer les oscillations laser.« Le phénomène de blocage du gain n’intervient qu’en régime stationnaire, poursuit-il. Nous avons donc eu l’idée d’utiliser un commutateur très rapide pour déclencher le laser. » Le commutateur est ouvert une picoseconde avant l’arrivée de l’impulsion térahertz que l’on souhaite amplifier. Si la synchronisation est bien réalisée, l’oscillation laser n’a pas le temps de s’établir avant l’arrivée de l’impulsion et l’énergie stockée sert intégralement à amplifier le signal. Dans la pratique, l’impulsion effectue quelques allers-retours dans la cavité laser (par réflexion sur les miroirs), ce qui augmente d’autant le gain de l’amplification et a permis d’obtenir un facteur 400 après 7 passages.

© D. Darson, ENS
Spintronique, imagerie et étude des supraconducteurs
« D’un point de vue fondamental, c’est un résultat très intéressant, commente le chercheur. La commutation de gain était connue, mais dans un autre contexte. Dans la pratique, cela permet de disposer d’impulsions térahertz amplifiées pour une utilisation en laboratoire et éventuellement des dispositifs à venir. » Pour le laboratoire, ces résultats permettent de mieux comprendre le laser à cascade quantique et de continuer à améliorer ces dispositifs. Dans le cadre de projets térahertz, les chercheurs pourront profiter de cet amplificateur en spintronique, en imagerie ou encore pour l’étude des supraconducteurs ou des composés chimiques. « Cela servira aussi à d’autres chercheurs, mais l’amplificateur ne peut pour l’instant pas sortir du laboratoire car il doit être employé à basse température », précise-t-il. Cet amplificateur constitue une avancée importante dans le domaine du térahertz. Un autre groupe de chercheurs avait tenté d’obtenir un résultat semblable, en modifiant la cavité du laser, mais l’amplification n’était pas importante et le mode d’émission était affecté. « La plus grande difficulté a été de trouver l’idée et les bonnes conditions pour sa mise en pratique. C’est un travail d’équipe, avec des collaborations efficaces », insiste Jérôme Tignon. « D’un point de vue technique, il faut envoyer une impulsion térahertz dans le guide laser, c’est une manipulation délicate. Il faut aussi réussir à synchroniser le commutateur ultra rapide. » CGLes labo impliqués   – Laboratoire Pierre Aigrain, UMR 8551 :
  • ENS Paris
  • CNRS
  • UPMC
  • Université Paris Diderot
– Laboratoire Matériaux et phénomènes quantiques, UMR 7162 :
  • Université Paris Diderot
  • CNRS
  • School of Electronic and Electrical Engineering, University of Leeds, Leeds, UK
En savoir plus : www.cnrs.fr
   

Sommaire cahier térahertz
A la Une :
  • « Nous n’avons pas encore trouvé la killer application »
  • « Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »
Comprendre :
  • Le térahertz décrypté
  • Sources et détecteurs aux fréquences térahertz
Dans les labos :
  • Amplifier les impulsions térahertz grâce à la commutation de gain
  • Dotfive, objectif 0.5 térahertz

« Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »

Chargé de recherche CNRS au laboratoire d’optique et biosciences de l’Ecole Polytechnique, Guilhem Gallot développe de nouveaux outils pour étudier les systèmes biologiques grâce au rayonnement térahertz. Responsable du réseau Téranaute, c’est un observateur privilégié d’un secteur en pleine évolution. 

Techniques de l’ingénieur : Pourquoi s’intéresse-t-on au térahertz en ce moment ?
Guilhem Gallot : On a progressé technologiquement et on commence donc à disposer de sources et de détecteurs. Techniquement, cela a été très difficile. Les techniques des micro-ondes et des hyperfréquences donnent des rendements très mauvais dans cette gamme de fréquences et l’optique ne fonctionne pas. Depuis une quinzaine d’années, des outils ont émergé, mais ils restent encore principalement destinés aux laboratoires. C’est un domaine qui suscite beaucoup d’enthousiasme en ce moment car il faut tout inventer. Par ailleurs, les applications dans le domaine de la sécurité ont tendance à tirer le secteur.

Quelles sont les applications dans ce domaine ?
A la limite du térahertz (100 gigahertz), les scanners corporels dans les aéroports se développent. L’eau du corps absorbe le rayonnement et les vêtements sont pratiquement transparents, les objets apparaissent donc visibles. Cela permet par exemple de voir une arme. En spectroscopie, on peut détecter à distance des toxines ou des explosifs. Un centre de tri postal à Tokyo utilise le térahertz dans ce but.

Plus largement, quelles sont les applications du térahertz ?
En physique fondamentale, ce qui est fait dans les micro-ondes et les ondes visibles peut se faire dans le térahertz. On peut notamment effectuer de la spectroscopie sur un grand nombre de systèmes, des protéines par exemple. Cela intéresse la physique, la physico-chimie et même la biologie. Cela reste pour l’instant surtout cantonné au domaine académique, à part l’exemple du tri postal de Tokyo. Beaucoup de recherches sont en cours sur ce type de procédés.Des fabricants de lasers commencent à commercialiser des sources pour la spectroscopie. Ils sont principalement vendus à des laboratoires mais ce sont des systèmes clés en main qui n’intéressent pas uniquement les laboratoires de physique ou de chimie. Ces spectroscopes térahertz commencent à se démocratiser.En astronomie, on cherche à construire des détecteurs embarqués dans des satellites pour étudier la cartographie du ciel et le rayonnement cosmique. C’est aussi un grand sujet de recherche.Beaucoup de travaux de recherche concernent le domaine médical. Par exemple, un système est testé au Royaume-Uni pour le diagnostic du cancer de la peau. Les cellules saines de la peau n’absorbent pas de la même façon les rayonnements que les cellules cancéreuses qui contiennent plus d’eau. Dans le secteur des télécoms, les ondes térahertz peuvent augmenter les capacités de communication. Des systèmes mélangeant térahertz et optique sont mis au point pour la fibre optique. Quelques papiers importants sont parus sur ce sujet. C’est peut-être ce qui permettra un passage à une industrialisation. Nous sommes à la recherche d’une application qui pousse les grands groupes à fabriquer du matériel. C’est encore une période de transition pour le térahertz.

Ci-dessus : Détection d’imperfections de la dent ex vivo, 13x9mm – © CPMOH -P. Mounaix & E. Abraham
Les ondes térahertz sont-elles nocives ?
Nous n’avons pas encore beaucoup d’informations sur la nocivité. L’énergie du photon est comparable à ce que l’on reçoit par rayon thermique dans une pièce à 20 °C. De plus, il n’y a pas de nocivité intrinsèque du photon. L’effet d’échauffement est très faible pour des sources conventionnelles. Par rapport aux rayons X, c’est complètement différent. Ce serait une bonne chose que des études systématiques soient faites pour confirmer cela, même si je suis très optimiste sur les résultats.

Sur quels sujets de recherche travaillez-vous au CNRS ?
Je travaille notamment sur la microscopie liée au rayonnement térahertz. Si on rajoute des ions (potassium, sodium), cela modifie la façon dont l’eau absorbe le rayonnement, ce qui permet d’étudier les neurones. En effet, la transmission de l’information nerveuse se fait à l’aide de concentrations localisées en ions, les axones étant constitués notamment de potassium et de sodium. On peut donc observer au microscope térahertz sans colorants ni électrodes. Cela peut contribuer à valider un modèle lié à l’IRM fonctionnel.

Vous êtes actif au sein du réseau Téranaute. De quoi s’agit-il ?
Téranaute est un groupe au sein de l’association Armir, qui réunit huit réseaux ayant des thématiques différentes. Le but d’Armir est de favoriser les partenariats entre les entreprises et les laboratoires de recherche. L’association existe depuis une vingtaine d’années, mais le groupe Téranaute s’est ouvert il y a un an. Téranaute avait au départ été lancé il y a cinq ans au sein d’Ecrin (association d’interface recherche / entreprise), fondée par le CNRS et le CEA.

Qui sont les membres de Téranaute ?
Des universitaires qui s’intéressent au térahertz, des chercheurs du CNRS ou encore des entreprises, principalement de grands industriels comme Airbus. Certains réalisent des recherches comme Thales, d’autres font de la veille technologique comme la DGA. Propos recueillis par Corentine Gasquet ParcoursGuilhem Gallot travaille au CNRS depuis 1999, tout d’abord dans le domaine de la physico-chimie ultra-rapide, puis depuis 2005 sur la spectroscopie et l’imagerie térahertz. Il développe de nouveaux outils pour étudier les systèmes biologiques grâce au rayonnement térahertz. En particulier, un nouveau type de microscope basé sur l’absorption sélective des ions en solution a été découvert pour l’étude des neurones. Il est également responsable du groupe Téranaute au sein de l’association Armir.   

Sommaire cahier térahertz
A la Une : 
  • « Nous n’avons pas encore trouvé la killer application »
  • « Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »
Comprendre :
  • Le térahertz décrypté
  • Sources et détecteurs aux fréquences térahertz
Dans les labos :
  • Amplifier les impulsions térahertz grâce à la commutation de gain
  • Dotfive, objectif 0.5 térahertz

Les solitons dissipatifs, clé du stockage de l’information à ultra-haut débit

Des chercheurs du service OPERA, en Faculté des Sciences appliquées de l’Université Libre de Bruxelles (ULB), ont conçu et réalisé un prototype de mémoire tampon optique, simple et ultrarapide, composée d’une simple fibre optique bouclée sur elle-même. Dans cette boucle, de l’information codée circule sous forme d’impulsions lumineuses. Le codage binaire est réalisé en associant les 1 et les 0 respectivement à la présence et à l’absence d’impulsions. Ces impulsions sont particulières dans la mesure où leur durée n’est que de quelques picosecondes et qu’elles résultent d’un processus d’auto-structuration complexe, raison pour laquelle elles portent le nom de « soliton dissipatif » ou « soliton de cavité ».

Les résultats obtenus par ces chercheurs constituent une première étape dans le développement d’une nouvelle technique de stockage de l’information à ultra haut débit dans les systèmes de télécommunications.

Le principe

Le fonctionnement de cette mémoire tampon optique est basé sur une propriété remarquable des impulsions lumineuses de type soliton : celle de conserver leur forme au cours de leur propagation au sein d’une fibre optique. Ces impulsions peuvent, au sein d’une fibre, parcourir sans déformation une distance quasi illimitée. Ceci est remarquable, car une impulsion lumineuse brève traditionnelle (flash de lumière de quelques picosecondes) envoyée dans une fibre optique s’étale toujours dans le temps en raison du phénomène de dispersion chromatique inhérent à la propagation en milieu matériel. Cet étalement est fortement dommageable pour les applications aux télécommunications, car il perturbe, voire détruit, l’information codée par les impulsions. Mais si une impulsion a une intensité suffisamment élevée, elle modifie sur son passage l’indice de réfraction du milieu dans lequel elle se propage. Dans ces conditions, il est possible de donner à l’impulsion une forme bien précise qui est telle que la modulation de l’indice de réfraction compense exactement l’effet de la dispersion chromatique. Ceci résulte en une impulsion se propageant sans distorsion, c’est-à-dire, un « soliton optique ». De façon remarquable ces impulsions « soliton » se forment spontanément dans le dispositif de fibre en boucle étudié à l’ULB.

Le processus d’autostructuration qui est mis en œuvre trouve son origine dans le principe de formation de « structures dissipatives », le concept physique introduit par Ilya Prigogine et pour lequel il reçut le prix Nobel en 1977. Cette étude s’inscrit donc de façon très générale dans la lignée des travaux fondamentaux, entrepris par l’Ecole de Prigogine sur les systèmes dissipatifs. Elle se base notamment sur un modèle théorique développé par René Lefever, à la fin des années 1980, pour décrire les cavités optiques non linéaires. L’étude ultérieure de ce modèle par Mustapha Tlidi a montré l’existence dans ces cavités de solutions localisées autostructurées, ce qui indiquait indirectement la possibilité de faire circuler des impulsions « solitons » dans une cavité optique fibrée. Les travaux qui font l’objet de la publication de Nature Photonics ont permis de confirmer expérimentalement ces prédictions théoriques.

Prochaine étape : la miniaturisation sur une puce en silicium

La mémoire tampon étudiée par les chercheurs de l’ULB, est essentiellement constituée d’une boucle de fibre optique refermée sur elle-même au moyen d’un dispositif appelé coupleur. Le coupleur possède une entrée par laquelle la lumière peut être injectée dans la boucle et une sortie par laquelle une fraction de la lumière circulant dans la boucle peut être récupérée. Une telle boucle est appelée « cavité optique » par la communauté des physiciens, car la lumière peut parcourir la boucle un très grand nombre de fois avant d’en ressortir. Les pertes subies par une impulsion soliton lors de la propagation dans cette cavité optique (qui pour l’essentiel sont causées par la sortie de lumière au niveau du coupleur) sont compensées par une onde continue injectée en permanence à l’entrée. Cette compensation assure la persistance de l’impulsion sur un nombre de tours a priori illimité ; un soliton optique, une fois formé dans la cavité y circulera donc indéfiniment.

Du point de vue des applications, on peut imaginer créer une séquence de solitons optiques codant un message, l’injecter dans la boucle, et la récupérer inchangée, à tout moment, ultérieurement. On réaliserait de cette manière une « mémoire optique » qui permettrait de remplacer les mémoires électroniques qui sont utilisées actuellement et qui ont des capacités beaucoup plus faibles que ce que l’optique permet. Effectivement, dans le contexte du traitement tout optique ultra rapide du signal, il est important de disposer de mémoires et de délais capables de travailler à des cadences très élevées. En plus de sa grande capacité, la mémoire tout optique mise en œuvre au laboratoire OPERA n’est pas sujette à l’accumulation de bruit (parasite se rajoutant au signal), contrairement aux dispositifs concurrents qui sont soumis à l’accumulation progressive de bruit détruisant l’information et limitant, de ce fait, la durée maximale de stockage.

Les résultats expérimentaux obtenus récemment sont le fruit d’une succession de travaux et de collaborations, ayant débuté par l’étude fondamentale des propriétés d’une cavité optique non linéaire fibrée, au sein du Pôle d’Attraction Interuniversitaire, « photonics@be », programme de recherche financé par la Politique scientifique fédérale belge BELSPO, et développé grâce au soutien récurrent des différents fonds du FRS-FNRS. Le savoir-faire acquis dans ce cadre a récemment permis de s’attaquer à l’objectif plus ambitieux de générer des solitons de cavité.

Bien qu’elle constitue une étape importante, cette démonstration de principe n’est pour OPERA qu’un premier pas dans le développement des mémoires optiques à soliton de cavité. L’étape suivante consistera, entre autres, à miniaturiser le dispositif, par exemple sur une puce en silicium compatible avec d’autres dispositifs de traitement optique de l’information.

Des indicateurs pour évaluer la zone d’influence d’un site de compostage

Afin d’évaluer la sphère d’influence d’une plate-forme de compostage, il est nécessaire de mieux caractériser les bioaérosols émis sur les sites de compostage mais également, d’évaluer leur dispersion. Pour ce faire, il est nécessaire de différencier les micro-organismes présents naturellement dans l’air ambiant, de ceux liés au phénomène de compostage. Des chercheurs du laboratoire de Biotechnologie de l’Environnement de l’Inra de Narbonne, en partenariat avec l’Ademe et Véolia Environnement, se sont intéressés plus spécifiquement aux bactéries et champignons qui se multiplient lors de la phase thermophile de décomposition des déchets (50-70°C). Parmi les micro-organismes se développant lors du procédé, certains peuvent agir sur la santé humaine en fonction de leur nature, de leur quantité et de la voie d’exposition. A l’heure actuelle, il est difficile d’apprécier les niveaux d’exposition possible de la population du fait, notamment, de la complexité des prélèvements et des analyses des micro-organismes dans l’air, du manque de connaissance sur leur capacité de survie dans l’environnement et de l’absence de relations dose-réponse validées (estimation de la relation entre la dose ou le niveau d’exposition aux substances retenues et l’incidence/gravité de ces effets)L’objectif de cette recherche qui a bénéficié de l’appui financier du Conseil Régional de Languedoc-Roussillon et de l’Ademe, était de comparer les bioaérosols issus de 5 sites de compostage industriels et de voir si la présence de micro-organismes communs permettait d’associer leur origine au compostage. L’analyse des échantillons d’air d’au moins 1 m3 a combiné différentes techniques :

  • quantification de la flore microbienne totale par microscopie à épifluorescence ;
  • quantification des micro-organismes cultivables ;
  • quantification des bactéries viables par cytométrie ;
  • et analyse de la diversité microbienne par techniques moléculaires.
La diversité bactérienne et fongique a été analysée dans sa globalité, l’identification des espèces majoritaires des 5 bioaérosols permettant de mettre en évidence des phylotypes communs. La capacité de ces espèces à être utilisées comme indicateurs d’une origine « compost » dans l’air a été ensuite évaluée par PCR (Polymerase Chain Reaction) quantitative en temps réel. Si sur ces 5 sites, des différences de structure des populations de bactéries et de champignons ont pu être observées, une même tendance s’est toutefois dégagée. Parmi les champignons, la forte présence d’Ascomycota (67 % des séquences fongiques) avec notamment Aspergillus, Penicillium et Thermomyces a été constaté, et parmi les bactéries, la prédominance de Firmicutes (49 %) et d’Actinobacteria (37 %). Trois indicateurs potentiels de bioaérosols de compostage ont été testés. Les deux premiers sont présents dans les 5 bioaérosols analysés et sont proches respectivement de Saccharopolyspora rectivirgula et de Thermomyces lanuginosus. Le troisième appartient aux Thermoactinomycetaceae. Ces indicateurs microbiens sont actuellement utilisés par le laboratoire de Biotechnologie de l’Environnement pour étudier la dispersion des bioaérosols autour des sites de compostage.

L’automatisation du lettrage et ses conséquences sur la trésorerie

Avec ses 60.000 factures par an, ce sont pas moins de 35.000 règlements, chèques, effets et virements émanant de 4.000 clients que doit traiter en flux continu le service comptable de Leader Interim, 3e société indépendante du marché de l’intérim en France. Le tout pour le compte des 80 agences locales. En 2009, le service utilisait le logiciel  Sage ligne 500 mais il ne répondait plus aux contraintes d’une organisation ayant connu une croissance exponentielle ces dernières années. Beaucoup trop de temps était consacré à la saisie des règlements et au lettrage. Une tâche certes essentielle au fonctionnement de l’entreprise, mais peu évolutive pour ceux qui en sont responsables, et source d’inévitables erreurs.Après avoir interrogé son fournisseur habituel qui proposait un développement spécifique, Leader Interim finalise un appel d’offres pour dématérialiser cet aspect crucial de son fonctionnement comptable : le traitement des règlements clients. Des solutions packagées qui ont fait leur preuve, existent sur le marché, mais c’est le duo technologique DIMO Gestion et ReadSoft qui a remporté le projet. Cette solution permet en effet une gestion de bout en bout : de la capture des informations (lecture automatique de tous les documents entrants : factures, courriers, formulaires, bons de commande, moyens de paiement) avec les technologies ReadSoft, aux traitements comptables avec GEC Lettrage de DIMO Gestion qui permet de pointer facilement et rapidement les règlements des clients avec les factures correspondantes.Grâce à ce partenariat technologique, la solution rend toute étape de saisie inutile, la récupération des informations se faisant automatiquement. C’est d’abord une solution d’amélioration de la productivité : l’automatisation de 90 % du poste lettrage (virements, avis de VCOM, chèques et effets) est possible, avec un traitement manuel optimisé grâce à un assistant de lettrage pour les cas les plus complexes.Mais c’est aussi une solution d’amélioration de la trésorerie, car tenir sa comptabilité clients à jour au quotidien n’est pas sans incidence sur ce poste ! Les directions financières y voient tout de suite l’opportunité de faire baisser l’encours clients et le DSO (Days Sales Outstanding), un ratio de pilotage important….  » La saisie des règlements a un impact sur la trésorerie, le service comptable, et l’ensemble de nos agences. C’est un projet transversal, confirme Jérome Heraud, Credit Manager chez Leader Interim. Le projet a été mené rondement. Nous sommes en phase de production et les formations vont démarrer. Le timing était serré, les intervenants ont été impliqués et disponibles. Ils nous ont livré une solution dans les temps qui correspond exactement à notre cahier des charges », poursuit-il.  Le déploiement qui concerne 8 comptables, 3 trésoriers et 3 personnes du crédit client, est en cours après une signature fin décembre 2009.Par Marc Chabreuil

« Nous n’avons pas encore trouvé la killer application »

Techniques de l’Ingénieur : pourriez-vous présenter l’association Armir ?
Nicolas Breuil : L’association Armir (Association pour le rayonnement, les mesures et l’imagerie rapide) existe depuis une vingtaine d’années. Le groupe Téranaute fait partie de cette association depuis trois ans il poursuit les travaux entamés par le groupe Optoélectronique THz il y a 12 ans dans le cadre  de l’association Ecrin aujourd’hui dissoute.

Pourquoi avoir crée le groupe Téranaute ?
On veut, au sein d’Armir, créer un réseau entre les chercheurs et les industriels. De grandes entreprises (EADS, Thales, Sagem, Opton Laser) sont très actives au sein du groupe. Une des raisons de ces rapprochements est bien-sûr la prospective industrielle. Mais au-delà, Téranaute nous permet d’échanger pour voir quelles sont les tendances du moment. Nous nous réunissons tous les trimestres et nous organisons, tous les deux ans, les journées térahertz : il s’agit d’un congrès, ouvert à tous, où nous invitons des chercheurs, français et européens, à venir présenter leurs travaux. Nous accueillons à cette occasion de vraies « pointures » du domaine térahertz.  Le nombre de chercheurs et d’industriels présents passés de 20 en 1998 à 120 en 2009 à Lille montre l’intérêt croissant pour ce domaine de fréquence. Plus généralement, le réseau Téranaute a pour but de faciliter les rencontres entre les laboratoires et le monde industriel, les partenariats, les recherches de financements Armir-Téranaute a également publié un livre en 2008, Optoélectronique térahertz chez EDP sciences.

Depuis quand s’intéresse-t-on au térahertz en France ?
L’activité térahertz existe en France depuis les années 50-60. Dans les années 60 les applications comme l’astronomie ou encore la spectroscopie de l’atmosphère ont orienté les premiers développements de tubes fonctionnant à une fréquence de 330 GHz. Ensuite dans les années 1970, c’est Thales components & subsystems qui fabriquait des tubes THz permettant d’émettre de la puissance jusqu’à 700 GHz… A la fin des années 1980 une autre communauté autour des lasers ultrarapides permettant de générer des ondes térahertz s’est également formée : l’optoélectronique THz. C’est à travers cette communauté qu’on a ouvert de nouvelles perspectives pour les ondes térahertz, avec deux activités de recherche principales :
  • spectroscopie THZ résolue en temps : tests de nouvelles molécules ;
  • développement de nouveaux composants : le but est de développer des émetteurs et des récepteurs de taille acceptable.
Quels sont les avantages pour les industriels d’appartenir au réseau téranaute ?
Nous collaborons avec huit laboratoires au sein de Téranaute. Cela nous permet de tester de nouveaux matériaux. Cette activité rejoint d’ailleurs la notion de service. Dans les laboratoires adaptés, on teste de nouveaux matériaux, de nouvelles molécules pour voir ce qu’on trouve. A Dunkerque par exemple, au laboratoire LPCA, on analyse la présence de molécules polluantes dans la fumée de cigarette. Le laboratoire de Chambéry IMEP-LAHC  est lui spécialisé dans l’analyse des matériaux solides, et celui de Bordeaux CPMOH dans l’imagerie (En savoir plus sur le CPMOH).

Quelle est l’avantage pour les laboratoires ?
Tous ces laboratoires ont signé des contrats avec des entreprises. Par exemple, le CPMOH de Bordeaux est sous contrat avec une entreprise de agroalimentaire, qui mène des tests pour développer des dispositifs utilisant les ondes térahertz et capables d’évaluer l’humidité dans un emballage. Mais pour l’instant, la mise en place effective de ce genre de système coûte très cher, entre 200 et 400.000 euros par appareil. A l’heure actuelle, les entreprises n’ont pas suffisamment besoin de ces machines. Elles ne peuvent pas amortir les coûts d’acquisition. En bref, nous n’avons pas encore trouvé la « killer application ».

C’est ce qui empêche pour l’instant les entreprises de mettre ces dispositifs sur le marché ?
Oui, mais pas seulement. D’autres applications Térahertz ont un potentiel important, mais un degré de maturité pour l’instant insuffisant. Le spectre térahertz se situe entre 100 GHz et 4 THz, mais, à ces longueurs d’onde, le coût des composants émetteurs et récepteurs est très élevé. Le coût de réalisation d’un système qui permettrait de détecter des armes ou des explosifs est élevé, vu les fréquences utilisées, mais ce n’est pas le seul frein. Il y a une limitation technologique. Aujourd’hui, l’usage de ce type de fréquence pose un problème de puissance. On n’atteint pas des rendements suffisants. C’est à l’heure actuelle un axe de recherche important. Le niveau de sensibilité des récepteurs est également quelque chose qui pose problème.

Qu’est-ce que le « térahertz gap » ?
Pour l’instant, nous maîtrisons, en termes de rendement et d’émission, les fréquences inférieures à 120 GHz. Mais quand on travaille au-delà jusqu’à 3 ou 4 THz, des problèmes se posent, au niveau des rendements obtenus des émetteurs, de la sensibilité des récepteurs. C’est le « terahertz gap ». Mais nous sommes confiants, et le temps permettra de combler le fossé qui existe actuellement dans la maîtrise de ces différentes fréquences. Les choses avancent déjà, puisque la société L3Com, entre autres, produit des appareils de sécurité avec des ondes millimétriques (30 / 40 GHz) ce qui prouve que le marché des appareils d’imagerie existe

On parle aussi de la difficulté à créer une matrice de pixels pour les applications en imagerie.
Une matrice de pixel serait la brique requise pour réaliser une caméra THz. Des laboratoires français comme Le Leti ou encore l’IMEP-LAHC à Grenoble sont  en train de mettre au point des matrices à base de micro-bollomètre, cette technologie est très prometteuse.

Qu’en est-il des recherches sur les ondes térhertz dans une grande entreprise comme Thales ?
Nos recherches s’effectuent au TRT (Thales research & technology). Nous travaillons sur la génération d’ondes térahertz. Nous savons déjà construire des lasers générant deux longueurs d’onde. On génère du térahertz par l’intermédiaire du battement entre ces deux longueurs d’onde dans un matériau semi-conducteur.

Sur quelles applications se portent vos efforts aujourd’hui ?
Nos efforts se portent sur la nécessité d’améliorer le rendement de nos émetteurs. Aujourd’hui, on reste limité à une puissance d’environ 10µW @ 1 THz. Mais c’est un axe de recherche important.Nous nous sommes aussi engagés dans un autre axe de recherche, avec Thales components & subsystems. Historiquement, Thales components & subsystems a le savoir-faire pour fabriquer des tubes de type klystron. L’activité avait été stoppée, mais elle pourrait reprendre suite au regain d’intérêt pour ces systèmes. Nous avons également des partenariats en France avec des laboratoires par exemple pour évaluer des matrices de micro-détecteurs.
Pour quels marchés ?
Les marchés de la sécurité et de la défense sont devenus très importants. Nous réalisons des démonstrateurs qui intéressent beaucoup d’entreprises, mais l’adéquation entre le niveau de maturité de la technologie térahertz et la demande du marché n’existe pas pour l’instant. Le prix par machine, pour le moment de l’ordre de 1 million de dollars, pour des fréquences entre 30 et 40 GHz, est encore beaucoup trop important pour être intéressant en termes de marché.

Ces applications peuvent donc à terme intéresser aussi bien les entreprises de sécurité que l’armée ?
Depuis les années 80, les chercheurs connaissent les ondes térahertz, et cherchent à en améliorer les dispositifs d’émission. Un grand virage s’est produit le 11 septembre 2001. Les problèmes de sécurité qui ont abouti aux attentats de New-York ont entrainé une réflexion nouvelle. Les aéroports et les lieux sensibles ont émis la volonté de se doter d’appareils capables de repérer des explosifs (et même les types d’explosifs). Aujourd’hui, on en est encore à l’établissement d’une base de données au niveau des différents matériaux détectables, mais les recherches avancent. Nous connaissons les challenges qui nous attendent : amélioration des rendements et de la sensibilité.

La portabilité des dispositifs est-elle également un enjeu majeur ?
Oui, il y a aussi un marché pour les systèmes portables, mais c’est aussi là que réside pour l’instant le « gap ». Les problématiques de puissance, de rendement sont pour l’instant trop contraignantes pour que l’on imagine des systèmes portatifs efficaces. Ce n’est qu’une question de temps cependant. Les Japonais ont réussi à faire des transmissions haut débit sur du point par point. On en est donc à trouver un compromis entre le nombre de capteurs nécessaires et la durée de détection pour développer un dispositif d’imagerie portable efficace. Mais comme le marché est important, les financements pour la recherche sont là. Les huit laboratoires réunis au sein du réseau Téranaute
  • CPMOH (Bordeaux)
  • LOB (Palaiseau)
  • LAHC (Chamberry)
  • IEMN Lilles
  • TRT (Palaiseau)
  • IEF (Orsay)
  • CEM2  (Montpellier)
  • LPCA (Dunkerque)

  Sommaire cahier térahertzA la Une :

  • « Nous n’avons pas encore trouvé la killer application »
  • « Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »
Comprendre :
  • Le térahertz décrypté
  • Sources et détecteurs aux fréquences térahertz
Dans les labos :
  • Amplifier les impulsions térahertz grâce à la commutation de gain
  • Dotfive, objectif 0.5 térahertz

Le térahertz décrypté

;Quand a-t-on commencé à produire des ondes térahertz ?

Surgies de l’oubli dans les années 1990, leur production a été un réel défi. Après dix ans de recherche en technologies semi-conducteurs, les ondes térahertz commençaient à être générées en continu grâce au développement des lasers à cascade quantique. Toutefois, les ondes térahertz émises par cette technique sont fortement absorbées par les molécules de vapeur d’eau, une fois transmises dans l’air… Pour résoudre ce problème et pouvoir transmettre les ondes térahertz sur des centaines de kilomètres sans qu’elles soient absorbées, une nouvelle technique a été développée il y a peu.

Quel est le spectre d’action des ondes Terahertz ?

Le domaine des fréquences térahertz (THz, 1 THz = 1012 Hz) s’étend de 100 GHz à 30 THz environ, soit environ aux longueurs d’ondes entre 10 pm et 0,3 pm Il est historiquement connu sous la terminologie d’infrarouge lointain mais on le retrouve également aujourd’hui sous l’appellation de rayon T. Il se situe dans le spectre électromagnétique entre l’infrarouge (domaine de l’optique) et les micro-ondes (domaine de la radioélectricité). La bande inférieure à 100 GHz est en général définie comme radioélectrique, alors que les fréquences supérieures à 30 THz sont en général définies comme infrarouge mais ces frontières ne sont pas normalisées, car ce n’est qu’un changement de langage ou de technologie, et non de nature.

Quelles sont les propriétés spécifiques des ondes Terahertz ?

Les rayonnements térahertz ont un fort pouvoir pénétrant. Ils permettent potentiellement de voir à travers de nombreux matériaux non conducteurs (la peau, les vêtements, le papier, le bois (voir illustration ci-dessous), le carton, les plastiques…). Ils sont peu énergétiques et non-ionisants (1 THz correspond à une énergie de photon de 4,1 meV, soit sensiblement moins que l’énergie d’activation thermique à température ambiante) ce qui les rend à priori peu nocifs.

 

medium medium

Ci dessus : vis et trou dans du bois : Vision Terahertz au travers 10mm de bois : Applications au CND et mesures en volume (CPMOH; PMounaix & E.Abraham)

Quelles sont les sources ? Les détecteurs ?

Voici une liste de sources possibles pour obtenir des ondes térahertz : les lasers à cascade quantique (lire l’article), les corps noirs, les diodes électroniques, les carcinotrons, les lasers à électrons libres, les lasers moléculaires et les sources optoélectroniques. Les bolomètres sont des détecteurs qui permettent de mesurer l’énergie du rayonnement mais pas sa phase (on les appelle des détecteurs « incohérents »). En revanche, les détecteurs optoélectroniques permettent de mesurer facilement la phase du signal. C’est le plus souvent la même source optique qui déclenche à la fois l’émetteur d’onde et le détecteur. (lire l’article)

Les ondes térahertz sont-elles nocives ?

Comme l’explique Guilhem Gallot, chargé de recherche CNRS : « Nous n’avons pas encore beaucoup d’informations sur la nocivité. L’énergie du photon est comparable à ce que l’on reçoit par rayon thermique dans une pièce à 20 °C. De plus, il n’y a pas de nocivité intrinsèque du photon. L’effet d’échauffement est très faible pour des sources conventionnelles. » (lire l’interview)

Le térahertz est-il sorti des labos ?

La technologie térahertz est en grande partie encore cantonnée aux laboratoires. D’après Optoélectronique térahertz (cf. encadré), l’évolution du nombre de publications dont le titre comporte le terme térahertz a connu une évolution exponentielle depuis 1992. La technologie s’est ainsi progressivement développée dans les laboratoires. Des applications commencent à voir le jour, notamment sous l’impulsion des besoins en sécurité.

Quelles sont les applications ?

  • Contrôle qualité des chaînes de production

Comme l’explique les auteurs de Optoélectronique térahertz, le térahertz peut permettre de « contrôler l’intégrité ou le positionnement d’un objet ou d’un circuit placé derrière une surface opaque ». L’avantage étant que ce contrôle se fait sans contact. Par exemple, dans l’automobile, on pourrait analyser l’épaisseur de la peinture et le temps de séchage. On peut imaginer des applications dans de nombreux secteurs comme la pharmaceutique (voir illustration ci-dessous), l’agroalimentaire, la microélectronique…

 

medium medium

Ci-dessus : Capsule plastique remplie de produit médical .Image spectro-chimique au travers d’encapsulation. (CPMOH ; PMounaix & E.Abraham)

  • Maintenance préventive

Le térahertz peut conduire à une analyse volumique sans contact des objets, en profitant de ses deux grandes propriétés : la détection du métal et de la présence d’eau. Par exemple, dans l’aéronautique, on peut détecter de bulles d’air dans des mousses. Des technologies employant le térahertz ont permis de découvrir les causes de l’accident de la navette spatiale Columbia en février 2003. Autres secteurs : les BTP, l’agroalimentaire.

  • Sécurité défense

En sécurité, il existe des applications en détection proche (portiques d’accès dans les aéroports pour détecter des explosifs et les armes) et en détection lointaine (check-point, lieux publics). L’objectif est notamment de mettre au point un détecteur portable multi-composants (explosif, gaz, drogue, agent biologique…).

  • Télécommunications

L’augmentation des débits de transmissions de données et la densité électromagnétique de la bande 0,5 à 6 GHz font que le térahertz pourrait constituer une solution pour la transmission haut débit. Il s’agit de développer la radio sur fibre, qui combine fibre optique et rayonnement d’une station de base vers les usagers. Autre domaine : l’utilisation de l’optoélectronique THz dans les circuits rapides pour les signaux numériques haut débit

  • Biologie et biomédical

La forte absorption de l’eau aux fréquences THz témoigne d’une forte interaction entre les échantillons biologiques et les ondes THz. En effet, ces ondes mettent en vibration/rotation les molécules d’eau polaire et excitent les liaisons de faible énergie intermoléculaires au sein de l’eau, des protéines… Se profilent ainsi de nombreuses applications de la spectroscopie THz au domaine biologique avec par exemple l’étude d’hydratation et de conformation de protéines, d’hybridation de l’ADN, la détection de certaines cellules cancéreuses (anormalement riches en eau).

La rédaction

 

Optoélectronique térahertz
EDP Sciences, avril 2008
Rédigé par 15 chercheurs français sous la direction de Jean-Louis Coutaz, ce livre a pour but de donner les bases et principes de la science et de la technologie des ondes térahertz, en présentant les principales applications entrevues aujourd’hui. L’ouvrage se limite aux techniques optoélectroniques, pour donner une cohérence thématique et lui conserver une taille raisonnable…
Il s’adresse à un public d’ingénieurs ou de scientifiques non spécialistes qui voudraient commencer des travaux dans le domaine térahertz, ou tout simplement mieux connaître ce que révèle l’expression « domaine térahertz ». Il sera aussi très utile aux étudiants (masters, dernière année d’écoles d’ingénieurs ou doctorants).
medium

 

 

 

Sommaire cahier térahertz

A la Une :

Comprendre :

Dans les labos :

Dotfive, objectif 0.5 térahertz

« Actuellement, je ne pense pas qu’il existe de projet connu du grand public à des fréquences aussi élevées en silicium », affirme Gilles Thomas, coordinateur du projet Dotfive. Le consortium qui réunit de nombreux partenaires (cf. encadré), ST Microelectonics en tête, se veut une zone d’excellence au niveau mondial dans le domaine approchant le térahertz. Lancé en janvier 2008, ce programme européen est financé à 50 % par le 7e programme de recherche pour un budget global de 15 millions d’euros. Il vise à faire atteindre au transistor bipolaire à hétérojonction silicium/germanium la gamme de fréquence maximum d’oscillation de 0,5 térahertz (d’où l’intitulé dotfive) ou 500 GHz. Dans ces bandes de fréquences, les circuits font appel à du semi-conducteur de type III-V comme l’arséniure de gallium (GaAs). Cependant, dans les applications à faibles puissances, l’utilisation transistor bipolaire hétérojonction sur substrat silicium permet une bien plus grande densité d’intégration électronique et donc de réduire les coûts, sachant que les usines produisant déjà des circuits sur silicium abondent. Le projet permettra le développement de circuits intégrés de télécommunication, d’imagerie ou de radars opérant à des fréquences atteignant les 160/180 GHz.

Photo : Test de composants sur plaque de silicium par des sondes de mesure hyperfréquences – © Dotfive
500 GHz en juillet 2011
Dotfive pourrait ainsi permettre une démocratisation du circuit radar automobile (cf. tableau). D’autres applications existent par exemple dans l’imagerie très haute fréquence dans les scanners d’aéroports ou encore dans la communication inter-satellites. « De nombreuses applications restent à inventer, explique Gilles Thomas. Le transistor térahertz est ce qu’on appelle une ‘enabling technology’ qui rend des applications et des idées réalisables ». Dotfive a démarré quand l’état de l’art était d’atteindre 250 GHz. Aujourd’hui, les meilleurs composants atteignent 425 GHz et l’objectif de 500 GHz est repoussé de fin 2010 à juillet 2011. « On obtiendra plus que des composants unitaires, on aura des démonstrateurs avec une circuiterie utilisant aussi des éléments passifs capable de générer des fonctions complexes », conclut-il. CGPartenaires de Dotfive
  • ST Microelectronics
  • Infineon Technologies AG
  • IMEC (Institut de micro-électronique et composants)
  • IPB (Institut Polytechnique de Bordeaux)
  • IHP (Institut für innovative Mikroelektronik)
  • TUD (Université de Technologie de Dresde)
  • UoS (Université de Siegen)
  • UoW (Université de Wuppertal)
  • JKU (Université Johannes Kepler de Linz)
  • BU (Université Bundeswehr de Munich)
  • UN (Université de Naples)
  • IEF (Institut d’Electronique Fondamentale) Université Paris-Sud Orsay
  • XMOD Technologies 
  • Alma Consulting Group
En savoir plus : www.dotfive.eu
   Sommaire cahier térahertzA la Une :
  • « Nous n’avons pas encore trouvé la killer application »
  • « Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »
Comprendre :
  • Le térahertz décrypté
  • Sources et détecteurs aux fréquences térahertz
Dans les labos :
  • Amplifier les impulsions térahertz grâce à la commutation de gain
  • Dotfive, objectif 0.5 térahertz

Sources et détecteurs aux fréquences térahertz

Les applications aux fréquences térahertz connaissent actuellement un développement sans précédent. Traditionnellement réservées à quelques applications très spécifiques, notamment la radioastronomie millimétrique et submillimétrique, les technologies térahertz s’invitent dans un champ de plus en plus large d’activités allant des techniques de l’environnement aux biotechnologies. Un essor que l’on doit en grande partie à la forte évolution de ces technologies au cours de ces dernières années, et notamment, grâce aux micro et nanotechnologies qui les ont rendu plus accessibles d’un point de vue technique et économique.Le point sur les technologies mises en œuvre et les mécanismes qui les sous-tendent. L’AUTEURDidier LIPPENS, professeur à l’université des Sciences et Technologies de Lille, dirige le groupe Dispositifs Opto et Micro-Électronique quantique (DOME) à l’Institut d’Électronique de Microélectronique et de Nanotechnologie (IEMN). Il préside également le comité de pilotage du réseau d’excellence Européen MÉTAMORPHOSE sur les métamatériaux.

Télécharger l’intégralité de l’article

Sommaire cahier térahertzA la Une :

  • « Nous n’avons pas encore trouvé la killer application »
  • « Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »

Comprendre :

  • Le térahertz décrypté
  • Sources et détecteurs aux fréquences térahertz

Dans les labos :

  • Amplifier les impulsions térahertz grâce à la commutation de gain
  • Dotfive, objectif 0.5 térahertz