Vers la production industrielle de bioéthanol et de biohydrogène

Fruit d’un accord de partenariat exclusif et mondial entre Biométhodes (Genopole, Evry), leader européen en ingénierie des enzymes, et Virginia Tech Intellectual Properties Inc. (États-Unis), une usine pilote sera construite en Virginie dans le courant de l’année 2009. Elle sera l’une des premières unités mondiales à intégrer deux technologies majeures : le procédé de prétraitement de la biomasse et les technologies d’enzymes optimisées pour l’hydrolyse de la cellulose en sucres fermentables.Ce partenariat qui vise à industrialiser la conversion de la biomasse lignocellulosique non alimentaire (déchets agricoles, entre autres) en bioéthanol, et de l’autre, la conversion des sucres en biohydrogène, marque la volonté de Biométhodes de devenir un acteur parfaitement intégré maîtrisant l’ensemble de la chaîne de valeurs et des savoir-faire nécessaires au développement des projets de production de biocarburants de deuxième génération.Percival Zhang, professeur assistant au College of Agriculture and Life Sciences (Virginia Tech), est à l’origine de la découverte de procédés originaux de conversion de la biomasse d’origine non alimentaire en éthanol de deuxième génération et en hydrogène. Ces procédés originaux reposent sur des enzymes améliorées, et sur des conditions physicochimiques douces. Contrairement aux procédés couramment utilisés, cette nouvelle technologie ne nécessite ni l’emploi de hautes pressions, ni des températures très élevées pour séparer efficacement la biomasse des déchets agricoles en ses trois composants essentiels, la cellulose, l’hemicellulose et la lignine. Outre l’excellent rendement de production d’éthanol de deuxième génération à partir de la fermentation des sucres, ce procédé permet également de valoriser les produits dérivés à haute valeur ajoutée, tels que la lignine et l’acide acétique. « Les technologies de Virginia Tech associées à l’expertise de Biométhodes dans l’amélioration d’enzymes génèrent les meilleures conditions de succès pour le développement industriel de biocarburants de deuxième génération et de bioydrogène tant en Europe qu’aux États-Unis » déclare John Talerico, de VTIP. L’équipe américaine, supervisée par le Professeur Percival Zhang, se focalisera en particulier sur l’étape du prétraitement de la biomasse. En France, les équipes de Biométhodes seront focalisées sur l’amélioration et la production des enzymes nécessaires aux procédés de transformation de la cellulose en bioéthanol, d’une part, et en biohydrogène, d’autre part.Biométhodes s’est fixé comme objectif d’augmenter l’efficacité de l’hydrolyse, d’optimiser la production d’enzymes, de réduire le coût total de production, et de passer à l’échelle industrielle dans des conditions économiques optimales. Concernant la production de biohydrogène, « l’Union Européenne déploie des efforts considérables pour favoriser le développement des technologies hydrogène », déclare Gilles Amsallem, PDG de Biométhodes. « Les conditions sont donc favorables au succès du projet ‘hydrogène embarcable’ en Europe, et les technologies de Biométhodes sont les plus adaptées pour réaliser cet ambitieux projet ». L’objectif de Biométhodes est de passer de la preuve de concept réalisée dans le laboratoire du Pr Percival Zhang sur des – fuels cells –, à des modèles réduits de générateurs, puis des prototypes de batteries, et enfin à des prototypes de voitures.

Biométhodes, entreprise de biotechnologie créée en 1998 à Génopole (premier bioparc français dédié aux biotechnologies et aux biothérapies, à Évry), emploie 22 ingénieurs et scientifiques. En une dizaine d’années il est devenu le leader européen dans l’ingénierie des enzymes grâce à ses technologies propriétaires dont Massive Mutagenesis, et THRTM qui permettent respectivement de générer et de sélectionner directement des variants de nouvelles protéines. Ces technologies ont permis l’amélioration d’enzymes pour nombreuses sociétés telles qu’Aventis, GSK, Roquette, ABEnzymes.

Entre les déchets et l’électricité, une torche à plasma

Dès la fin de l’année prochaine, la construction d’une unité de production d’électricité à partir de déchets grâce à un procédé de gazéification avec étage additionnel plasma va débuter au Portugal. Fruit d’un partenariat entre Europlasma, spécialisée dans des procédés industriels basés sur la technologie de la torche à plasma, et Regenco, une société luxembourgeoise qui, avec plus de 350 MW en développement est spécialisée dans les sites de production d’énergie renouvelable, et d’une association avec Eneolica, filiale de Lena, grand groupe portugais de travaux publics, cette installation produira 8 MW d’énergie électrique dès le début de 2011. Il s’agira de la troisième unité de ce type, après Morcenx, en France (12 MW) et Port-Hope, au Canada (20 MW)Cette future installation bénéficiera du procédé d’Europlasma pour convertir les déchets ménagers résiduels de la région en bio-syngas puis en électricité à l’aide de turbines à gaz. Les torches à plasma sont des outils thermiques qui peuvent remplacer les brûleurs de combustible fossile avec une efficacité allant jusqu’à 85%. Appliquée au traitement des déchets, une torche à plasma permet une destruction totale du déchet : les composés organiques sont totalement transformés en gaz de synthèse (syngas) et les composés inorganiques sont transformés en un verre inerte qui peut être valorisé et revendu comme agrégat ou composé de sous-couche routière. Elle trouve son intérêt dans tout type de traitement thermique apportant une facilité d’opération et une réduction de coûts basés sur un prix énergétique stable. De plus, le plasma n’engendre aucune forme d’incinération. Créée en 1992, la société Europlasma a mis au point des procédés permettant de traiter et de valoriser différents types de déchets (amiante, cendres toxiques,…). Les torches Europlasma sont des torches à arc non transféré développées au départ par EADS-LV (anciennement Aérospatiale) pour tester la résistance des matériaux des missiles ou des véhicules spatiaux lors de leur entrée dans l’atmosphère. Elles permettaient en effet de produire, à partir d’un gaz standard, un plasma présentant des températures élevées, bien supérieures aux températures atteintes par les moyens de chauffage conventionnels. La technologie plasma proposée par Europlasma est constituée de deux électrodes tubulaires connectées à une chambre d’injection d’un gaz tournoyant. Des sessions de tests ont montré que la torche peut fonctionner avec quasiment n’importe quel mélange de gaz (air, Ar, CO, Hélium, CO2, H2, N2, CH4, O2). L’allumage de l’arc est obtenu par un circuit court. La température du dard plasma résultant est typiquement de l’ordre de 4000°K alors que son enthalpie moyenne est dans la tranche de 5 MJ/kg air à 8 MJ/kg air. Pour augmenter la durée de vie des électrodes, un champ magnétique contrôle le mouvement de la racine de l’arc de l’électrode amont tandis que le gaz d’injection contrôle naturellement l’électrode aval. Les électrodes et la chambre d’injection sont refroidies par de l’eau déionisée et pressurisée.Le dernier développement d’Europlasma est la valorisation des déchets par un procédé de gazéification avec étage additionnel plasma pour la production d’électricité. L’entreprise a, en effet, développé un nouveau système, Turboplasma, ayant pour but d’améliorer les unités de gazéification en maximalisant la génération d’énergie renouvelable. Il s’agit d’un réacteur tubulaire à haute température, garni de réfractaires, avec 1 ou 2 torches en entrée, positionné à la suite d’une unité de gazéification de déchets ou de biomasse standard. Son principal avantage est de permettre un meilleur raffinage du gaz de synthèse et de se débarrasser des goudrons.

© EuroplasmaRetombée de l’aérospatiale, la torche à plasma peut remplacer les brûleurs de combustible fossile avec une efficacité de 85%.

Une “pico-centrale” électrique unique en france

La pico-centrale électrique qui a été mise en service à Saint-Étienne-de-Tinée, dans les Alpes-Maritimes, est la première canalisation en France où l’eau potable véhiculée est distribuée à deux entités – Saint-Étienne-de-Tinée et Auron – dont l’altitude diffère de 600 m. Réalisée avec le concours financier du Conseil général, elle permet de réduire la pression de l’eau, les réducteurs ayant été remplacés par une turbine de 200 kW de la société Desgranges et un alternateur de Paganin qui fournit de l’énergie électrique. La vente de cette énergie à EDF va créer un revenu à la commune de l’ordre de plus de 100.000 € par an.En 1976, la station de ski d’Auron, située dans les Alpes du Sud, manquait d’eau, notamment aux périodes de vacances avec la surpopulation touristique. Pour y remédier, la municipalité de Saint-Étienne-de-Tinée réalisa un vaste projet consistant à capter l’eau très pure des sources de Claï, à 2 000 m d’altitude en rive gauche de la Tinée, pour l’amener à Auron, à 1 600 m d’altitude en rive droite de la Tinée, au travers d’un vaste siphon dont le point bas se trouve à la traversée de la Tinée à 1 200 m d’altitude. L’eau descend à partir des sources de Claï jusqu’à la Tinée, puis remonte à Auron, arrivant au point bas avec une pression de 70 bar. L’installation de deux réducteurs permit l’utilisation de cette eau de qualité supérieure aux habitants de Saint-Étienne-de-Tinée.Le projet de pico-centrale réalisé sous la maîtrise d’œuvre de la société Serhy a, par ailleurs, utilisé la canalisation existante, n’engendrant aucune atteinte à l’environnement, pas de fouilles, aucune canalisation visible, aucune modification au droit des sources qui se trouvent dans le Parc national du Mercantour.L’eau étant destinée à l’alimentation en eau potable, toutes les pièces à son contact ont été réalisées en « acier inoxydable alimentaire » pour que sa pureté soit strictement conservée.

Une turbine de 200kW remplace les traditionnels réducteurs.

Vapeur et électricité à partir de biomasse, un projet pour le site de Lacq

Pour un investissement de l’ordre de 80 millions d’euros, Elyo du groupe SUEZ, va construire et exploiter une plate-forme industrielle de production de vapeur et d’électricité à partir de biomasse sur le site de Total à Lacq. Ce projet est porté par Biolacq Énergies, filiale d’Elyo à 100%. Les installations produiront en continu 80 MWt transformés en 15 MWe vendus au réseau électrique national, et 100 tonnes de vapeur par heure livrées aux industriels présents sur le site, permettant d’atteindre un rendement global performant de plus de 85%. Le besoin en combustible nécessite un approvisionnement annuel de 132.000 tonnes de biomasse agricole (50% cannes de maïs, 50% paille de blé) et de 57.000 tonnes de biomasse sylvicole, issue notamment des Pyrénées-Atlantiques. Cette diversité des combustibles biomasses est justifiée par la complémentarité des ressources locales garantissant un approvisionnement réparti dans le temps, à l’abri des aléas climatiques. L’installation pourra par ailleurs utiliser d’autres sources de combustibles sur les 20 ans du projet. Concernant la canne de maïs, il s’agit d’un gisement inutilisé à ce jour. En effet, une fois l’épi récolté, la jambe de maïs restait à terre sans être valorisée. Cependant, par respect pour l’équilibre organique et minéral des sols et selon leur nature, le prélèvement s’effectuera de manière raisonnée, c’est-à-dire une année sur trois, en excluant les sols pauvres. Par ailleurs, seul un tiers des résidus après la récolte du grain sera prélevé, ce qui fixe le taux d’exportation moyen à moins de 15% par an.La production d’électricité et de vapeur à partir du projet biomasse évitera l’émission de plus de 130.000 tonnes de CO2 par an et améliorera le bilan environnemental des industriels présents sur le site.

Amplificateur radiofréquence état solide ou tube : quels critères de choix ?

L’amplification de puissance radiofréquence est possible par tubes et par état solide. Mais comparer ces deux technologies est un sujet moins simple qu’il n’y paraît, si l’on fait abstraction des très faibles et très fortes puissances. En effet, une comparaison suppose des critères de choix et les définir n’est pas trivial.Les critères de choix dépendent des applications considérées et des utilisateurs. Citons les principaux :

  • le coût d’achat vient souvent en premier, en tenant compte du coût de conception si le dispositif recherché n’est pas commercialement disponible ;
  • le coût de possession, qui ajoute au coût d’achat le coût de maintien en service de l’équipement qui accueillera l’amplificateur : consommation électrique, durée de vie de l’amplificateur, coût des réparations, coût de gestion des obsolescences de composants électroniques… ;
  • le rendement électrique, si l’équipement dispose d’une ressource d’énergie limitée (c’est le cas des satellites) ;
  • la fiabilité, et la disponibilité opérationnelle, soit parce que l’équipement n’est pas réparable (sur un satellite…), soit parce que l’utilisateur ne veut à aucun prix que son équipement puisse tomber en panne inopinément, et qu’il souhaite une dégradation douce et la possibilité de réparer quand il le désire ;
  • et, évidemment, le respect des performances visées, notamment en termes de puissance, de bande passante et de linéarité.
S’ajoutent d’autres critères moins objectifs, mais très réels, dont le principal est la capacité de l’équipementier à concevoir ou à intégrer, voire à maintenir en état, des dispositifs fonctionnant sous très haute tension.Il est enfin des cas où le choix entre amplificateur à tube et amplificateur état solide est le résultat d’une réflexion plus globale au niveau de l’équipement qui les accueille : le meilleur exemple est celui les antennes à balayage électronique.Retrouvez les aspects  » performance  » qui guident les choix des utilisateurs, en offrant une meilleure compréhension du fonctionnement des dispositifs tube dans les dossiers  » Tubes électroniques hyperfréquences – Technologies, tubes à grille et klystrons  » et  » Tubes électroniques hyperfréquences – Tubes à ondes progressives et à champs croisés  » à paraître bientôt et état solide dans les dossiers  » Amplification de puissance radiofréquence à l’état solide – Classes, systèmes et technologies » et « Amplification de puissance radiofréquence à l’état solide – Paramètres de mise en œuvre « .Pour être informé de la parution du dossier  » Tubes électroniques hyperfréquences – Tubes à ondes progressives et à champs croisés  » cliquez-ici.Par Thierry Lemoine, directeur technique THALES Composants et Sous-systèmes

Les atouts de la pile à combustible au méthanol liquide

Classé au patrimoine mondial de l’UNESCO et d’accès difficile, le site Pigna Corbino, en Corse, subit de fréquentes interruptions d’alimentation électrique. Un problème pour SFR qui y a installé l’une de ses stations de base. La présence d’un système de secours électrique s’imposait, mais le lieu n’était pas approprié à l’installation d’un groupe électrogène et son emplacement éloigné rendait impraticable l’approvisionnement en hydrogène d’une éventuelle pile à combustible. L’opérateur de téléphonie mobile a été conduit à rechercher une solution alimentée en combustible liquide, à maintenance minimale, permettant de réduire l’impact environnemental. Son choix s’est porté sur une pile à combustible utilisant du méthanol liquide : pollution minimale, sans nuisance sonore et s’intégrant parfaitement au paysage.

La société Chloride a été chargée de fournir le système pile à combustible d’IdaTech (48VDC ElectraGen5 XTR) de type PEM (Proton Exchange Membrane). Ce dernier génère de l’hydrogène de haute qualité pour alimenter la pile à combustible en le produisant sur site, selon les besoins. Sa capacité lui permet d’assurer un fonctionnement de plusieurs jours à partir d’une source très compacte de carburant liquide, alors que les solutions traditionnelles ne sont utilisables que pour un nombre limité d’heures de fonctionnement. De plus, les fonctionnalités de télésurveillance du système permettent à SFR d’être averti de l’activation de la pile jusqu’au rétablissement du réseau électrique principal.

Modules photovoltaïques : une innovation intéressante pour un rendement de 24%

La société espagnole Concentración Solar La Mancha S.L., de Manzanares (Ciudad Real) a développé des modules photovoltaïques concentrés (CPV) qui utilisent des miroirs ou des lentilles pour concentrer la lumière, recueillie sur une surface relativement importante, sur une surface bien plus petite (1cm²) de matériau PV semi-conducteur actif basé sur les éléments des groupes III et V de la classification périodique. Ces systèmes offrent une efficacité de conversion de plus de 36%. L’une des premières installations commerciales de ce type de module CPV a vu le jour en septembre 2008 à l’ISFOC (Instituto de Sistemas Fotovoltaicos de Concentración) de Puertollano (Ciudad Real).Les modules photovoltaïques concentrés développés par la start-up espagnole Concentración Solar La Mancha S.L. sont constitués de six éléments concentrateurs et suivent automatiquement la course du Soleil dans le ciel, avec une précision de 0,2°. Cette précision permet des rendements de 20 à 24% en terme de production d’électricité, contre 15 à 16% pour les cellules conventionnelles au silicium.Les modules sont logés et soutenus, dans un châssis de grandes dimensions (83,3 cm× 56,5 cm pour 3 mm d’épaisseur) moulé dans un grade de polyéthylène téréphtalate (PET) DuPont renforcé en verre et mica, préféré à un aluminium revêtu d’une peinture en poudre. “Dès le départ, nous étions décidés à remplacer le métal par un polymère de hautes performances, afin de bénéficier des avantages offerts par ces matériaux”, explique Miguel Trinidad Aragon, P.‑D.G. de Concentración Solar La Mancha. Le grade sélectionné, Rynite 935 BK505, a été choisi pour son gauchissement extrêmement faible, sa rigidité élevée et ses propriétés d’isolation électrique. Exposé aux conditions extérieures, le matériau devait aussi offrir une excellente résistance à la chaleur (jusqu’à 85°C) et aux UV, tout en assurant le soutien structurel de tout le module PV, même par vent violent.

© DupontLe PET a été préféré à l’aluminium pour ses propriétés et la possibilité d’intégrer d’autres fonctions dans le châssis.

Premier bilan du programme Storhy sur le stockage de l’hydrogène

Au cours des dix dernières années, la direction de la recherche de PSA Peugeot Citroën a pu, au travers de 7 démonstrateurs technologiques utilisant l’hydrogène associé à la pile à combustible (PAC), tester plusieurs solutions. Ces différentes réalisations de type « Range Extender » constitueront, à moyen et long terme, une voie prometteuse pour les véhicules zéro émission (ZEV) nécessitant une autonomie accrue par rapport au véhicule électrique. Le démonstrateur Peugeot Partner H2Origin, présenté en avril 2008, illustre cette voie. Néanmoins la maturité technique et économique du véhicule hydrogène PAC est loin du stade industriel permettant une commercialisation en grande série.Afin d’être aux avant-postes des solutions techniques, le groupe PSA Peugeot-Citroën développe des partenariats ciblés (par exemple le CEA pour la pile à combustible) ou s’associe aux projets de recherche de la Commission Européenne. En travaillant, dans le cadre du projet européen StorHy (système de stockage d’hydrogène pour des applications automobiles) à l’amélioration du stockage de l’hydrogène sous format gazeux, PSA Peugeot Citroën cherchait à accroître significativement l’autonomie des véhicules à hydrogène. Les résultats obtenus montrent qu’un doublement de la pression de l’hydrogène stocké (700 bars au lieu de 350) est viable techniquement.Le stockage de l’hydrogène constitue un point clé pour l’utilisation de l’hydrogène comme source d’énergie du futur et la diffusion large sur le marché des véhicules fonctionnant à l’hydrogène. Le projet StorHy a permis des avancées significatives dans le développement de systèmes efficaces et sûrs pour le stockage de l’hydrogène embarqué à bord des véhicules. Ces progrès se sont accompagnés d’un renforcement de la compétitivité de l’industrie européenne et ont favorisé, dans le domaine du stockage de l’hydrogène, des échanges scientifiques et techniques européens au meilleur niveau.Pendant les 4 années et demi de la durée du projet européen StorHy, les acteurs majeurs de l’industrie et la recherche ont collaboré pour faire progresser la recherche et accélérer le développement des trois principales technologies de stockage de l’hydrogène : stockage de l’hydrogène à l’état gazeux sous haute pression (jusqu’à 700 bars), stockage sous forme liquide (cryogénique) à très basse température (-253°C) ou encore stockage absorbé dans des matériaux solides. Les solutions technologiques réalisées dans le cadre de StorHy pour le stockage de l’hydrogène à l’état gazeux haute pression, ou à l’état liquide et des technologies de stockage sont maintenant prêtes pour un développement en petites séries. Pour sa part, le stockage solide n’est, pour l’instant pas suffisamment mature pour une application automobile.

Efficacité énergétique : 50% d’économies grâce à un pilotage intelligent de la gestion technique

Les bâtiments étant responsables de 40% de la consommation d’énergie, les économies possibles dans ce domaine sont considérables. Voilà pourquoi l’efficacité énergétique est un thème central de KNX Association, créateur et propriétaire de la technologie KNX, le seul standard ouvert pour toutes les applications dans le domaine de la domotique et de l’immotique.

Un contrôle intelligent de la gestion technique du bâtiment réduit la consommation énergétique et sensiblement les frais d’utilisation qui y sont liés. C’est là, le résultat d’une recherche menée par l’université de Biberach, en Allemagne, sur le thème des possibilités d’économie d’énergie grâce à des installations électriques modernes telles que KNX. Son bilan : « Ce sont tout particulièrement les fonctions d’automatisation combinant différents systèmes qui débouchent sur de grandes possibilités d’économie d’énergie. Ces fonctions d’automation ne sont possibles qu’à l’aide d’une gestion moderne de la technique du bâtiment sur la base des systèmes de bus et de communication. Ici l’installation électrique traditionnelle atteint rapidement ses limites. »

Une autre recherche de l’université de Brême, montre dans quelles proportions les économies d’énergie sont possibles. Elle a pris comme terrain d’expérimentation le nouveau centre d’informatique et de technique de média (ZIMT) qui est équipé du système de commande KNX pour le chauffage et le pilotage de la lumière.

Économie d’énergie réalisée par KNX sur une application chauffage (sources : université de Brême).

Le bâtiment montre une consommation d’énergie spécifique de 60 à 75 kWh/m². Deux salles de classe identiques ont été choisies comme pièces test. L’une d’elle dispose d’une installation classique et la seconde est équipée du système de commande KNX. Suite à une série de mesures relevées sur une période de quatre ans, il est apparu que, dans la salle équipée d’un système de commande KNX, la consommation d’énergie est réduite de 50%. Ainsi, les frais d’investissement sont rapidement rentabilisés. Autre exemple, l’université de Brème qui consomme 230.000 kWh par an uniquement pour son éclairage, compte amortir son investissement dans une commande bus KNX en un an seulement. Au final, non seulement les exploitants et les investisseurs profitent de cette baisse de consommation d’énergie mais l’environnement aussi.

Réduction de la consommation d’énergie suite à l’installation de KNX

Grâce au système KNX, les objectifs d’économie d’énergie suivants sont atteints : jusqu’à 40% avec les commandes KNX pour l’occultation, 50% avec les régulateurs individuels de pièce ; 60% avec les commandes d’éclairage et 60% avec les commandes d’aération.

KNX Association : 120 entreprises et 7.000 produits

Reconnu comme standard européen (CENELEC EN 50090 et CEN EN 13321-1) et international (ISO/IEC 14543-3), KNX Association qui réunit dans le monde plus de 120 entreprises membres et 7.000produits, a conclu des accords de partenariat avec plus de 30.000 installateurs dans 70 pays.

En coordination avec KNX Association, KNX France concourt au développement de l’offre liée à la norme KNX en favorisant et dynamisant les échanges avec les filières de la profession. Il adapte l’usage de la norme aux spécificités culturelles et structurelles, notamment à travers la mise en place d’une stratégie et d’actions de communication à destination du marché.

La pyrogazéification, seule alternative à l’incinération ou l’enfouissement

Le programme de développement du procédé unique au monde de pyrogazéification de Finaxo Environnement vient d’enregistrer une avancée importante avec la labellisation officielle du projet PYRA2NA (Pyrolyse en Agro-Alimentaire, Nouvelles Avancées) par le pôle de compétitivité Picardie Champagne Ardenne qui avait déjà labellisé Pyrobio Energy + en 2006. L’objectif de ce programme porté par le Centre de Valorisation des Glucides d’Amiens (CVG), en étroite collaboration avec Finaxo Environnement et le Laboratoire d’Études et de Recherches sur le Matériau Bois (LERMAB) d’Épinal est de définir avec les centres techniques et les professionnels des industries agroalimentaires, les sous-(co)produits potentiellement valorisables en pyrogazéification pour la production d’énergie (chaleur, électricité).

Alors que Finaxo Environnement a nommé un directeur commercial spécialement dédié au département Pyrogazéification, le directeur et responsable du projet « Pyrobio Energy+ » chez Tereos a confirmé la volonté du groupe de poursuivre le développement du procédé avec la construction prochaine d’une unité industrielle pilote pouvant traiter 225 kg/h de matières organiques sur le site de la distillerie d’Origny-Sainte-Benoîte. Il a été décidé, suite aux tests concluants, un élargissement du champ d’application de la technologie de pyrogazéification, notamment dans le domaine des éco-carburants de synthèse. Ce souhait d’appliquer ce procédé aux carburants de seconde génération a ainsi conduit à une réflexion sur la technologie à utiliser pour optimiser la future unité d’Origny (chauffage du four au gaz ou à l’électricité, alimentation des billes chauffantes par vis sans fin ou par la mise en place d’un four tournant avec godets…). L’objectif est une livraison de l’unité industrielle pilote d’ici la fin 2008.

Le procédé de pyrogazéification Finaxo Industrie comporte un transfert ultrarapide de la chaleur au cœur de la matière par l’incorporation de billes d’acier de 20 à 50 mm, surchauffées entre 650 et 750°C qui cheminent dans un four à co-courant avec les déchets. Ainsi, le coke est brûlé pour fournir l’apport calorifique nécessaire à la réaction de pyrolyse ainsi que la surchauffe éventuelle du gaz de pyrolyse pour réduire la fraction condensable. La combustion du coke se fait de manière indépendante du réacteur de pyrolyse, ce qui permet de ne pas mélanger les fumées issues de la combustion du coke, avec les gaz de pyrolyse. Il en résulte la production d’un gaz riche qui facilite son utilisation dans un moteur à gaz.

La pyrolyse « rapide »

La pyrolyse d’un déchet organique ou contenant du carbone est une décomposition thermochimique en absence d’oxygène, entre 450 et 900°C. La pyrolyse « rapide » (quelques secondes à 600-900°C) produit un gaz combustible exempt de goudrons, dont la fraction condensable sera d’autant plus faible que la température est élevée. C’est cette dernière qui est prévue dans le brevet de Finaxo Industrie dont l’originalité réside dans l’utilisation d’un four à billes, alors que les procédés existants sont essentiellement des procédés cycloniques.

Un séchage suivi d’une thermolyse peuvent être réalisés dans une seule unité composée de deux fours distincts mais identiques, utilisant une masse commune de billes d’acier.

Aujourd’hui, les installations existantes ou en cours de construction ciblent le marché annuel des déchets ménagers qui représente en France 31 millions de tonnes alors que la technologie Finaxo vise les 400 millions de tonnes de déchets industriels (déchets hospitaliers, farines animales, pneus usagers, déchets des IAA, tailles des zones viticoles…). De plus, la technologie Finaxo permet de traiter les déchets à la source, évitant collecte et transport tout en apportant aux industriels une valorisation énergétique : le bilan énergétique est de 5,9 kW par kilogramme de matière organique sèche ; ou entre 0,38 et 1,415 kW pour une matière organique contenant entre 80 et 65% d’eau.Les avantages du procédé sont multiples :

  • minéralisation complète du déchet ;
  • production d’électricité par co‑génération ;
  • installations d’une capacité comprise entre 100 et 30 000 tonnes/an, éventuellement conteneurisables ;
  • déshydratation totale des déchets ;
  • rejets gazeux ne dépassant pas 2 000 Nm³/tonne contre 7 500 Nm³/tonne pour l’incinération.

Europe : où en sont les énergies renouvelables ?

Certes, les objectifs fixés pour 2010 par la Commission européenne ne seront pas tenus, mais la tendance actuelle sur le futur des énergies renouvelables dans l’Union européenne autorise un certain optimiste. EurObserv’ER indique dans son rapport que la part des énergies renouvelables dans la consommation totale d’énergie primaire a gagné 0,4 point en 2007 par rapport à 2006 (de 7,1 à 7,5%) et la part des énergies renouvelables dans la consommation totale d’électricité a augmenté de 0,6 point en 2007 par rapport à 2006 (de 14,3 à 14,9%) (voir pages 78-85 de la publication).Au delà, cette nouvelle édition de l’État des énergies renouvelables en Europe présente une synthèse de l’ensemble des baromètres thématiques sur les énergies renouvelables publiés au cours de l’année 2008 (données 2007). Elle donne notamment une présentation détaillée des capacités installées et de la production énergétique de chaque technologie en matière d’énergie renouvelable pour les 27 pays membres de l’Union européenne – énergie éolienne, solaire thermique, photovoltaïque, petite hydraulique, géothermie, biomasse solide, biocarburants, biogaz, déchets urbains renouvelables, énergies des océans et centrales héliothermodynamiques (voir pages 8-85).Les objectifs de l’Union européenne en matière d’énergies renouvelables pour 2020 sont également précisés. A cette date, elles devront représenter 20% de la consommation d’énergie finale, la contribution de chaque Etat membre étant toutefois différente (voir pages 86-89).Enfin, pour la première fois, l’« État des énergies renouvelables en Europe » consacre un chapitre entier aux indicateurs socio-économiques (chiffre d’affaires et emplois) de la plupart des filières énergies renouvelables dans certains pays membres (voir pages 90-113). Un travail complété par des études de cas sur sept régions européennes (« Solar Vallée » en Allemagne, « Savoie Technolac », « Castille-La Manche » en Espagne, etc.) ayant su développer une activité industrielle liées aux technologies renouvelables (voir pages 114-139).En savoir plus sur EurObserv’ERLe baromètre EurObserv’ER est une publication régulière qui regroupe l’ensemble des indicateurs reflétant l’actualité des énergies renouvelables (solaire, éolien, hydraulique, géothermie et biomasse) dans le monde et en Europe. Le prochain baromètre paraîtra en février 2009 et sera consacré à l’énergie éolienne.Le baromètre EurObserv’ER est un projet soutenu par la Commission européenne, dans le cadre du programme « Énergie Intelligente-Europe » de la DG TREN. Il est également soutenu par l’Ademe, l’Agence de l’environnement et de la maîtrise de l’énergie.

INRIA : publication du rapport d’evaluation externe

Le Visiting Committee (VC) s’est réuni avec les membres de la direction et plusieurs chercheurs de l’INRIA dans un hôtel parisien, les 18 et 19 décembre 2008. Il a également travaillé à huis clos le 20 décembre pour discuter de son évaluation et de ses recommandations. Avant la réunion, la direction de l’INRIA avait élaboré un ensemble très complet de documents riches en informations, dont une présentation générale de l’INRIA, une description de la mission assignée au VC, l’actuel plan stratégique de l’INRIA, le contrat quadriennal 2006-2009, et les rapports des précédents VC et des comités d’évaluation de programmes. L’ordre du jour des 18 et 19 décembre comportait des présentations sur l’ambition et la stratégie de l’INRIA, sur son évolution scientifique, sur ses impacts nationaux et internationaux universitaires, et sur sa stratégie en matière de transfert. Ces exposés étaient complétés par des présentations de recherche.

Conclusions de ce rapport :
L’institut est reconnu comme l’un des meilleurs au monde. Le visiting committee souligne :
  • sa croissance en productivité ;
  • le succès de son investissement dans de nouveaux domaines
  • interdisciplinaires comme la biologie et la médecine numériques ;
  • la réussite du déploiement régional sur une courte période. L’INRIA a su croître rapidement sans réduire sa qualité scientifique ;
  • le bien fondé des d’actions incitatives qui visent à renforcer les synergies entre les EPI, aujourd’hui plus nombreuses et à maintenir une bonne coordination scientifique au sein de l’institut ;
  • les nombreuses qualités du modèle d’organisation, particulièrement dynamique,
  • le bien fondé des actions exploratoires et de la politique d’encouragement à la prise de risque ;
Le rapport félicite par ailleurs l’INRIA d’avoir su mettre en œuvre une chaîne continue, de la recherche fondamentale au transfert et à l’innovation et d’avoir pris sérieusement en compte les recommandations du précédent comité.

Date de publication du rapport :
20 février 2009

Plus d’infos :
  • http://www.inria.fr/actualites/2009/visiting_committee.fr.html
  • http://www.enseignementsup-recherche.gouv.fr/cid23851/remise-du-rapport-d-evaluation-externe-de-l-inria.html

L’énergie éolienne en substitution à d’autres sources d’électricité

« L’une des caractéristiques techniques fondamentales de l’électricité éolienne dans son utilisation dans les réseaux est qu’elle n’est que substituable à une autre source d’électricité. En effet, l’électricité distribuée en courant alternatif n’étant pas stockable, l’électricité éolienne doit être consommée au fil du vent. Or, comme le vent, l’électricité éolienne est intermittente.Il est donc nécessaire d’associer les centrales éoliennes à d’autres moyens de production dont la puissance disponible est ajustable ad nutum, jusqu’à couvrir la totalité de la puissance appelée par le réseau en cas de réduction à zéro de la puissance éolienne.

Cela conduit à examiner une caractéristique économique de l’électricité éolienne : pour créer un marché viable et pérenne, il est nécessaire que le coût de l’électricité éolienne devienne inférieur au coût de l’électricité déplacée.Dans l’ensemble techno-électrique de l’année 2008, les moyens de production de l’électricité substituée les plus favorables au couplage avec l’électricité éolienne peuvent être classés de la façon suivante (du plus au moins favorable) :

– les centrales hydrauliques de lac ou à éclusées, voire les centrales STEP (station de transfert d’énergie par pompage). En effet dans ces types d’équipements hydrauliques, il est possible en cas de forte production éolienne, de différer l’utilisation de la ressource hydraulique jusqu’à des moments où l’énergie potentielle de l’eau stockée sera mieux valorisée (variation entre les prix OTC et les prix spot) ;

– les centrales équipées de turbines à gaz à cycle combiné (TGCC). Ces équipements consomment un combustible coûteux (gaz naturel à moyen terme de l’ordre du prix moyen de l’électricité éolienne), mais ils ont un rendement intrinsèque important (de l’ordre de 60 %) et sont donc relativement moins polluants en termes de CO2 remis à l’atmosphère que les autres centrales à combustible fossile. Enfin, leur durée de mise en puissance est de l’ordre de 1 à 3 heures, selon l’état de température initial ;

– les turbines à combustion (TAC) alimentées aussi bien au gaz naturel qu’au fioul ont des durées de mise en puissance tout à fait compatibles avec les variations de l’électricité éolienne, mais leur rendement n’est que de l’ordre de 30 % et elles émettent beaucoup de gaz à effet de serre ;- les centrales à vapeur fonctionnant au charbon ou au fioul (très rares maintenant) ont des durées de mise en puissance de l’ordre de 10 heures et génèrent également beaucoup de gaz à effet de serre ;

– enfin, les centrales nucléaires. Pas plus que les centrales éoliennes, les centrales nucléaires n’émettent des gaz à effet de serre. Donc pas d’avantage de ce coté pour les premières. Par ailleurs, le prix de l’uranium enrichi étant une fraction (quelques %) du prix de l’électricité produite, il est clair que pour être économiquement efficaces, ces centrales doivent fonctionner aussi près que possible de leur puissance nominale pendant le maximum de temps, ce qui est contraire à une pénétration significative de l’électricité éolienne. En résumé, il n’y a pas de problème technique fondamental à coupler des centrales éoliennes à un réseau majoritairement nucléaire comme celui de la France, mais un problème économique. »

Retrouvez dans le dossier « Énergie éolienne pour la fourniture d’électricité » toutes les données techniques pour comprendre les avantages et les limites de cette énergie renouvelable, dans le contexte environnemental et économique actuel.

Par Jean-Marc Noël, Ingénieur de l’École Navale & Ingénieur-Conseil

Développement durable : vers un nouveau modèle économique

Une démarche « développement durable » peut être transcrite de manière simple en trois points qui s’avèrent aussi comme structurant cette problématique.

1. Un concept en voie de maturation

À son origine, dans les années 80, le concept de développement durable a semblé très flou, ce qui explique aussi paradoxalement son succès. Il recouvre maintenant deux courants assez contrastés.Le premier peut être qualifié d’écologiste. Pour ses tenants le développement durable est indispensable pour préserver la planète des nombreux risques environnementaux consécutifs à une activité économique faisant fi des questions environnementales. Pour cette école le traitement des aspects environnementaux de l’activité économique suffit pour parvenir à un développement durable.Le second est beaucoup plus radical puisqu’il considère que tout développement de l’économie marchande est intrinsèquement un risque majeur pour l’équilibre du système mondial car l’épuisement des ressources a atteint un seuil critique. Ce mouvement prônant, de fait, une décroissance ne va pas sans poser une question majeure qui est celle de l’utilité du progrès technique pour l’ensemble de ce qui est désigné comme « la société civile ».Face à ces deux attitudes, une question mérite d’être posée : faut-il se suffire d’une interprétation causale ? En effet, chacune des propositions précédentes instrumentalise un paramètre : soit le traitement environnemental, soit la technologie. Mais aucune assurance sur le caractère opératoire de ces démarches ne semble acquise puisque le problème concerne en fait l’écosystème au sens de la maîtrise collective d’un système complexe.Il apparait alors qu’une troisième voie est indispensable et qu’elle passe par un regard renouvelé permettant de retrouver une certaine capacité d’action sur le cours des choses (les anglo-saxons parlent de « vision »).

2. Un modèle économique revisité

Pour faire évoluer les comportements, il apparait nécessaire d’opérer par étapes successives. Le changement ne peut être que progressif et il suppose d’être partagé.Pour être organisé de manière efficace un groupe social se doit d’avoir une même compréhension des enjeux encourus. C’est dans ce sens que le développement durable doit être compris. Les risques environnementaux, économiques et sociaux sont réels et pour être évités ils ne se suffiront pas de mesures ponctuelles palliatives. En fait il devient nécessaire que chacun ait assimilé l’urgence de nouvelles solutions et reconnaisse le besoin d’un nouveau paradigme collectif.Celui-ci passe dans un premier temps par la pratique systématisée de l’éco-conception. Toutes les activités de la collectivité appellent un traitement environnemental approfondi des flux consécutifs à la mise à disposition des produits. Le prélèvement des ressources et les rejets lors de la fabrication ou de l’usage doivent être maîtrisés puis minimisés. Cette attitude contribue ainsi à l’optimisation des ressources mobilisées. Cette gestion rigoureuse qui cherche à réduire les « déchets » générés a un fort potentiel qui se chiffre à plusieurs dizaines de points du PIB en Europe.À terme, il s’agit de basculer sur un mode d’échanges économiques privilégiant le service : l’objectif n’est plus d’organiser des transactions de produits, mais d’engager une « économie fonctionnelle » axée sur l’usage procuré par un produit et non sur un achat en tant qu’objet physique. Cette « dématérialisation » de l’économie, que certains qualifient de « découplage », permet une meilleure péréquation entre coûts de fabrication et coûts d’exploitation dans une logique d’optimisation du coût de possession (usage tous frais confondus).Ces trois étapes constituent les paliers nécessaires pour accéder à un nouveau modèle économique internalisant l’ensemble des externalités de l’économie classique qui ne sont pas actuellement prises en charge de manière satisfaisante.

3. Une responsabilité accrue de chacun

Le déploiement d’un nouveau modèle économique suppose, au-delà du partage d’une même représentation, une approbation active des membres du collectif, et ce, à trois niveaux.L’économie fonctionnelle est basée sur un usage qui se déroule dans la durée. Cette dimension temporelle introduit implicitement une relation d’interaction entre l’utilisateur final et le support du service concerné. La qualité du support ne suffit pas à compenser un « mauvais usage ». Il en va de la responsabilité de l’utilisateur. Ce rôle dépasse le simple statut de consommateur et conditionne un usage « responsable » c’est-à-dire qui assume les conséquences des transgressions volontaires apportées aux conditions usuelles d’emploi.Au-delà de ce rôle actif, le modèle économique n’est compatible avec un développement durable que si chacun accepte de contribuer à la préservation des biens collectifs c’est-à-dire à assumer le surcoût nécessaire à un équilibre global de la planète (financement de la réduction des GES, recyclage, consommation d’énergie renouvelable…). Le terme de surcoût ne signifie pas forcément une réduction du pouvoir d’achat mais plutôt une contribution volontaire à des dépenses collectives ignorées jusqu’alors (principe généralisé du pollueur-payeur).Toutefois cette responsabilisation ne dédouane pas les entreprises qui fournissent les produits/services. Elles doivent, de leur côté, rechercher à tout moment les technologies les plus appropriées pour minimiser justement ces nouveaux coûts. Cela ne peut être obtenu sans un usage plus général de l’innovation qu’elle soit d’ordre technique ou organisationnel. Une production responsable se doit de concevoir des solutions originales qui mutualisent les dépenses et tirent un meilleur parti des nouvelles technologies (capacité de simulation, optimisation sous contraintes…).Cette synergie entre l’utilisateur, la collectivité et les entreprises relève d’une régulation repensée, qui ne passe pas par des réglementations, mais bel et bien par un engagement personnel de tous.

Handicap ou coup de pouce ?

Dans ces conditions, le concept de développement durable apparaît à la fois comme une contrainte (introduire un changement dans les pratiques actuelles) et une opportunité (accès à une économie réellement soucieuse de l’environnement : l’économie fonctionnelle).

Pour en savoir plus

 

  • Editions Techniques de l’ingénieur, Economie fonctionnelle, Christophe Gobin, Génie Industriel (2009).

Dans le cas particulier du cadre bâti, si important néanmoins dans le phénomène de mondialisation, des compléments peuvent être trouvés dans T et I :

  • Développement durable, feuille de route de la R&D.
  • Economie des coûts cachés
  • Analyse fonctionnelle
  • Efficience
  • Industrialisation
  • Ingénierie concourante

[Rencontres] Gestion du risque chimique

Comment intégrer les nouvelles réglementations ? Quels sont les contrôles et sanctions ? Quelle gestion globale du risque chimique ? Pour réussir la mise en œuvre de votre plan d’actions de prévention et de gestion des risques, Quick FDS et les Editions Techniques de l’Ingénieur vous proposent :

  • le mardi 30 juin 2009, à Paris, une journée de conférence-débat autour d’experts et de dirigeants de renom ;
  • du 29 juin au 3 juillet, 5 formation complémentaires.
Pour accéder directement au bulletin d’inscription, cliquez ici.   

CONFERENCE – 30 juin 2009 – Paris
NOUVELLES ÉXIGENCES RÉGLEMENTAIRES DU RISQUE CHIMIQUE : FDS, SCENARIO D’EXPOSITION, SGH/CLP… COMMENT ÊTRE EN RÈGLE ?
 
 

Etat des lieux : les obligations internationales et leur transcription en France
9h00 : Comment retrouver une vision claire des exigences incontournables aujourd’hui ?
  • Les nouvelles contraintes : règlement REACH, SGH – Règlement CLP
  • Le point sur la sécurité et la santé au travail
  • Les enjeux actuels en environnement et risques industriels
Avec Ismahane El Bahloul, Expert conseil HSE – Management du risque9h45 : Ce qu’attend la médecine du travail
  • Quels sont les comptes à rendre aux médecins du travail ?
  • Quelles relations favoriser sur le terrain, en phase avec les réalités professionnelles ?
Avec Ulrick Brunner, Médecin du travail, ALCAN AEROSPACE ; Dominique Leuxe et Mireille Loizeau, Médecins du travail, toxicologues – Service inter entreprise10h30 : La mise en œuvre des contrôles des produits chimiques
  • Les inspections réalisées par les différents corps de contrôles habilités
  • Les sanctions encourues en cas de non respect de la réglementation « produits chimiques » du Code de l’environnement
Avec Stéphanie Viers, Chargée de mission Animations des politiques de contrôle, Bureau des Substances et Préparations Chimiques, DGPR, Ministère du Développement Durable11h00 : Pause  

Administratif, technique, financier : les clés de la réussite
11h30 : Producteur – Utilisateur : la cascade des responsabilités
  • REACH, étiquetage : quels impacts juridiques et modification des responsabilités pénale et civile ?
  • Les contrats avec les fournisseurs et les clients : les impacts juridiques de REACH
Avec Maître Laurent Grinfogel, Avocats, Cabinet HUGLO – LEPAGE 12h15 : Comment retrouver un avantage concurrentiel ?12h45 : Déjeuner 

Comment faire face sur le terrain ?
14h15 : « FDS étendues » et étiquetage : ce qui change sur le terrain
  • Nouveau contenu de la Fiche de Donnée de Sécurité : les impacts de REACH sur les FDS
  • Scénario d’exposition et les CSA/CSR (Chemical Safety Assesment/C S Report)
  • Le nouveau système d’étiquetage : les principes et les impacts du CLP
Avec Marie-Laure Héraud, Responsable Projet Risques chimiques, Direction Technique/HSE, BUREAU VERITAS15h00 : Les outils opérationnels au service des industriels
  • Usage des produits : comment faciliter la fluidité des échanges entre fournisseurs et utilisateurs ? Avec Michel Abadie, Directeur Général, QUICK FDS
  • Assistance pour les PME utilisatrices productrices/importatrices : l’apport du Helpdesk REACH. Avec Stéphanie Auguste, expert en assistance sur le règlement REACH, BERPC
15h45 : Retours d’expérience sur la mise en œuvre
  • Organisation, équipe, coût, planning… : comment est piloté le projet ?
  • Procédures effectuées, confidentialité, disparition/substitution de certaines substances… Les répercussions techniques
Dont retour d’expérience de : Marine Vivien, Ingénieur environnement, coordination règlementation substances, DASSAULT AVIATION ; Jérôme Durantet, Responsable des affaires réglementaires et HSE produits, BOSTIK, et Béatrice Marchal, Responsable HSE Produits, CRAY VALLEY16h30 : Fin de la manifestation 

5 FORMATIONS POUR RÉUSSIR VOTRE PLAN D’ACTIONS DE PRÉVENTION ET DE GESTION DU RISQUE CHIMIQUE
 Les 5 programmes de la semaine du 29 juin au 3 juillet, Paris :1/ REACH : appliquer vos obligations incontournablesLundi 29 juin 2009 /1 jour
  • Identifier les principales obligations réglementaires du règlement REACH et les l’impact des nouvelles réglementations (dont le règlement CLP/SGH)
  • Déterminer si votre entreprise est impactée par REACH
  • Initier une démarche de gestion du risque chimique
2/ Respecter les obligations réglementaires en sécurité et santé au travailMercredi 1 juillet – jeudi 2 juillet 2009 / 2 jours
  • Identifier les exigences essentielles pour suivre sereinement son activité
  • Rédiger, organiser et faire vivre le Document Unique
  • Initier une démarche de gestion de la sécurité et santé au travail pour l’ensemble des risques
3/ FDS et étiquetage : 2 outils de gestion des risques. Ce qui change avec REACH, CLP – SGH, les scenarii d’utilisation…Mercredi 1 juillet – jeudi 2 juillet 2009 / 2 jours
  • FDS étendue : les impacts de REACH sur la FDS, les sanctions et contrôles
  • S’approprier le nouveau système d’étiquetage et mettre à jour ses documents en interne pour une gestion globale du risque chimique
4/ Evaluer et gérer le risque ATEX. Identifier les obligations incontournables pour être en règleVendredi 3 juillet 2009 / 1 jour
  • Acquérir une vision globale des obligations réglementaires ATEX
  • Différencier les obligations pour les utilisateurs et pour les producteurs de matériels
  • Reconnaitre et évaluer les risques ATEX au sein de son entreprise
5/ Transport de produits dangereux. Les outils d’auto-diagnostic pour se situer par rapport à la réglementation. La mise à jour 2009 et les évolutions à anticiperVendredi 3 juillet 2009 / 1 jour
  • Identifier les principales obligations en matière de transport / d’expédition
  • Valider si son activité est assujettie à l’ADR – Réglementation transport de marchandises dangereuses et s’il y a nécessité de faire appel à un conseiller à la sécurité
  • Cerner les procédures à mettre en place
Pour plus de détail sur les programmes : nous contacter 

BULLETIN D’INSCRIPTION
A renvoyer à Jacqueline Zoric par FAX au 01 53 35 16 77Ou par courrier : Techniques de l’Ingénieur, 249 rue de Crimée, 75019 ParisContactInscription : 01 53 35 16 68 – [email protected]Programme : Gautier Bernard – 01 53 35 16 23 – [email protected]Je m’inscris à :♦ la conférence du 30 juin 2009 – 750 € HTEt à :♦ la formation du 29 juin 2009 – 490 € HT♦ la formation des 1-2 juillet 2009 – 990 € HT♦ la formation du 1-2 juillet 2009 – 990 € HT♦ la formation du 3 juillet 2009 – 490 € HT♦ la formation du 3 juillet 2009 – 490 € HT150 euros de remise pour toute inscription couplant la conférence et une formation *100 euros de remise pour toute inscription avant le 30 avril 2009 *Gratuit pour le 3ème inscrit de la même entreprise* Offre non cumulable

Les objets communicants, aujourd’hui et demain

Une reconnaissance mondiale confirmée
Fin 2008, le pôle de compétitivité SCS (Solution Communicantes Sécurisées) vient de voir son label de « pôle mondial » renouvelé pour trois années supplémentaires, et notamment en raison de son action d’intégration des PMI dans ses projets (40% des porteurs de projets sont des PME, 40% des acteurs dans les projets labellisés sont des PME et 64 % des adhérents sont des PME). Le 5e Forum OCOVA (organisé par Hautes-Alpes Développement) fut une parfaite illustration de l’importance prise par les petites structures. Les 150 participants au colloque, tous impliqués dans le développement de solutions innovantes autour de ces objets (cartes à puce, téléphone portable, assistants personnels, périphériques informatiques, terminaux GPS…) et la population de Gap ont pu découvrir des innovations qui sont à la veille de leur commercialisation. Des applications axées sur la téléphonie mobile (cf. l’article Téléphones mobiles : le NFC pour tous), la technologie RFID et les capteurs sans fil.

De l’énergie pour alimenter les objets communicants ?
Parallèlement à ces développements, les chercheurs, notamment ceux de Minalogic, travaillent sur des solutions miniaturisées intelligentes (puces et logiciels enfouis). Leurs objectifs sont multiples :
  • multiplier par 5 la résolution des caméras des portables et diviser leurs prix par 10 ;
  • assurer toutes les fonctions d’un combiné avec une seule puce ;
  • développer des chips asynchrones qui consommeront 3 à 10 fois moins d’énergie…
Fig : Principales fonctions d’un micro-système. Tendances énergétiques.Car l’autonomie des sources d’alimentation des objets communicants et la gestion de cette énergie constituent aujourd’hui encore une barrière à leur développement. Si un tag RFID ou un pacemaker ne consomme que 10 µW, on atteint 100 µW avec un capteur sans fil, 10 mW avec un récepteur bluetooth et 100 mW avec MP3 ou un PDA. En fait, il faut prendre en compte leurs taux d’utilisation. Par exemple, si on compte 6 acquisitions / heure pour un capteur, la consommation journalière ne dépassera pas … 2 µWh/j.De multiples pistes sont suivies par les laboratoires comme le Leti, Minatec ou l’Institut Carnot CEA-Leti. Par exemple, les vibrations qui sont en effet susceptibles de fournir une densité de puissance maximale de 10 µW/gramme de masse résistante ou les déformations (1,21 J/g de polymère diélectrique). Autre source d’énergie « gratuite », la thermoélectricité, y compris la chaleur dégagée par un corps humain qui rayonne 50 W. À base de nano-fils de SiGe qui pourraient être intégrés dans les doublures des vêtements, elle offrirait un rendement de 50µW/cm2 – 0,5V. Des nano-fils et des nano-cristaux qu’on pourrait aussi retrouver dans les micro-cellules solaires (100 µW/cm2, en intérieur). Le domaine du stockage fait également appel aux microotechnologies. En haut : principe d’une micro-pile à combustible (hydrogène) dotée d’électrodes nano-structurées.En bas : les micro-batteries à films minces 3D sont plus spécialement dédiées à la RFID.Qu’il s’agisse des micro-batteries à films minces 3D (10 µm d’épaisseur) dotées d’électrodes nano-structurées plus spécialement dédiées à la RFID ou des micro-piles à combustible (hydrogène) sur substrats en silicium (électrodes nano-structurées et nano-catalyseurs). Ces micropiles, d’une puissance allant de quelques milliwatts à 10 W, associées à une cartouche de combustible peuvent fonctionner deux à trois fois plus longtemps qu’une batterie au lithium. En effet, la densité d’énergie massique accessible est voisine aujourd’hui d’une batterie lithium ion et sera dans un futur proche de 500 Wh/kg contre 200 Wh/kg aujourd’hui. Dans le cas de terminaux sans fil, des systèmes hybrides micropac/batteries au lithium sont nécessaires, la batterie lithium assurant les pics de puissance et la micropac, l’autonomie. Manifestement, les microstructures semblent constituer une voie particulièrement prometteuse.

Le premier réseau à 40 Gb/s

Le réseau déployé en 2007 dans le cadre du projet Carriocas (Calcul réparti sur réseau internet optique à capacité surmultipliée),piloté par Alcatel-Lucent et dont la performance vient d’être portée à 40 Gb/s, est le premier réseau à ultra haut débit multipoint. En se connectant à distance, les utilisateurs de ce réseau expérimental pourront accéder à de très gros volumes de données et ainsi réaliser des avancées majeures dans un nouvel environnement de travail collaboratif, notamment dans le domaine de la simulation et du calcul numérique à hautes performances. Les utilisateurs de ce réseau, dont la gestion et l’opération sont coordonnées par France Telecom Orange Labs, pourront par ailleurs visualiser et exploiter les résultats au moyen d’un mur d’images de 23,9 millions de pixels et mesurant 5,6 m de haut sur 3,1 m de large. Deux liens optiques véhiculant chacun une longueur d’onde à 40 Gb/s ont été déployés. Le premier entre Clamart (centre R&D de EDF) et Saclay (Institut de Recherches sur les lois Fondamentales de l’Univers du CEA). Le second entre Saclay et Bruyères-le-Châtel avec le centre de calcul Ter@tec qui héberge les supercalculateurs du CEA. Le site d’Orsay avec le Laboratoire de l’Accélérateur Linéaire (LAL) de l’Université Paris-Sud/CNRS est de son côté relié à Clamart et à Bruyères le Châtel via 4 longueurs d’onde à 10 Gb/s. Les transpondeurs optiques à 40 Gb/s déployés sont des éléments conçus, assemblés et testés par Alcatel-Lucent. Ils ont été optimisés à la fois en termes de performance, de transmission (c’est-à-dire compatible avec desdistances supérieures à 1000 km), de coût, d’encombrement et de consommation énergétique. De plus, ils sont intégrés dans les plate-formes initialement prévues pour la transmission à 10 Gb/s, ce qui a permis d’augmenter le débit sans modification des systèmes préalablement déployés tout en utilisant les fibres existantes du réseau de France Telecom.Fig : Mur d’images de 23,9 Mpixels (5,6 × 3,1 m).Les prototypes validés dans le cadre du projet vont donner lieu très rapidement à une version commerciale. D’ores et déjà, des opérateurs télécoms de premier plan demandent dans leurs appels d’offres ce type de transpondeurs capables de concentrer 4 trains à 10 Gb/s sur une longueur d’onde unique à 40 Gb/s.

Téléphones mobiles : le NFC pour tous

Utiliser son téléphone mobile comme moyen de paiement (billettique, achat ou rechargement de titres de transport…), c’est l’une des applications possibles de la technologie NFC (Near Field Communication). Twinlinx développe une solution technologique qui ajoute des applications NFC à n’importe quel mobile existant.La technologie NFC (Near Field Communication) offre bien des possibilités : couponing, contrôle d’accès, lecture d’informations en approchant un mobile d’étiquettes électroniques disposées dans la rue, sur des affiches, sur des colis ou dans des abris bus, échange de cartes de visite, de photos ou de vidéos… Mais les prévisions les plus optimistes prévoient que seulement 15% des mobiles seront dotés de cette fonctionnalité en… 2012 ! Qu’importe : avec le système développé par la société aixoise Twinlinx, le NFC devient accessible avec n’importe quel mobile existant sur le marché et ne nécessite pas la mise en place de standard ou/et d’accords entre les différents acteurs du marché NFC pour être opérationnel.Tel est l’objet du projet « Blu Link 2008 » supporté par le pôle de compétitivité mondial SCS, qui a réuni les entreprises Twinlinx (porteur du projet), Smart Packaging Solutions et Mobile Distillery, ainsi que le laboratoire IM2NP, la RATP et Amadeus étant les premiers expérimentateurs.La solution Blu Link 2008 consiste en une plate-forme NFC incluant matériel, logiciel et puces basés sur le concept d’autocollant électronique, NFC utilisant le bluetooth pour créer la connexion avec le téléphone. Le tag joue le rôle d’interface entre la technologie NFC présente sur des terminaux applicatifs sans contact et un téléphone bluetooth. Pour probablement moins de 20 euros, le téléphone portable « classique » devient alors un compagnon intelligent sans-contact.Fig : Un minuscule autocollant ajoute la fonction NFC à un portable bluetooth.Cet autocollant de petite dimension (inférieur à 3 x 4 cm pour une épaisseur de l’ordre du millimètre) est apposé à l’extérieur du téléphone. La fonction NFC, indépendante de la carte SIM, est ainsi activée et devient alors immédiatement disponible sur tout téléphone bluetooth. Avec un « plus » : cette solution est compatible avec tous les systèmes utilisant les cartes sans contact dans le monde.

Communication entre calculateurs : l’approche “tout électronique”

Combien de fois n’a-t-on pas entendu dire lors de colloques que “le logiciel est noble tandis que le “hardware” – la quincaillerie – en un autre mot : l’électronique pure, est sujet d’arrière-garde! L’initiative d’une start-up – Arion Entreprise – en développant sans doute le concept le plus innovant actuellement dans le monde de la transmission/communication de données temps réel entre calculateurs, prend à contre-pied cette assertion désuète. En effet, la technologie originale Arion prône le “tout électronique” pour suppléer aux limites actuelles du “tout logiciel” dans les applications de communication de données/voix temps réel (informatique industrielle – contrôle de process – automatisme – réseaux Ethernet et autres – interconnexion temps réel 1 Gigabits multiprotocole – streaming vidéo/broadcast – télécom…).

“Il ressort à l’évidence des études de marché de ces dernières années que les mondes de l’informatique et de l’électronique sont en pleine phase de mutation”, commente Renaud Mesnager, Président-cofondateur d’Arion Entreprise. “L’informatique s’est développée sans retenue depuis plus de 20 ans. Confer la loi Moore! Aujourd’hui, grâce aux progrès de l’intégration des composants, les fabricants de semi-conducteurs peuvent mettre sur le marché des composants configurables dont la taille et les capacités combinatoires rivalisent largement avec ce qui est possible de faire avec les logiciels – par exemple le contrôle de process – et avec des performances temporelles et une sûreté de fonctionnement très supérieures à ce que l’informatique peut proposer. Notre démarche s’inscrit sur cette mutation”.

Dans les solutions traditionnelles, l’indépendance de l’application par rapport à la communication est assurée par un ensemble de services logiciels appelé “structure d’accueil”. Cette indépendance est acquise au prix d’une charge CPU importante, et cela, au détriment de l’application. Dans la solution Arion, la structure d’accueil et les protocoles de communication sont traités au niveau matériel et libèrent la puissance CPU.Ainsi, le composant Arion (100 ou 1000 kbits/sec Ethernet) avec sa seule électronique est mille fois plus rapide et sûr que les logiciels classiques. En effet, jusqu’à présent, les échanges de données entre calculateurs ou entre un calculateur et son environnement physique étaient réalisés par des logiciels exécutés par le processeur principal sous la conduite de “l’operating system” (OS). Ce qui pénalisait grandement et inéluctablement les performances de ce processeur dit aussi unité centrale.La technologie brevetée Arion simplifie tout cela en offrant uniquement par son seul composant le transfert direct d’informations entre les mémoires des calculateurs ou entre la mémoire d’un calculateur et ses entrées-sorties, et cela sans déranger le processeur principal. En conséquence cette technologie assure une rapidité d’échanges d’informations et une sûreté du fonctionnement très supérieures dans des systèmes où l’erreur n’est pas permise.

Ethernet à 1Gbits/sec

Récemment, Arion Entreprise a annoncé une évolution importante de son offre marquée par une montée en puissance de sa gamme avec :

  • Arion-1000 (version Ethernet 1 Giga de ce composant dont la caractéristique technique repose essentiellement sur une modification de sa structure interne [brevetée] lui permettant de supporter et gérer de hauts débits [1 Gigabits/sec.]) ;
  • Arion-I/O : module de gestion/contrôle d’Entrées/Sorties (version automate distribuée temps réel) ;
  • AgoraCom : un switch déterministe 1 Gigabits, multiprotocole et multiréseau qui est une véritable passerelle universelle entre divers réseaux… Une offre unique sur le marché international des outils de commutation multiprotocoles/multiréseaux ultra rapide (Ethernet à 1 Gbits/sec!).

La vidéosurveillance intelligente décrypte les images dégradées

Une des situations les plus gênantes relative au déploiement d’une application de vidéosurveillance intelligente est la présence des éclairages et des phares provenant du domaine public. La société Evitech propose des solutions de vidéo surveillance intelligente qui permettent d’analyser les événements malgré le halo des phares.

Dans le cadre du projet XVision, du pôle System@TIC, Evitec étudie des techniques de vidéosurveillance intelligente permettant de détecter des événements même en contre-jour. Ce projet sera l’occasion de mettre en œuvre un nouveau capteur, inventé par le Professeur Y. Ni (de NIT) pour le contre-jour et de tester différents algorithmes permettant de résister à ce type de situations. En attendant ce capteur, Evitech a développé, dans le cadre de ce projet, un premier traitement susceptible de s’appliquer aux capteurs CCD et CMOS courants, pour le cas particulièrement sensible où un objet mobile (une voiture) éclaire la caméra, sans la saturer complètement, avec un halo rendant la détection quasiment impossible. Ce traitement sera encore plus performant avec le capteur XVision, puisque les caméras qui l’intégreront résisteront à la saturation que pourraient provoquer le soleil ou les pleins phares de face.

Avec un système ordinaire de vidéo surveillance intelligente, un véhicule est détecté avec son halo, ainsi que les effets lumineux qu’il provoque. Lorsqu’une silhouette quitte le véhicule et aborde la périphérie sur le côté, on assiste à une agrégation de la silhouette suspecte dans le halo. Il n’y a alors que deux solutions : émettre une alarme “à tout hasard”, ou ne pas en émettre (mais alors on risque de rater une intrusion).Pour offrir malgré tout un fonctionnement satisfaisant dans ce type de situation, Evitech a mis au point dans ses solutions Jaguar et Eagle de vidéo surveillance intelligente un système d’analyse différentielle de composantes, qui agit comme des superpositions de calques dans un schéma d’architecte.Au calque le plus “profond” de la nuit avec la rue tranquille, vient se superposer celui du lampadaire, puis celui de la voiture et des phares, puis celui du reflet sur le côté, et finalement, au-delà de ces calques, on retrouve celui de l’intrus dont on peut alors analyser le comportement.

Réalité virtuelle et prise en charge du handicap

Pouvez-vous nous présenter les activités de l’Entité Handicaps et Innovations Technologiques des Arts et Métiers ParisTech ?

Evelyne Klinger : « L’Entité Handicaps et Innovations Technologiques fédère les intérêts communs de Laval Agglomération, du Conseil Général de la Mayenne et des Arts et Métiers ParisTech pour les applications thérapeutiques de la réalité virtuelle. Elle a été créée à Laval le 1er septembre 2006, sous ma responsabilité, au sein de l’Equipe Présence et Innovation (LAMPA, CER-ENSAM Angers). Nos activités de recherche visent la conception, le développement et l’intégration de modèles, de méthodes et de systèmes fondés sur les technologies de la Réalité Virtuelle pour répondre au besoin d’outils de prise en charge des dysfonctionnements humains. Nous travaillons plus particulièrement sur la mise en place de méthodes de rééducation des fonctions exécutives chez les patients cérébrolésés.Nous développons aussi des actions de sensibilisation au handicap dans les contextes de la malvoyance et de l’accessibilité.

Nous œuvrons également au partage et à la diffusion des informations concernant l’usage de la réalité virtuelle dans les domaines de la santé et du handicap grâce à notre réseau d’intérêt, le réseau ThéRV.

Que peut apporter la réalité virtuelle à la prise en charge des handicaps ?

La prise en charge de personnes souffrant de handicap se fait dans le souci de leur évolution psychologique et motrice, de la reprise de leurs activités de vie quotidienne, ou encore du maintien de leur autonomie. Afin d’améliorer l’efficacité de cette prise en charge, diverses mesures doivent être mises en œuvre comme le dépistage précoce des dysfonctionnements neuropsychologiques et moteurs, le développement d’outils de diagnostic sensibles, l’évaluation des conséquences en vie quotidienne, ou encore la mise en place et l’évaluation de rééducation. Diverses approches de prise en charge ont été développées au fil des ans par l’ensemble des soignants et encadrants qui en soulignent certaines limites dont le manque de transfert et de généralisation des acquis ou encore le manque de validité écologique. Les technologies de la réalité virtuelle permettent de proposer une nouvelle approche, interactive, sécuritaire, accessible quel que soit le handicap, et motivante

Quels sont les atouts de la réalité virtuelle par rapport aux méthodes de prise en charge classiques ?

La réalité virtuelle présente des atouts dans la prise en charge du handicap et ceux-ci peuvent être déclinés selon deux aspects, selon qu’ils proviennent de l’usage des techniques ou selon qu’ils bénéficient au contexte humain. D’un point de vue technique, la réalité virtuelle est à la fois fondée sur les potentiels de l’informatique et sur ses caractéristiques propres que sont la 3D, le temps réel, l’interaction et l’immersion. Elles permettent, par exemple : d’engager l’utilisateur, en toute sécurité, dans des séances d’évaluation ou d’entraînement contrôlées ; de capturer, en temps réel, l’activité et la performance du participant selon des composantes variées (comportementales, cognitives, motrices, physiologiques), et de les enregistrer pour une utilisation ultérieure ; de produire, en temps réel, un retour d’information au participant sous une grande variété de formes et de modalités sensorielles (visuelles, sonores, tactiles, olfactives, haptiques). La réalité virtuelle permet de produire et de gérer des stimuli multi sensoriels variés et ainsi de créer, à partir de bases d’environnements, des situations virtuelles adaptées à des objectifs thérapeutiques divers. D’un point de vue humain, la réalité virtuelle permet de proposer des exercices attractifs qui augmentent la motivation des participants à s’entraîner, à faire des efforts. Elle favorise la personnalisation des séances d’entraînement, en adaptant la complexité de la tâche aux capacités du participant et à sa progression. Certaines études ont montré que les capacités acquises dans le monde virtuel pouvaient être transférées dans les mêmes activités du monde réel, voire généralisées à d’autres applications. C’est ce qui fait notamment l’intérêt de la réalité virtuelle en formation (cf les simulateurs de vol).

Quelles en sont les limites ?

Les limites de l’utilisation de la réalité virtuelle sont rencontrées quel que soit son domaine d’utilisation, mais sans doute faut-il leur attacher plus d’attention dans les domaines de la santé et du handicap du fait des limitations des capacités des personnes.

Lorsque l’on immerge une personne dans un environnement virtuel, on peut induire des incohérences sensorimotrices et cognitives à cause, par exemple, de paramètres mal adaptés. Par exemple, ce que l’on perçoit visuellement n’est pas en rapport avec ce que l’on perçoit au niveau tactile ou proprioceptif, et notre cerveau éprouve des difficultés à fusionner les informations. Le participant peut ainsi ressentir des malaises, appelés cinétose, et proches du mal des transports. Actuellement, les modalités sensorielles sollicitées sont encore souvent limitées aux modalités visuelles et auditives et l’implication sensorimotrice est souvent rudimentaire.

Du point éthique et culturel, tous les potentiels de la réalité virtuelle ne demeurent des atouts que dans la mesure où leur utilisation n’entraîne pas de nuisance pour l’utilisateur. Par conséquent, dans le contexte de la prise en charge du handicap, un contrôle préalable des participants avant la confrontation au monde virtuel semble nécessaire pour évaluer les risques. Il est également nécessaire de vérifier, après une séance de réalité virtuelle, que le participant a bien conscience de son retour dans le monde réel. Sera-t-il par exemple raisonnable de faire une séance de conduite en réalité virtuelle avant de prendre réellement le volant ?

Pouvez-vous donner quelques exemples d’environnements virtuels utilisés à des fins cliniques ?

Je citerai tout d’abord l’exemple que je connais le mieux, le VAP-S, pour l’avoir conçu et développé avec le Dr Rose-Marie MARIE, neurologue au CHU de Caen, en 2002. Il s’agit d’un supermarché virtuel qui permet de mettre en place des procédures d’évaluation et de rééducation des fonctions exécutives. L’outil est d’emploi facile après une courte familiarisation et ne nécessite pas d’interface informatique sophistiquée. Il est actuellement utilisé dans des collaborations cliniques avec le CHU de Bordeaux et l’université de Haïfa en Israël.Je citerai également le système commercialisé par le groupe GestureTek situé à Toronto au Canada. Il propose une technologie fondée sur la vidéo immersive qui place le participant dans un environnement ludique et interactif tandis qu’il est guidé dans des exercices de rééducation motrice prescrits par le thérapeute.

Quels sont les défis à relever pour que ces techniques se développent ? Pour qu’elles soient acceptées par les patients et par les thérapeutes ?

Les solutions commerciales sont encore rares. Un des premiers défis sera de faire sortir des laboratoires les projets menés lors de collaborations scientifiques entre chercheurs issus des Sciences de l’Ingénieur et des Sciences Humaines. La motivation des industriels pour ce nouveau domaine d’application de leurs technologies nous permettra de le relever.Nous devons particulièrement nous soucier de créer des systèmes de réalité virtuelle qui soient accessibles à chacun, quel que soit son niveau d’éducation, quel que soit son niveau social, quel que soit son éloignement par rapport au centre de soins. L’introduction large de ces outils dans les établissements de rééducation ou en ambulatoire conduira vers un bouleversement des pratiques thérapeutiques. »

Les fonctions exécutives sont définies comme l’ensemble des processus nécessaires à la réalisation et au contrôle des actions et des comportements dirigés vers un but. L’altération de ces processus est une séquelle fréquente après traumatisme crânien ou lors de certaines pathologies neurodégénératives. Conduisant à un handicap sévère, elle compromet l’autonomie des personnes. La validité écologique est le degré de pertinence présenté par un système d’entraînement par rapport au monde réel.

En savoir plus :
Evelyne Klinger est Responsable Entité Handicaps et Innovations Technologiques aux Arts & Métiers ParisTech Angers – P&I Lab

Caution des exploitants des ICPE

Quel est le but de l’exigence de cette caution par les Pouvoirs Publics ?

Marc Franceschi : Dans la droite ligne du Grenelle de l’Environnement et du principe Pollueur-Payeur adopté par les pays de l’OCDE, le législateur français soumet l’exploitation des sites présentant un risque élevé pour l’environnement à la délivrance d’une autorisation préfectorale. Ainsi, pour les sites présentant un risque élevé au regard des quantités de produits traités et/ou de leur dangerosité, l’exploitant doit obligatoirement présenter une garantie financière délivrée par un établissement financier (ou une compagnie d’assurance) agréé par l’administration. En effet, l’Etat souhaite avoir la certitude que, même en cas d’insolvabilité de l’exploitant, les frais de prévention et de lutte contre la pollution seront pris en charge par le garant ayant donné sa caution financière. C’est pour répondre à cette obligation qu’Atradius a développé une garantie spécifique.

Pourquoi proposer ce type de caution aux entreprises ?

Aujourd’hui, la notion de patrimoine écologique est une priorité politique et les entreprises doivent désormais s’adapter à ces nouvelles règles. Elles se doivent d’être des « entreprises citoyennes ».

Ceci est d’autant plus important lorsque l’entreprise manipule des produits et matières premières présentant un danger potentiel pour l’environnement. Par conséquent, la loi leur impose d’avoir les « capacités techniques et financières nécessaires pour mettre en œuvre l’activité ou remettre en état le site dans le respect de la protection des intérêts visés à l’article 1er » de la loi de 1976 sur les ICPE (cf. encadré).

En effet, le but n’est ne plus de rechercher les coupables après un accident mais d’être « responsable » en anticipant avant l’exploitation pour éviter les détériorations ou pour remettre éventuellement en état le site après l’exploitation.

Concrètement, l’obligation de garantie financière concerne les installations de stockage de déchets, les carrières et les installations dites « Seveso ». Ce sont donc les secteurs de l’industrie chimique, de la collecte et du traitement des déchets, du BTP et de l’extraction qui sont principalement impactés.

Quel est le rôle d’Atradius dans cette démarche ?

Selon le Code de l’environnement, l’exploitation d’un site présentant un risque élevé pour l’environnement est soumis à la délivrance d’une garantie financière. Le montant de cette garantie est fixé par l’administration fiscale, en fonction des risques estimés. L’entreprise est libre de choisir son garant lors de la présentation du dossier de demande d’autorisation d’exploitation auprès de la préfecture.

Atradius Environnement répond à cette obligation légale. Nous couvrons le risque d’insolvabilité de l’exploitant d’un site ICPE, pour régler les frais de prévention et de lutte contre la pollution du site. En cas d’insolvabilité, nous prenons en charge les frais inhérents à la surveillance et à la sécurisation du site ainsi qu’aux interventions en cas d’accident. Ainsi, nous permettons aux entreprises de respecter leurs obligations légales et de poursuivre leur exploitation en toute sérénité.

Comment se fait le choix des entreprises que vous cautionnez ?

Notre analyse porte sur l’entreprise elle-même, sa maîtrise du métier et sur sa capacité financière. Notre objectif est de s’assurer que l’entreprise contrôle bien ses processus et sa chaîne managériale.Concrètement, nos commerciaux, formés à la réglementation ICPE, rencontrent les responsables de l’entreprise (directeurs généraux et financiers, ingénieurs), effectuent également une à deux visites dans l’entreprise et se basent sur différentes sources d’information (presse, bases de données, informations sur les sociétés, etc.). Il est important pour nous de bien connaître l’entreprise car la durée de la garantie est de 3 à 5 ans, ce qui est relativement long pour une caution et représente un véritable engagement pour nous.

Vous vous lancez sur ce marché initialement couvert par les banques : pourquoi ?

M. Franceschi : Fort de notre expérience dans la caution, Atradius a lancé cette nouvelle offre début 2008 en l’adaptant aux contraintes que ce type de caution environnementale suppose : un engagement plus long (3 à 5 ans renouvelables au lieu des 6 mois à 3 ans pratiqués pour d’autres types d’assurance) et une réévaluation périodique du montant en fonction de l’évolution de l’activité du client. En proposant des montants et des durées de garantie élevés, nous permettons aux entreprises de respecter leurs obligations légales et de poursuivre leur développement dans le respect de l’environnement, cela alors même que les banques resserrent leurs conditions d’accès au financement et au crédit.Loi n°76-663 du 19 juillet 1976 relative aux installations classées pour la protection de l’environnement Article 1er de la loi du 19 juillet 1976 Sont soumis aux dispositions de la présente loi les usines, ateliers, dépôts, chantiers et d’une manière générale les installations exploitées ou détenues par toute personne physique ou morale, publique ou privée, qui peuvent présenter des dangers ou des inconvénients soit pour la commodité du voisinage, soit pour la santé, la sécurité, la salubrité publiques, soit pour l’agriculture, soit pour la protection de la nature et de l’environnement, soit pour la conservation des sites et des monuments.

Synergie recherche et industrie au Japon : témoignage d’un jeune chercheur

Denis Guimard travaille actuellement dans un laboratoire de photonique de Tokyo en étroite collaboration avec l’industrie.

Pourquoi avoir choisi un laboratoire japonais pour effectuer votre post-doc ?

Après ma thèse, je voulais élargir mon domaine de compétences et acquérir une expérience à l’étranger dans la fabrication de matériaux semiconducteurs par un procédé en phase vapeur, utilisé couramment dans l’industrie.Une opportunité s’est présentée au Japon à l’Université de Tokyo et je l’ai saisie. Je travaille depuis sur la croissance de nanostructures III-V par la technique de MOCVD (Metal Organic Chemical Vapor Deposition) pour la fabrication de diodes lasers. J’ai la chance de travailler dans un groupe leader en photonique qui me permet d’aborder des aspects de R&D dans le cadre d’une forte collaboration avec l’industrie.De plus, au défi scientifique s’ajoutait le défi humain, lié aux différences culturelles. Je peux dire que cette expérience aura été extrêmement riche et formatrice à tous les niveaux. La manière de travailler au Japon est très différente de celle que l’on connaît en Europe : l’esprit d’initiative y est perçu différemment et les rapports hiérarchiques paraissent souvent rigides au premier abord. On doit donc s’adapter tout en gardant ce qui fait notre différence. C’est un équilibre permanent à trouver. Le point le plus important est le respect profond du travail et de l’effort : les résultats priment sur tout le reste.

Quelles recherches menez-vous actuellement ? Quels en sont les enjeux, les applications et les potentialités industriels ?

Ma principale activité concerne la réalisation de lasers à boîtes quantiques pour les télécommunications optiques par la technique de MOCVD. L’intérêt de cette technique est qu’elle permettrait de réduire fortement le coût de fabrication de ce type de dispositifs. Nous avons démontré récemment la réalisation de tels lasers et nous travaillons désormais à leur amélioration. Un brevet a notamment été déposé. Le but est de remplacer les lasers à puits quantiques, actuellement commercialisés pour les réseaux à fibres optiques. Le marché est donc énorme.Ce projet est réalisé en étroite collaboration avec Fujitsu et QD Laser Inc., une spin-off de Fujitsu et d’un groupe d’investissements, Mitsui. Cette compagnie est l’aboutissement d’une collaboration étroite entre l’Université de Tokyo et Fujitsu. Elle a reçu notamment un prix pour l’innovation, décerné par le Wall Street Journal, en 2006.

Quelles différences majeures percevez-vous entre la recherche en France et au Japon ?

La première différence est que la recherche est bien mieux considérée au Japon. Le Japon a bâti sa puissance sur la R&D, la recherche est donc considérée comme une nécessité. Même au plus fort de la crise économique que le Japon a connue à la fin des années 90, les budgets de recherche ont été maintenus. En France, les budgets de recherche, dans le public et surtout dans le privé, ont tendance à dépendre des aléas de la conjoncture économique. La deuxième différence majeure est la forte imbrication des recherches publiques et privées. Dans mon groupe, la moitié des gens sont en fait des chercheurs détachés de grands groupes japonais, comme Toshiba, NEC, Sharp et Fujitsu. La collaboration public-privé prend tout son sens au Japon et ceci ne se fait pas au détriment d’une recherche académique de qualité.L’environnement de recherche au Japon est donc très différent. Les budgets et moyens de recherche sont plus importants, les opportunités sont plus nombreuses et il y a une reconnaissance qui est très gratifiante à laquelle on est très peu habitué en France.

Comment envisagez-vous votre retour en France ?

Comme la plupart des chercheurs français à l’étranger, je souhaiterais revenir en France à terme, mais pas à n’importe quel prix. Les salaires et les conditions de recherche rendent le public peu attractif, et les opportunités dans le privé en R&D sont limitées. Je dois avouer que les situations de collègues chercheurs travaillant en France, ou du moins leurs tentatives de revenir en France, ne prêtent guère à l’optimisme. Tout dépendra des opportunités. Mais on essaie de gérer sa carrière en pensant à l’international, car là, nos cursus sont reconnus et demandés. Si j’avais dû raisonner en fonction du contexte français, je n’aurais certainement pas fait de thèse.Je suis persuadé cependant, du moins je l’espère, que la situation changera en France à terme, car un pays sans recherche appliquée, sans véritable R&D industrielle avec une forte collaboration avec la recherche académique, ne peut prétendre à un rôle majeur à l’avenir. L’Allemagne est encore un exemple à suivre dans ce domaine.