Retour d’expérience : « confronter les point de vue au sein d’un même secteur d’activité »

La mise en œuvre effective de Reach est un casse-tête pour beaucoup d’entreprises. Jérôme Durantet est responsable des affaires réglementaires et HSE produits chez BOSTIK. Il nous explique comment sa société réalise les ajustements imposés par Reach, qui touchent toute la chaîne d’approvisionnement.La mise en place de Reach est, pour beaucoup d’entreprises, un véritable casse-tête. Jérôme Durantet, responsable des affaires réglementaires et HSE produits pour Bostik, nous explique comment sa société a appréhendé ces changements.« Je m’occupe de toutes les affaires réglementaires au niveau de Bostik SA et Reach en fait partie. REACH est un travail très important en ce moment, je vais vous expliquer comment nous vivons l’expérience Reach en tant que formulateurs », commence Jérôme Durantet.Bostik est un des leaders mondiaux dans les adhésifs. Cette société est présente dans 50 pays à travers le monde et possède des usines dans de nombreux pays. Bostik produit 930.000 tonnes d’adhésif par an, utilisant bien évidemment quantité de préparations et substances.

Bostik, acteur important de l’adhésif au niveau mondial
Au niveau français, environ 900 personnes travaillent pour Bostik, numéro un sur le secteur avec 7 usines et 2 centres de recherche. Comme le souligne Jérôme Durantet, Bostik est présent à la fois sur le marché industriel, celui du grand public et dans le bâtiment et la construction, c’est ce qui fait la spécificité et aussi la complexité de cette entreprise.Pour bien comprendre le positionnement de Bostik par rapport aux exigences liées à Reach, il faut tout d’abord comprendre les nécessité et contraintes de la fabrication d’adhésifs, en matière de produits notamment. Un adhésif est une formulation complexe qui mélange plusieurs types de substances ou de préparations. On peut à la fois avoir des substances organiques ou minérales, des substances naturelles comme des résines de pin, des cires et des paraffines, qui sont des substances liées à l’industrie pétrolière, des solvants, dont l’eau, et des polymères. « Nous sommes acheteurs de substances et de préparations. Pour les polymères, nous sommes aussi fabricants. En résumé, de toute façon, nous sommes utilisateur aval », précise Jérôme Durantet, qui reprend : « Pour montrer notre positionnement, il est nécessaire de reprendre toute la chronologie de la chaîne d’approvisionnement, parce que selon le règlement, tout le monde est concerné par rapport à Reach. Concrètement, en reprenant la chaîne d’approvisionnement, Il y a d’abord le fabricant ou importateur. Ensuite, le fabricant va vendre à un fournisseur de matières premières qui va lui-même le vendre à un fabricant de préparations, qui va le vendre à un utilisateur de préparation pour arriver enfin à un utilisateur final qui est un industriel, mais aussi un professionnel ou un consommateur.

Faire remonter les usages
« En utilisation finale, on fabrique une voiture, un téléviseur ou toutes sortes d’objets et d’articles. BOSTIK fabrique des préparations, mais est aussi utilisateur de préparations puisque nous en achetons et nous reformulons. Nos clients représentent la séparation entre la partie de la chaîne d’approvisionnement qui s’occupe de la chimie et la dernière partie qui n’est pas de la chimie. Le dialogue est très important, puisque quand un chimiste parle à un non chimiste ce n’est pas simple », conclut Jérôme Durantet. Par la suite, le fabricant doit évaluer les risques de sa substance. L’utilisateur aval doit identifier toutes les substances qu’il utilise afin de s’assurer d’une utilisation en toute sécurité de chaque substance, donc faire remonter les usages. « Avec REACH, c’est la première fois que nous avons vraiment un règlement qui oblige à une communication à la fois en amont et tous les acteurs ont cette obligation », précise le responsable des affaires réglementaires pour Bostik.Selon l’agenda de REACH, actuellement, en octobre 2009, toutes les substances ont été pré-enregistrées. A titre d’information, pratiquement 150.000 substances ont été ainsi pré-enregistrées, contre 30.000 prévues au départ. Sur ces 150.000 substances, plus de 2.600.000 dossiers de pré-enregistrement ont été déposés par environ 60.000 entités légales. Pour comparaison, l’inventaire européen des substances existantes regroupe environ 100.000 substances.Bostik a donc entrepris des actions concrètes, sur le terrain, vis-à-vis de Reach, pour entrer au mieux en adéquation avec les contraintes du nouveau règlement. Jérôme Durantet les détaille :
  • vérifier si nous sommes fabricants ou importateurs,
  • ensuite, double communication en amont avec nos fournisseurs et en aval avec nos clients,
  • et bien sûr la rédaction des FDS étendues avec un scénario d’exposition, ce dernier concernant les préparations, ce qui représente le futur problème.

L’importation des substances peut poser problème
« Notre première démarche, avant la période de pré-enregistrement, a été de vérifier notre portefeuille de matières premières pour regarder si nous étions fabricants de substances, en l’occurrence non. Mais nous fabriquons ce que l’on appelle des pré-polymères, donc des petits polymères qui vont devoir passer au stade final de polymères durant l’application du produit. Est-ce que ce pré-polymère est une substance ou un polymère ? Dans le premier cas, on doit enregistrer, dans le deuxième non. En l’occurrence, nous ne fabriquions que des polymères », explique Jérôme Durantet, soulignant le véritable casse-tête que peut devenir Reach.Mais ce n’est pas tout. L’importation des substances peut poser problème : « Nous achetons à des fournisseurs des substances telles quelles ou contenues dans des préparations. Ces fournisseurs sont-ils en Europe ou en zone non Europe ? Dans le deuxième cas, cela peut être problématique puisqu’il va falloir avoir un représentant exclusif pour assurer le pré- enregistrement et l’enregistrement. Nous avons également constaté que le problème d’importation des polymères allait être assez important. Jérôme Duranter se réfère alors à l’article six du nouveau règlement :« Si l’on a une quantité de monomères libres ou liés, au dessus de 2 %, si la quantité nominale de ces monomères est supérieure à une tonne et s’il n’est pas enregistré en amont de notre propre chaîne d’approvisionnement, il va falloir enregistrer le ou les monomères du polymère que l’on importe ». Cela peut paraître anodin à priori, mais la différence polymère/monomère pose problème. La société Bostik achète des polymères à la base pratiquement non dangereux (PVC, polyéthylène par exemple), mais ce n’est pas le cas pour les monomères. Le travail et les vérifications ne sont donc pas du tout les mêmes pour le dossier d’enregistrement. Pour la problématique de l’importation de polymères, il faut appréhender Bostik en tant que société mondiale. Quand un produit vient des États-Unis en Europe, même si c’est au sein de la société, la réglementation REACH s’applique.

Un nombre de pré-enregistrements très élevé
Le nombre de pré-enregistrements a été extrêmement élevé et l’agence européenne habilitée à les traiter s’est vue submergée de dossiers ces derniers mois. En effet, beaucoup d’utilisateurs aval, dont la société Bostik fait partie, ont décidé de pré-enregistrer leur substances en préventif afin d’éviter tout risque de rupture d’approvisionnement au cas où un fournisseurs aurait décidé de ne pas les informer. En effet, comme l’explique Jérôme Durantet, « entre la fabrication d’une substance et l’arrivée dans notre adhésif, il peut y avoir une dizaine ou plus d’intervenants et d’étapes. Avant d’arriver à l’origine de la fabrication de la substance, il faut remonter non pas uniquement au fournisseur, mais à plusieurs niveaux intermédiaires. Le temps de monter et redescendre la chaîne, pour éviter tout problème, nous avons pré-enregistré. En cas de rupture, nous pouvons devenir importateurs sans aucun problème ». Une précaution devenue nécessaire depuis que la mise en place du nouveau règlement Reach.

La communication vers l’amont
La communication vers l’amont est particulière à chaque entreprise, selon sa taille, ses ramification et son éclatement géographique. Comme l’explique Jérôme Durantet, le cas de la société Bostik nécessite l’emploi d’une méthode globale : « Nous avons fait une demande initiale, surtout par e-mail parce que nous gérons un nombre de fournisseurs et de matières premières extrêmement important. Nous leur avons demandé leurs intentions de pré-enregistrer ou d’enregistrer la ou les substances qu’ils nous vendent avec l’indication du tonnage si possible, afin de prévoir une date limite d’enregistrement ».C’est alors que Bostik a crée l’intranet de son entreprise, seul moyen de communication adapté à une telle tâche. Ensuite, il y a le suivi d’informations des SVHC. Jérôme Durrantet explique : « Comme nous utilisons des préparations, il va falloir que nous demandions initialement si nos NP ont des substances mentionnées sur la liste candidate dans un premier temps et à l’annexe 14 dans le futur. Sachant que cette responsabilité, sur le règlement Reach, incombe normalement au fournisseur, c’est le fournisseur qui doit de sa propre responsabilité donner cette information au client. Ensuite, nous allons remonter les descripteurs d’usage en nous appuyant sur le dernier guide d’usage qui est encore à l’état de projet, nous y avons travaillé avec des associations de professionnels. Il ne suffit pas d’initier ce dialogue avec nos fournisseurs, le dialogue devra être permanent pendant toute la période où Reach va être applicable. Pour nous, en tant que formulateurs, si nous avons l’abandon d’une substance, les raisons peuvent être variées, dangerosité importante ou raisons économiques. L’enregistrement d’un dossier coûte extrêmement cher, si la substance n’est pas produite en assez grande quantité, le fournisseur va devoir l’arrêter. Il y a ensuite l’inclusion de Reach dans les contrats avec nos fournisseurs afin de nous prémunir ». Le message est clair, mais les contraintes sont lourdes.

Confronter les points de vue
Au final, la société Bostik a mis en œuvre de grands chantiers, pour répondre le plus efficacement possible aux nouvelles exigences qu’impliquent le règlement Reach. Ces chantiers sont au nombre de quatre :
  • Mise en place d’outils informatiques avec des logiciels pour faire les fiches de sécurité à plus grande fréquence sans manquer les mises à jour.
  • Mise en place d’extranets pour les communications amont et aval.
  • Installation d’outils de veille pour être pro actifs au niveau de tout ce qui va se passer par rapport à REACH.
  • Volonté de participations extérieures.
« Pour ce qui est réglementaire, le mieux est de confronter son point de vue avec d’autres personnes ou d’autres entreprises faisant la même chose que nous. Nous faisons partie du groupe Total et un groupe travaille sur Reach à ce niveau. Nous travaillons également avec notre syndicat français. Nous participons à des groupes de travail au niveau européen et à des journées de communication comme aujourd’hui. Reach va représenter beaucoup de travail, et notamment pour les chimistes ». A l’image de Bostik, beaucoup d’entreprises ont d’ores-et-déjà réalisé un travail colossal. Formation à venir 30 juin 2010 :  » Risque chimique 2010 : comment s’organiser pour tenir les délais ? « Objectifs :
  • Réussir la transition entre le système actuel et l’évolution de la classification et de l’étiquetage
  • S’organiser pour mettre à jour et gérer les FDS
  • Valider les usages et scenarios d’exposition
  • Etre en conformité concernant la Santé Sécurité au Travail
Le programme complet de la formation Techniques de l’Ingénieur
 

4ème Sommet allemand des technologies de l’information de Stuttgart

http://www.bulletins-electroniques.com/actualites/61606.htm

Le mardi 8 décembre 2009 s’est tenu à Stuttgart la 4ème édition du sommet national sur les technologies de l’information. Plus de 600 participants étaient attendus au Palais des congrès international de Stuttgart (ICS Stuttgart) pour cette journée de débat regroupant responsables politiques, acteurs économiques et scientifiques. La chancelière fédérale, Angela Merkel, qui avait soutenu la création du premier sommet en 2006, est venue clore la journée de travaux. Plusieurs ministres fédéraux dont Rainer Brüderle (économie et technologie), Thomas de Maizière (intérieur), Annette Schavan (enseignement et recherche) et Sabine Leutheusser-Schnarrenberger (justice) étaient également présents. Le thème central de la manifestation était les « réseaux intelligents ». Mais, d’autres sujets importants ont été abordés, comme la stratégie du gouvernement par rapport à l’Internet haut débit, l’identité électronique ou la carte de santé électronique.

Concernant les réseaux intelligents, l’importance du pilotage du réseau électrique (production, répartition) à l’aide de logiciels dédiés a été de nouveau soulignée. Des compteurs électriques intelligents permettent à l’utilisateur de mieux gérer sa facture électrique en fonction des coûts. L’électromobilité et les énergies renouvelables nécessitent la mise en place de réseaux adaptés. Le président de l’Académie allemande des sciences techniques et ancien PDG de SAP, Henning Kagermann craint toutefois que l’Allemagne ne perde sa place parmi les leaders des e-énergies, et insiste sur la nécessité de maintenir les efforts de recherche et le niveau d’investissement. Il a notamment rappelé le plan d’investissement américain de 8 milliards de dollars dans ce domaine hautement stratégique pour les grands groupes comme Siemens, ABB, mais aussi pour les PME, et pouvant permettre de créer de nouvelles start-ups innovantes. Les économies escomptées grâce à l’introduction des technologies TIC sont estimées à 82 milliards à l’horizon 2020. M. Scheer, président de Bitkom [1] et Karl-Heinz Streibich, PDG de Bitkom [1], ont souligné l’importance de la stratégie d’e-gouvernement [2,3], pour la sécurité de la société allemande. Ils ont confirmé le lancement, en novembre 2010, de pièces d’identité avec puce intégrée [2].

Dans le domaine de l’Internet, une présentation de l’état d’avancement du moteur de recherche sémantique Theseus a été réalisée. Le projet lancé lors du premier sommet en 2006 devrait bientôt rentrer en phase de test. D’autre part, le programme de relance de la conjoncture du gouvernement prévoit un investissement de 300 millions d’euros pour le passage de l’Allemagne au haut-débit.

En raison de défaillances multiples, l’introduction d’une carte de santé électronique accuse de nombreuses années de retard. Elle devra néanmoins bientôt être introduite, sans ordonnance électronique ni de dossier informatisé sur le patient dans un premier temps. En effet, une partie du corps médical s’oppose à l’introduction de ces données tant que les principales failles de sécurisation des données ne seront pas résolues.

En savoir plus

– [1] Bundesverband Informationswirtschaft, Telekommunikation und Neue Medien – Syndicat professionnel allemand des technologies de l’information et de la communication – http://www.bitkom.org/
– [2] eID : s’identifier sur Internet avec la carte d’identité électronique – BE Allemagne 424 – 18/02/2009 – http://www.bulletins-electroniques.com/actualites/57825.htm
– [3] Rencontre franco-allemande d’experts sur le thème des « technologies pour l’identification électronique » à l’Ambassade de France à Berlin – BE Allemagne 422 – 05/02/2009 – http://www.bulletins-electroniques.com/actualites/57576.htm
– Technologies pour l’Internet des services – 1er symposium international pour le programme de recherche THESEUS – BE Allemagne 440 – 10/06/2009 – http://www.bulletins-electroniques.com/actualites/59461.htm
– THESEUS : les outils pour l’Internet des services – BE Allemagne 426 – 04/03/2009 – http://www.bulletins-electroniques.com/actualites/58043.htm
– Le projet de moteur de recherche allemand THESEUS est lancé – BE Allemagne 345 – 26/07/2007 – http://www.bulletins-electroniques.com/actualites/43818.htm

Source
– Articles du journal « die Welt »
– 07/12/2009 et 09/12/2009
– Article du journal « Handelsblatt » – 08/12/2009

Rédacteur
Etienne Balli, [email protected]

Origine : BE Allemagne numéro 464 (17/12/2009) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/61606.htm

Les sciences et technologies du numérique ont leur Alliance

Après la santé et l’énergie (voir l’encadré), c’est au tour des sciences et techniques du numérique de se doter d’une alliance de recherche et d’innovation. Baptisée Allistene, cette dernière a vu le jour jeudi 17 décembre 2009, sous le haut patronage du ministère de l’Enseignement supérieur et de la recherche représenté par Valérie Pécresse, et de ses six pères fondateurs : la Conférence des directeur d’écoles et formations d’ingénieurs (CDEFI), le Commissariat à l’énergie atomique (CEA), le Centre national de recherche scientifique (CNRS), la Conférence des présidents d’université (CPU), l’Institut national de recherche en informatique et en automatique (INRIA) ainsi que l’Institut Télécom. Ce faisant, la France dispose désormais d’une alliance de coordination dans chacun des trois axes prioritaires identifiés par la stratégie nationale de recherche et d’innovation (SNRI) : la santé, le bien-être et les biotechnologies, l’énergie et l’environnement ainsi que les sciences et technologies de l’information et de la communication (STIC). Comme les deux précédentes alliances, Allistene s’est vu attribué quatre principales missions :

  1. Renforcer la fonction de programmation nationale. C’est-à-dire, accroître le lien entre les orientations définies par le gouvernement dans la stratégie nationale de recherche et d’innovation et la recherche réalisée dans les écoles, universités ou autres organismes. A ce titre, Allistene devra coordonner les principaux acteurs des STIC, afin de concevoir des programmes thématiques de recherche et développement cohérents avec la stratégie nationale et portée par tous ses membres.
  2. Décloisonner les relations et renforcer les synergies entre les acteurs des STIC en développant les initiatives de coordination et de partenariat. Il s’agit bien entendu des écoles, des universités, des instituts mais également des entreprises du secteur (logiciel, électronique, télécommunication…) et des représentants des pôles de compétitivités concernés (7 pôles).
  3. Aider l’Agence nationale de recherche (ANR) à bâtir sa programmation pour les STIC, grâce à l’élaboration de feuilles de route scientifiques et techniques. Celles-ci prendront en compte les interaction des sciences et techniques de l’information et de la communication avec les autres disciplines et les industries, notamment l’électronique, et aller de la recherche fondamentale à la mise au point de projets démonstrateurs en vu d’applications industrielles.
  4. Prolonger les efforts de recherche et de coordination établis dans le cadre des programmes nationaux dans les différentes initiatives européennes qui relèvent des STIC.
En d’autres termes, il s’agit, via cette alliance, de renforcer au niveau européen la compétitivité de l’industrie et de la recherche françaises dans le vaste domaine des STIC, et de permettre à la France de mieux valoriser la recherche dans ce domaine, qui faut-il le rappeler, est soutenue à hauteur de 4,5 milliards d’euros par le grand emprunt.Autant de missions que l’association devra quoiqu’il en soit conduire rapidement. Son calendrier s’annonce d’ailleurs chargé. Après avoir désigné en janvier 2010 un président, réuni son comité de coordination et proposé des groupes programmatiques, Allistène devrait commencer ses travaux dès février. Objectif : fournir en avril un rapport d’étape des groupes programmatiques, pour pouvoir dès le mois de mai proposer des premiers éléments de synthèse pour qu’ils puissent être pris en compte dans la programmation de l’Agence nationale de la recherche. Photo : © INRIA / Jim WallaceLes alliances de rechercheDeux alliances ont déjà vu le jour en 2009.
  • L’alliance pour les sciences de la vie et de la santé (AVIESAN). Née le 8 avril 2009, ses membres fondateurs sont l’ISERM, le CNRS, l’INRA, l’INRIA, l’IRD, l’Institut Pasteur, la Conférence des présidents d’université (CPU), la Conférence des directeurs généraux de centre hospitalier universitaires.
  • L’alliance nationale de coordination de la recherche pour l’énergie (ANCRE). Née le 17 juillet 2009, ses membres fondateurs sont le CEA, le CNRS, et l’IFP.
Outre les Stic, une dernière alliance devrait prochainement voir le jour. Elle concernera l’eau, l’alimentation, l’environnement et le climat. Pour plus d’information, voir le communiqué. Trois projets français retenus dans le cadre de l’IETCe même jour, jeudi 17 décembre 2009, on apprenait que trois projets « EIT ICT Labs », « Climate » et « InnoEnergy » avaient été retenus dans le cadre du premier appel à projets de l’Institut européen de technologie (I.E.T.). Trois projets qui reposent dès aujourd’hui sur d’étroites synergies entre des acteurs majeurs de la recherche française, publique et privée. On y retrouve, en effet, les universités de Versailles-Saint-Quentin en Yvelines, de Paris 6 , de Paris 11, Paristech, l’Institut Télécom, l ‘INRIA, l’Institut Pierre Simon Laplace (IPSL), l’INRA, le CNRS, l’INPG, et le CEA., ainsi que de nombreuses entreprises françaises telles que Alcatel-Lucent, Areva, France-Télécom Orange, etc.
A.L B

Les nouveaux robots Eporo de Nissan imitent les bancs de poissons

http://www.bulletins-electroniques.com/actualites/61545.htmLors du salon CEATEC Japan 2009, qui a eu lieu du 6 au 10 octobre au Makuhari Messe de Chiba, Nissan a présenté son nouveau type de robot-voiture nommé Eporo. Le constructeur automobile s’est inspiré du comportement des bancs de poissons pour améliorer son système de prévention d’accidents.Les algorithmes développés par les ingénieurs de l’entreprise permettent aux appareils d’éviter des obstacles sans provoquer de collisions avec les autres Eporo en mouvement. Ces algorithmes sont basés sur trois règles qui s’appliquent en fonction des zones définies ci-dessous.
Voir la vidéo
Présentation d’Eporo à CEATEC Japan 2009 (vidéo en anglais), crédit : networkworld
 Règles du comportement des poissons :
  • Zone 1 : éviter des Collisions. Changer la direction du mouvement sans entrer en collision avec d’autre poisson.
  • Zone 2 : avancer côte à côte. Avancer côte à côte avec d’autres poissons tout en gardant une certaine distance entre chaque poisson et en faisant correspondre leur vitesse.
  • Zone 3 : se rapprocher. Se rapprocher des poissons qui se situent à distance.
 
Zones d’application des règles
http://www.bulletins-electroniques.com/actualites/61545.htm
Crédit : Lanson Florian
Pour reconnaître leur entourage et se déplacer, les poissons tirent parti principalement de la vue et de la ligne latérale, organe sensoriel présent le long du flanc de l’animal qui permet de percevoir les vibrations de l’eau. Ils forment ainsi des bancs en utilisant les trois règles définies précédemment. Pour reproduire le sens de la vue et la ligne latérale, Nissan recourt respectivement à des communications Ultra Wideband (UWB) et à un télémètre laser. L’UWB est utilisé pour calculer la position de la cible et son écart en se servant du temps de propagation des signaux. Le télémètre mesure la distance d’un obstacle proche grâce à la réflexion d’un rayon laserChaque Eporo distribue les informations qu’il possède à son entourage grâce à de courtes transmissions, ce qui permet au banc de voyager en toute sécurité tout en changeant sa formation en fonction du besoin (voies larges ou étroites). Il s’agit, selon l’entreprise, de la première fois au monde qu’un groupe de robots se déplace en partageant leur positionnement via les technologies de communication. A noter tout de même que ces méthodes ne prennent toute leur ampleur que lorsqu’elles sont appliquées à l’ensemble des véhicules sur la route.Ces nouvelles techniques ont été développées dans le but d’améliorer le concept de bouclier de sécurité (ou « Safety Shield« ) de Nissan. L’entreprise souhaite en effet mettre au point un système de sécurité basé sur l’idée qu’un véhicule doit aider et protéger les personnes dans les différentes situations de conduite allant de la simple ligne droite à l’accident. En savoir plus : site officiel de CEATEC – http://www.ceatec.comSource : Communiqué de presse Nissan, 01/12/2009 – http://www.nissan-global.com/EN/NEWS/2009/_STORY/091001-01-e.htmlRédacteur : Florian LANSON, adjoint(point)stic(arobase)ambafrance(tiret)jp(point)org523-STIC-2492Origine : BE Japon numéro 523 (11/12/2009) – Ambassade de France au Japon / ADIT – http://www.bulletins-electroniques.com/actualites/61545.htm  

La ville de Lünen en Allemagne lance le premier réseau au monde de distribution de biogaz

Produit à partir de ressources locales, le biogaz doit permettre de couvrir la demande en chaleur et en électricité de Lünen, une petite ville de 91 000 habitants près de Dortmund au Nord de l’Allemagne, grâce à la cogénération. Le biogaz sera extrait de la décomposition des matières organiques dans des digesteurs anaérobies de ferme.Les fermes locales fournissent les déchets organiques (crottin, maïs, blé, herbe) aux digesteurs anaérobies, qui en transforment une partie en biogaz grâce à des bactéries. Celui-ci est ensuite filtré pour éliminer les polluants comme les sulfites et l’arsenic puis envoyé à haute pression à travers un réseau de tuyaux vers 10 unités de cogénération de chaleur et d’énergie dans la ville.La production annuelle du réseau devrait tourner autour de 2,5 MW et fournir près de 50 % de la demande de chaleur et d’énergie de Lünen. D’un coût de 18 millions d’euros, celui-ci entrera en fonction en décembre.

Le Royaume-Uni à la traîne

Ce modèle peut-il être reproduit n’importe où ? Madeleine Lewis de Farming Futures, un projet de communication à destination des fermiers et des propriétaires terriens de Forum for the Future, le pense : « Le biogaz a un grand potentiel économique et bénéficie à l’environnement ». Mais le Royaume-Uni est à la traîne avec seulement 13 fermes équipées de digesteurs anaérobies contre 3.500 pour l’Allemagne. « Les fermiers britanniques nous disent qu’ils ont besoin de plus d’informations et d’encouragement pour investir dans des digesteurs anaérobies, comme un accès à des bourses et des projets expérimentaux, » ajoute Lewis. Le gouvernement commence à agir en ce sens à travers un programme d’implantation de digesteurs anaérobies soutenu par un portail d’information en ligne lancé par le Ministère de l’environnement, de l’alimentation et des affaires rurales en septembre.Les fermiers manquent une opportunité, selon Owen Yeatman, un producteur de lait et un cultivateur basé au Royaume-Uni, qui a créé la société Farmergy pour financer son propre digesteur anaérobie et qui fournit aujourd’hui le réseau en électricité. « Tout bon fermier peut devenir un bon producteur de biogaz », déclare-t-il à Green Futures. « Il s’agit toujours d’une industrie de production et les fermiers peuvent utiliser leurs propres ressources et compétences ».

Source :

Green Futures, un magazine indépendant publié par Forum for the Future

Eolien : l’intermittence n’est pas un obstacle

Selon trois rapports britanniques parus cet été, la nature intermittente des énergies renouvelables est moins un problème que ce que l’on entend parfois. Voilà de quoi donner un nouvel élan aux fermes éoliennes.Comme le vent ne souffle suffisamment fort pour faire tourner les pales que 70 à 85 % du temps, on considère souvent que l’énergie éolienne n’est pas assez fiable pour être une source d’approvisionnement importante du réseau et nécessite une autre source d’énergie de sauvegarde pour chaque watt produit. Cela semble aujourd’hui très exagéré. Des rapports séparés de National Grid et de Pöyry Consultancy concluent qu’indépendamment de l’emplacement des turbines, seule une capacité de sauvegarde modeste est requise pour fournir une couverture adéquate. L’analyste David Milborrow a calculé que même si l’éolien fournissait 40 % de l’électricité du Royaume-Uni, la gestion de sa variabilité entraînerait seulement un surcoût de 0,55 pence par unité.D’après Milborrow, le premier responsable de l’intermittence n’est n’est pas du tout le vent : “« Les pannes des centrales thermiques [charbon, gaz et nucléaire] représentent en général un risque plus important pour la stabilité du réseau électrique que les variations relativement bénignes de la production des centrales éoliennes ».”L’Association britannique de l’énergie éolienne (British Wind Energy Association) a décrit le rapport de Milborrow, Managing Variability, comme « le dernier clou dans le mythe de l’intermittence ».   *Operating the system beyond 2020 (National Grid); Impact of intermittency : How wind variability could change the shape of the British and Irish electricity markets (Pöyry Consultancy).Roger East est rédacteur conseil pour Green Futures, un magazine indépendant publié par Forum for the future.

Grand emprunt : 4,5 milliards d’euros pour l’économie numérique

Finalement, ce ne sont pas 100 milliards d’euros, comme l’avait un temps espéré Henri Guaino, mais 35 milliards d’euros qui seront investis par l’Etat, au titre du grand emprunt, dans cinq chantiers jugés prioritaires par l’Elysée. Objectif de cet effort financier qui se pose comme un investissement à long terme, et non pas comme un plan de relance : préparer l’avenir et permettre à la France  » de prendre le virage du XXIe siècle « , afin que le pays  » puisse profiter pleinement de la reprise, pour qu’il soit plus fort, plus compétitif, pour qu’il crée davantage d’emplois « , a précisé Nicolas Sarkozy.

4,5 milliards d’euros pour le numérique
Parmi ces cinq axes prioritaires figure l’économie numérique. Alors que la commission Juppé-Rocard préconisait un investissement de 4 milliards d’euros pour ce segment, il en obtient finalement 4,5 milliards. Cette enveloppe servira, pour 2 milliards d’euros, à accélérer le déploiement de la fibre optique en France et du très haut débit sur tout le territoire. Le but étant d’atteindre d’ici 10 ans, une couverture en très haut débit de 70 % de la population. Cet apport financier sera utilisé de trois manières différentes :
  • Afin d’accélérer l’investissement des opérateurs télécoms privés, il servira à financer leurs prêts et garanties d’emprunt ;
  • Dans les zones peu denses, il prendra la forme de subventions aux projets de déploiement du très haut débit en partenariat avec les collectivités locales ;
  • Enfin, il servira à créer des partenariats public/privé pour déployer une technologie satellite lorsque le déploiement des autres technologies n’est pas possible (exemple des zones rurales).
Les 2,5 milliards d’euros restant, seront, quant à eux, utilisés pour développer les usages et contenus innovants. Parmi les chantiers prioritaires figurent le développement des centres numériques de calcul et de stockage afin de pouvoir traiter un nombre grandissant de données ; des partenariat public/privé pour consolider la maîtrise des technologies de base du numérique ayant des applications multiples dans le domaine de l’informatique, des télécoms, de l’énergie ou encore des transports ; le développement de logiciels, d’usages ou de contenus dans le domaine de l’e-santé ou des smart grids dédiés à l’énergie ; la numérisation des contenus culturels (750 millions d’euros).

19 milliards pour l’enseignement et la recherche
Mais c’est l’enseignement supérieur et la formation qui profite le plus de l’investissement de l’Etat. A eux seuls, ils totalisent 11 milliards d’euros, dont les projets phares sont la création de 5 à 10 campus d’excellence (7,7 milliards d’euros), la rénovation des centres de formation et le développement de l’apprentissage ainsi que la création d’internats d’excellence pour favoriser l’égalité des chances. Parallèlement, 8 milliards d’euros viendront soutenir la recherche. Une part substantielle de cet apport financier (3,5 milliards d’euros) servira à renforcer les synergies entre la recherche et l’industrie via la création d’instituts de recherche technologiques tels que le LETI à Grenoble et à la création d’un fonds national valorisation de la recherche et innovation. 2,5 milliards d’euros seront, quant à eux, consacré à soutenir la modernisation de la recherche médicale grâce à la création d’instituts hospitalo-universitaires, et le développement des biotechnologies dans tous leurs domaines d’application.

6,5 milliards pour les filières industrielles et les PME
Au delà, pour favoriser un  » sursaut industriel « , synonyme dans le futur de gains de productivité pour l’économie française, l’Etat a décidé d’allouer une enveloppe de 6,5 milliards d’euros à l’industrie et aux PME. Objectif : mettre en place des mesures ciblées à destination de filières spécifiques. Parmi celles-ci figurent l’automobile, les transports terrestres et maritimes (1 milliard d’euros) pour soutenir le développement de véhicules durables et l’aéronautique et l’espace (2 milliards d’euros) pour mettre au point des avions plus économes, mais aussi des fusées et des satellites plus performants. A cela s’ajoute 2,5 milliards d’euros pour la croissance des petites et moyennes PME. Dans ce cadre, 400 millions d’euros seront affectés à un fonds géré par le FSI (fonds stratégique d’investissement) pour financer l’amorçage des PME dans des secteurs d’activité correspondant aux grandes priorités technologiques du pays. 100 millions d’euros seront dédiés à un fonds consacré à l’entrepreneuriat social et solidaire. Ces deux fonds pourront être abondés par des partenaires privés ou publics souhaitant se joindre à leur action. Par ailleurs, 1,5 milliard d’euros seront versés à Oséo pour renforcer son action dans le financement des entreprises innovantes et 500 millions d’euros reviendront aux pôles de compétitivité. Enfin, 1 milliard d’euros sera alloué au financement des Etats généraux de l’industrie.

5 milliards d’euros pour le développement durable
Pour finir, 5 milliards d’euros viendront s’ajouter à l’enveloppe prévue par le Grenelle de l’environnement pour financer les projets ayant trait au développement durable. A savoir : le développement des énergies renouvelables et décarbonées (2,5 milliards d’euros), le nucléaire de 4ème génération (1 milliard d’euros), les démarches intégrées d’Eco-Cités c’est-à-dire le soutien à des programmes urbains intégrés (exemple transports, logement, énergie), et la lutte contre la précarité énergétique grâce à la rénovation thermique du parc social (500 millions d’euros).Un vaste programme dont l’objectif n’est pas, in fine, de se suffire à lui même, mais d’agir comme un levier pour entraîner des investissements privés équivalents, voire supérieurs à ceux de l’Etat. Ce qui permettrait au final d’injecter, non pas 35 milliards d’euros dans l’économie française, mais au moins 60 milliards. En savoir plusPour télécharger le dossier de presse sur le site de l’Elysée A.L B

Le Gujarat entre dans la course aux énergies marines

La province indienne du Gujarat, sous l’impulsion de son ministre délégué, Narendra Modi, s’est fixé l’objectif ambitieux de devenir un leader mondial dans l’énergie des courants et les énergies renouvelables propres en général (le plus grand parc solaire du monde est déjà en projet dans cette province du Gujarat). Pour cela, elle a fait appel au britannique Atlantis Resources Corporation.Comme à tout grand dessein, il faut un début, c’est vers le britannique Atlantis Resources Corporation que le ministre Narendra Modi s’est tourné pour aider l’Inde à pénétrer cette technologie et pour mener une étude de sites dans le Golfe de Kutch et le Golfe de Khambhat (Mer d’Oman, voir carte ci-dessous).Cette étude est préliminaire à une étude de faisabilité économique et technique plus vaste. L’intention est de produire plus de 100 MW d’électricité à partir de l’énergie des courants dans l’État du Gujarat, soit de quoi alimenter, selon le constructeur Atlantis, 40.000 foyers. Cette réalisation nécessitera des centaines de millions de dollars d’investissements aussi bien dans la fabrication des turbines hydroliennes que dans la mise en place des infrastructures associées pour produire et acheminer l’électricité et elle est présentée comme fortement créatrice d’emplois locaux.S’il se réalise, ce projet représenterait le tout premier projet d’énergie marine dans le sous-continent indien. Il faut rappeler ici que l’Inde, qui compte plus de 7.200 kilomètres de façades maritimes importe aujourd’hui plus de 70 % de son pétrole et ne peut compter que sur une petite production locale de charbon pour pourvoir à ses besoins énergétiques. Selon une étude des consultants McKinsey&Company, le pays est appelé à quintupler sa demande d’électricité et devenir le troisième consommateur mondial d’électricité derrière les USA et la Chine. A l’issue des discussions avec le ministre du Gujarat, l’australien Timothy Cornelius, ex-pilote de sous-marins aujourd’hui directeur général d’Atlantis Resources Corporation, a déclaré : « Les Golfes de Kutch et Khambhat sont renommés pour la force de leurs courants. En exploitant cette importante ressource d’énergie renouvelable, le Gujarat a largement le potentiel pour devenir un leader mondial dans le domaine de l’énergie des courants. J’espère que l’initiative du ministre Narendra Modi servira d’exemple à d’autres dirigeants mondiaux pour doter leur pays ou leur régions d’énergies renouvelables ».Atlantis Resources Corporation est aujourd’hui soutenu financièrement par Morgan Stanley et surtout le géant norvégien (et européen) des énergies marines Statkraft depuis le 31 mars 2009. Du point de vue des technologies marines proprement dites, Atlantis Resources Corporation a ceci de particulier qu’elle ne se contente pas de développer, comme la plupart de ses concurrents internationaux, un seul modèle de récupérateur d’énergie des courants mais trois technologies différentes : deux hydroliennes et… un engin à l’allure tout à fait étrange mais que l’on peut tout de même appeler une hydrolienne.Ce premier engin improbable est l’AN-400. C’est une sorte de tapis roulant vertical qui entraîne comme un engrenage une centaine de pales fixées le long d’une chaîne défilant horizontalement. Et c’est là qu’il faut s’arrêter de rigoler car l’AN-400, conçu en 2003, s’avère aujourd’hui pleinement opérationnel avec d’excellentes performances sur tous les sites où il a été implanté en test, en Australie. Plus encore, cette machine extrêmement robuste est particulièrement bien adaptée aux courants drainant des eaux encombrées de déchets ou de sédiments lourds, qui habituellement endommagent les pales des rotors d’hydroliennes classiques. Et oui car toutes les eaux des mers du monde ne sont pas cristallines et limpides comme celles des lagons tropicaux ! Il fallait y penser.La seconde, l’AS-400 (cf. photo de tête) est testée depuis 2008 avec d’excellents résultats aussi. C’est une turbine dite à axes horizontaux, dont le design est très proche de celui d’un réacteur d’avion. Elle peut être utilisée dans des courants de 2.6 m/s et elle est disponible dans des versions de 100 kW, 500 kW et 1MW. Ces performances lui ont valu de la part du cabinet d’expertise industrielle Black & Veatch, la mention enviée de « turbine la plus efficace du marché dans son segment ».L’AK 100 est la dernière-née et la plus puissante d’Atlantis Resources Corporation. C’est une double hydrolienne plantée sur un monopieu, plus classique que les précédentes (bien qu’à double hélice), conçue pour être exploitée dans des courants pouvant atteindre 2,6 mètres/seconde ; et capable de produire soit 1MW soit 2 MW. La première de cette toute nouvelle série devrait être mise en place pendant l’été 2010, le lieu n’ayant pas encore été communiqué.Atlantis Resources Corporation fait partie de ces compagnies agissant dans les énergies renouvelables qui ne sont pas exagérément médiatisées. Les ingénieurs de la compagnie font un remarquable travail d’adaptation des nouvelles technologies aux spécificités des milieux marins. Atlantis Resources Corporation a compris mieux que quiconque qu’il n’y a pas un milieu marin uniforme dans lequel une technologie standard pourrait universellement fonctionner, mais une multitude de milieux marins et sous-marins pour lesquels il se pourrait bien que nous ayons à imaginer des technologies spécifiques. Une technodiversité en quelque sorte que les fabricants d’éoliennes offshore ont déjà eu l’occasion de découvrir en fonction des fonds sur lesquels ils voulaient implanter leur technologie universelle ! Un peu de modestie, de temps en temps, ne nuit pas… et beaucoup d’imagination industrielle non plus d’ailleurs ! 

Source :
Les énergies de la merPar Francis Rousseau, rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur desEntretiens Science et Ethique.

Comment auto-évaluer gratuitement sa démarche green IT ?

« Notre premier constat a été de remarquer l’intérêt fort des entreprises et administrations pour le Green IT et la volonté d’engager des actions concrètes sur le sujet, mais unanimement, il nous a été fait part d’un besoin d’outils pertinents et simples d’utilisation », précise Adrien Porcheron, directeur général de Dotgreen, éditeur de logiciels de gouvernance green IT. « Le Greenargus, que nous avons pu faire tester par nos clients, répond à cette attente », poursuit-il. Le groupe La Poste, qui a élaboré un programme de réduction de l’empreinte CO2 et de la consommation énergétique de son parc informatique, s’est associé à Dotgreen pour le développement de Greenargus.

Un outil logiciel

 Le Greenargus est un outil logiciel en mode SaaS (Software as a service) qui fournit l’analyse d’une démarche green IT en offrant des tableaux de bord, des radars, des indicateurs et une analyse dans le temps sur tous les thèmes couverts par le green IT : postes de travail, datacenters, impressions, DEEE…
 
Avec cet outil disponible en ligne sur le site www.greenargus.com, il suffit de créer son compte puis de répondre à une série de questionnaires pour obtenir une analyse et des préconisations personnalisées. Le principe est de s’évaluer plusieurs fois dans le courant de l’année pour voir l’impact des projets réalisés.

Les questionnaires sont réservés aux DSI ou représentants green IT d’une entreprise. Des outils de travail collaboratifs leur permettent de s’adresser à qui ils le souhaitent pour obtenir des renseignements qu’ils ne possèdent pas.
 
« Nous avons remarqué chez nos clients un besoin fort de communiquer en interne et en externe les résultats des différents projets qu’ils ont réalisés. Le greenargus répond à cette nécessité. En effet, interface conviviale, le greenargus propose des représentations graphiques simples et originales : jauge, radar et tableau de bord… », complète Pénélope Guy, responsable marketing et communication de Dotgreen.

 Le Greenargus est le premier outil disponible en ligne permettant à la fois de benchmarker les entreprises et de leur apporter une expertise green IT. Les grands groupes français vont pouvoir dès aujourd’hui évaluer leur maturité, et agir concrètement pour diminuer l’impact du système d’information sur l’environnement. Et grâce à son interface bilingue, le Greenargus sera en service auprès des clients anglo-saxons de Dotgreen.  

Sommet de Copenhague : le changement climatique en « Pôle » position dans les médias

L’information n’aura échappé à personne. Depuis lundi 7 décembre 2009, tous les regards sont tournés vers la ville de Copenhague qui accueille jusqu’au 18 décembre, le sommet international sur le changement climatique. 15.000 personnes issues de 192 pays doivent participer à ces journées dont l’objectif est de définir un nouveau traité visant à réduire les émissions de gaz à effet de serre, dans le prolongement du protocole de Kyoto qui doit prendre fin en 2012. Un sommet qui focalise toutes les attentions et fait l’objet de traitements divers par les médias, selon qu’ils en pointent les enjeux, les écueils ou mettent en garde les dirigeants politiques contre les risques de l’inaction.

Dans le sillage de l’après Kyoto
Au fil de ses pages, le journal Libération livre toutes les « clés pour comprendre les enjeux » de la conférence de Copenhague. Le quotidien rappelle ainsi que le protocole de Kyoto est le « premier outil international et unique instrument multilatéral de lutte mondiale contre l’effet de serre ». Conclu en 1997, entré en vigueur 8 ans plus tard en 2005, ce protocole visait à réduire les émissions de gaz à effet de serre. Reste qu’il n’avait, à l’époque, été ratifié que par 38 pays, chacun ayant ses propres « objectifs différenciés ».Et qu’il arrivera à terme en 2012. C’est dans ce contexte que s’inscrit le sommet de Copenhague. Avec comme objectif, précise l’article, de « limiter à deux degrés la hausse de la température moyenne à la surface de la Terre » par une réduction des émissions de gaz à effet de serre. Précisons que cet objectif a comme présupposé, d’une part, d’étendre la ratification du Traité aux nations identifiées comme « pollueuses » qui n’avaient pas signé le traité de Kyoto, telles que les Etats-Unis, la Chine ou l’Inde, et, d’autre part, de s’accorder sur la répartition des efforts nécessaires entre les différentes nations pour y parvenir.C’est là que le bât blesse. Car pour certaines nations, les pays industrialisés, en particulier ceux de l’Union européenne, ont une « responsabilité historique » dans le réchauffement climatique, du fait de leur développement précoce. D’où la réticence, nous dit Libération, des pays émergents comme la Chine et l’Inde, à l’essor et au développement récents, à s’asseoir à la table des négociations ; et la position initiale des Etats-Unis qui avaient, au nom de cette « responsabilité historique », refusé de ratifier le traité de Kyoto en 1997.

Un contexte qui cristallise des sentiments contradictoires
Depuis, la situation a évolué : à quelques jours de l’ouverture du Sommet, les pays jusque-là réticents ont finalement confirmé leur présence et indiqué qu’ils allaient s’engager à réduire leurs émissions de gaz à effet de serre. Des annonces qui font souffler un (certain) vent d’optimiste comme le rapportent Le Monde – « La conférence de Copenhague s’ouvre sur un certain espoir » ou encore L’Express « La conférence de Copenhague s’ouvre dans un certain optimiste ». Pour autant, tout le monde ne partage pas cette analyse. Ainsi, France Soir titre pour sa part que le « sommet sera difficile » tandis que Marie Verdier, dans le journal La Croix, détaille « Les quatre enjeux de Copenhague, et retrace quelques-unes des difficultés qu’il faudra surmonter. En vertu du principe de responsabilité historique, « l’essentiel de l’effort doit porter sur les pays industrialisés censés, s’ils veulent respecter les recommandations du GIEC [1], réduire leurs émissions de 25 à 40 % d’ici 2020 par rapport à 1990 ». Reste, explique la journaliste, que « personne ne parle le même langage ni n’utilise les mêmes règles de calcul ».Ainsi, les Etats-Unis ou le Canada ont bien annoncé des engagements en accord avec les recommandations du GIEC. Mais ceux-ci ne se basent pas sur les années 1990, ce qui brouille la donne. Exemple : « Les Etats-Unis s’engagent (…) à une réduction de 17 % mais leurs calculs se basent sur 2005. Ce qui revient à une baisse de 4 % seulement par rapport à 1990 ». Du côté des pays émergents, les réductions sont quantifiées en « intensité carbone » dont le mode de calcul fausse tout autant les données. Autant d’éléments qui risquent bien de compliquer les négociations.Autre point sensible, l’aide apportée aux Pays du Sud pour leur permettre de se développer « sans recourir aux énergies fossiles ». Et si, pour ce faire, un fonds climat devrait être créé à l’ONU, la problématique n’est pas résolue pour autant, tant que les Etats ne se sont pas accordés sur le financement et les critères d’attribution de ces aides. Sans compter que certaines nations, comme l’Afrique du sud, ont conditionné leur engagement à l’octroi de ce coup de pouce par les pays riches. Un contexte qui conduit nombre de journaux à pointer ce rapport de force Nord Sud comme l’un des enjeux majeurs des négociations de Copenhague.

La pression monte
Reste que la presse ne s’est pas contentée, ce lundi 7 décembre, de se faire l’écho des enjeux ou des difficultés que devront surmonter les dirigeants politiques. Ainsi, ce même jour, 56 journaux de 45 pays faisaient page commune en publiant le même éditorial. Parmi eux, Le Monde, Libération, The Guardian ou El Païs, et autant de quotidiens nationaux dans lesquels on pouvait lire cette phrase : « nous appelons les représentants des 192 pays rassemblés à Copenhague à ne pas hésiter, à ne pas sombrer dans les querelles, à ne pas rejeter la responsabilité sur les autres mais à transformer cet échec majeur de la politique moderne en occasion d’agir » (Le Monde).Sans remettre en cause cette démarche, on peut néanmoins s’étonner du déferlement médiatique que connaît cette thématique au regard d’autres sujets comme, par exemple, le récent sommet de la FAO à Rome, en novembre dernier. Ou encore s’interroger, comme le faisait Jean-Claude Flamant, de la Mission Agrobiosciences, lors d’un billet, sur le fait que, d’une certaine manière, « le discours sur le changement climatique serait plus bouleversant que le changement lui-même ».Une posture que pointe également Vincent Coutillot, invité ce lundi 7 décembre de la matinale de France Inter. Interrogé, entre autres choses, sur la manière dont on parle du changement climatique, le géophysicien a émis l’idée que cette question était trop souvent abordée de manière dramatique, ce qui n’était pas sans générer une forme d’anxiété… à l’effet contre-productif. Une dernière information pour conclure. En prévision de ce sommet, la FAO a publié, le mardi 1er décembre, un rapport dans lequel elle explique que « les pratiques culturales qui capturent le carbone et le stockent dans les sols agricoles offrent quelques-unes des options les plus prometteuses pour une action précoce (…) pour lutter contre le changement climatique ». Mieux, elle indique qu’il s’agirait même d’une voie particulièrement intéressante pour les pays en voie de développement. On peut donc regretter que l’agriculture n’ait pas été conviée à la table des négociations de la capitale danoise… et que peu de médias se soient fait l’écho de ce rapport. Revue de presse de la Mission Agrobiosciences du 7 décembre 2009.

Piezo Institute : un pool européen de la recherche sur la piézoélectricité

La piézoélectricité, vous connaissez ? Peut-être pas, même si le nom vous dit quelque chose. Derrière celui-ci se cache la propriété que possèdent certains matériaux de se polariser électriquement sous l’action d’une contrainte mécanique et, réciproquement, de se déformer lorsqu’on leur applique un champ électrique. Découverte au XIXème siècle, la piézoélectricité est aujourd’hui une technologie qui est utilisée dans de nombreux secteurs de la vie quotidienne. Pour autant, elle reste très peu connue du grand public mais également de l’industrie, alors qu’il s’agit d’une technologie qui a encore « beaucoup à dire ». Pour essayer de faire jeu égal avec les Etats-Unis et le Japon qui disposent dans ce domaine de plusieurs grandes équipes de recherche, l’Europe a décidé de regrouper ses forces, jusqu’alors dispersées, afin notamment de développer des projets en commun. D’où la création à l’été 2008 du Piezo Institute qui compte à ce jour environ 150 chercheurs, parmi lesquels des Français, dont l’équipe du professeur Marc Lethiecq de l’Université François Rabelais de Tours qui est l’un des deux initiateurs de ce projet. Coordinateur scientifique du Piezo Institute, cet universitaire esquisse le portrait de cette structure originale. Propos recueillis par Jean-François Desessard.

BE France : Comment est née l’idée de créer le Piezo Institute ?

Marc Lethiecq : Dans le cadre du 6ème PCRD, nous avons déposé avec l’entreprise danoise Ferroperm Piezoceramics une demande de création d’un réseau d’excellence européen baptisé MIND (Multifunctionnal Integrated Piezoelectrics Devices) qui a été acceptée. Coordinateur de ce réseau, cette entreprise en assure la gestion financière notamment et joue le rôle d’interface avec la Commission européenne. Le programme de travail du réseau MIND prévoyait notamment la création d’un institut qui puisse pérenniser ses différents développements. C’est ainsi qu’est né le Piezo Institute au début de l’été 2008, sous la forme d’une association internationale sans but lucratif dont le siège est situé à Bruxelles. Il est composé de membres fondateurs et de membres associés, issus du monde académique ou du secteur industriel de différents pays européens. Le Piezo Institute est une structure ouverte. Aussi, à partir du moment ou un partenaire potentiel exerce une activité significative dans le domaine de la piézoélectricité et souhaite travailler en collaboration avec des membres du Piezo Institute, nous lui ouvrons les portes pour qu’il devienne membre associé. Au bout d’un à deux ans, si ce membre associé s’est véritablement impliqué, il peut alors devenir « full member » et disposer d’un siège dans la structure.

BE France : Etait-il important, voire urgent, de réunir au sein d’un institut toutes les forces existantes en Europe dans le domaine de la piézoélectricité ?

Marc Lethiecq : Qu’elles soient académiques ou industrielles, les compétences européennes en matière de piézoélectricité sont très dispersées. L’objectif était donc de permettre aux multiples petites équipes qui sont présentes en Europe d’échanger davantage et de collaborer plus largement afin d’optimiser leur expertise, mais aussi de mettre en commun leurs équipements respectifs. Aussi tout membre du Piezo Institut peut-il désormais faire appel à une sorte d’institut virtuel qui dispose d’équipements uniques auxquels il n’aurait jamais pu avoir accès, ceci à des conditions avantageuses. Aujourd’hui, le Piezo Institute constitue une masse critique d’environ 150 chercheurs européens, à même de rivaliser avec leurs homologues américains et japonais, en particulier en développant des projets en commun que « labellise » le Conseil scientifique de cet institut. Il est d’autant plus important que l’Europe occupe une place parmi les leaders mondiaux dans ce domaine, que la piézoélectricité intéresse de nombreux secteurs. Il faut rappeler que les énormes progrès enregistrés par les moteurs diesel en termes de consommation sont dus au système « Common Rail » dans lesquels les injecteurs sont dotés d’actionneurs piézoélectriques qui permettent d’envoyer une quantité précise de fuel à chaque instant du cycle d’explosion du moteur. De même, les micromoteurs qui équipent les dispositifs auto-focus des appareils photos intégrés dans les téléphones portables utilisent la piézoélectricité, tout comme les cartouches des imprimantes à jet d’encre d’une célèbre marque.

BE France : Quelles sont les principales thématiques de recherche auxquelles s’intéressent les membres du Piezo Institute ?

Marc Lethiecq : Le développement de nouvelles céramiques piézoélectriques, ne renfermant aucun matériau qui présente un danger pour l’environnement, constitue un enjeu important. Le matériau standard disponible sur le marché, le PZT, est constitué en effet de zirconium, de titane et de plomb. Or le plomb fait l’objet d’une interdiction dans toute l’industrie, notamment dans le secteur électrique, exception faite pour la piézoélectricité du fait qu’il n’existe pas aujourd’hui de matériau qui puisse remplacer le PZT. Du côté des procédés de fabrication, les équipes du Piezo Institute travaillent beaucoup sur les micro et nanotechnologies, leur objectif étant de parvenir à réaliser des structures miniatures piézoélectriques, soit sous la forme de films très minces, soit sous la forme de structures plus complexes tels des nanofils ou des nanotubes.En termes d’applications, nos membres s’intéressent tout particulièrement à l’imagerie ultrasonore haute-résolution, dont la résolution doit permettre de réaliser des images de structures superficielles telles que la peau ou la cornée, voire l’iris, de l’oeil. Ces technologies devraient également aboutir à la conception de sondes miniatures qui pourront être introduites dans les vaisseaux sanguins afin d’obtenir des images de leur paroi et de détecter d’éventuelles plaques d’athéromes. La récupération d’énergie à partir de structures vibrantes constituées de matériaux piézoélectriques, par exemple une aile d’avion, fait aussi partie de leurs préoccupations en matière de recherche. Les chercheurs envisagent également de concevoir des implants de type pacemaker ou prothèse auditive, auto-alimentés par l’électricité produite par les mouvements du corps humain.En savoir plus : Marc Lethiecq : tél. +33 (0)2 54 55 84 24 – email : [email protected] Olivier Souchon : tél. +33 (0)2 47 36 70 88 – email : [email protected] http://www.piezoinstitute.comRédacteur : ADIT – Jean-François Desessard – email : [email protected]Origine : BE France numéro 235 (30/11/2009) – ADIT / ADIT

Chimie verte : les bioplastiques prennent leur envol

Le marché du plastique bio commence à sortir de l’ombre. L’allemand BASF a annoncé, mi-novembre, l’ajout d’un nouveau plastique biodégradable à sa gamme de produits Ecovio. Les américains Metabolix et Archer Daniels Midland (ADM) annoncent, quant à eux, une nouvelle co-usine de bioplastiques aux Etats-Unis. BASF estime à 20 % la croissance annuelle du marché des bioplastiques et des plastiques biodégradables pour les prochaines années.Cette tendance est confirmée par un rapport de l’association European Bioplastics, qui prévoit une multiplication par 6,5 du marché des bioplastiques, en volume, entre 2007 et 2013. Il est vrai que le chemin à parcourir est long : les bioplastiques ne représentaient, en 2007, que 0,3 % du marché mondial du plastique (en volume).Plastique biodégradable Le nouveau biomatériau conçu par l’allemand BASF concerne les papiers d’emballages (produit Ecovio FS Paper), et les films thermorétractables (produit Ecovio FS Shrink Film). Le leader mondial de la chimie prévoit une mise sur le marché à grande échelle de ces deux produits pour le premier trimestre 2010.Depuis 2008, BASF travaille sur un plastique biodégradable, baptisé Ecovio. Il se compose de 45 % d’acide polylactique (PLA) obtenu à partir du maïs et de 55 % d’Ecoflex, une matière plastique biodégradable issue de ressources fossiles produite par BASF.Les papiers d’emballages seront utilisés par exemple pour les revêtements de gobelets en papier ou les boîtes en carton. Les plastiques représentent 17 % du chiffre d’affaire de BASF, qui se penche de plus en plus sur le segment bio du marché des plastiques.A base de maïsBASF n’est pas le seul. Mi-novembre, les sociétés américaines Metabolix, spécialisée dans les biosciences, et ADM, un industriel de l’agro-alimentaire, ont annoncé l’ouverture d’une nouvelle usine de bioplastique utilisant le maïs, qui exploitera un brevet du MIT, d’après les informations recueillies par le Cleantech group. Ce plastique aura la particularité de se biodégrader.L’usine sera située à Clinton dans l’Iowa et produira l’équivalent de 1 % de la production totale de tous les plastiques aux Etats-Unis.Une filière colossaleL’appellation bioplastique regroupe sous un nom général les plastiques issus de ressources renouvelables végétales ou animales et les plastiques biodégradables qui peuvent être issus de ressources renouvelables ou d’origine fossile.Parmi les matières premières végétales utilisées se trouvent notamment : les céréales (mais, blé, pois), les tubercules (patate douce, betterave sucrière), les plantes sucrières (canne à sucre), les oléagineux (huile de ricin), les protéagineux et enfin les co-produits (épluchures de pommes de terre, par exemple).Chacun de ces produits présente des propriétés différentes qui déboucheront sur des fonctionnalités de plastiques différentes : élasticité, transparence, rigidité, perméabilité, biodégradabilité… Les débouchés sont nombreux : films, sacs, emballages, produits de consommation entre autres.Secteur automobileL’habitacle en plastique des voitures est ainsi de plus en plus concerné. En octobre dernier, le constructeur automobile PSA a annoncé vouloir tripler la part des matériaux verts dans les pièces en plastique de ses voitures d’ici à 2011.C’est le cas également de Toyota, qui se penche sur une voiture électrique hybride constituée d’un châssis en bioplastique, pour l’horizon 2020.Source : Green Univers

Une centrale solaire sans photovoltaïque

http://www.bulletins-electroniques.com/actualites/61457.htmL’énergie solaire est l’une des énergies renouvelables ayant donné lieu à d’importants investissements, notamment dans le domaine des panneaux photovoltaïques. Cependant, l’utilisation de l’énergie solaire ne se restreint pas à ces cellules convertissant photons en électrons.Le prototype d’une centrale solaire bien différente vient d’être inauguré par la firme Airlight Energy à Biascadans le canton du Tessin. Le principe de cette centrale est simplement de concentrer la chaleur du soleil. Les rayons du soleil incidents traversent la première paroi du concentrateur en ETFE (EthyleneTetraFluoroethylene).Cette paroi, transparente, transmet près de 85 % de l’énergie incidente. A l’intérieur du concentrateur, la surpression est de quelques millibars. Les rayons sont ensuite réfléchis par un miroir de Mylar (PolyethylèneTéréPhtalate) d’une ouverture de 9,5 m. Cette paroi est constituée de 4 plans distincts de Mylar, supportés par une structure en fibre de verre. La différence de pressions entre les zones situées de part et d’autre des plans de Mylar permet d’ajuster exactement la forme de ceux-ci, jusqu’à obtenir une parabole quasi-parfaite.Les rayons, 80 % de l’énergie incidente, sont ainsi concentrés sur un récepteur, cavité cylindrique située au sommet d’un pilier de béton. L’air surchauffé, jusqu’à 600 °C, est ensuite transféré au sein de la cavité, puis dans le circuit du caloporteur. Qui est donc ici de l’air, qui bien qu’ayant une basse chaleur spécifique, présente l’avantage de ne pas être corrosif comme les sels fondus ou polluants comme l’huile. Cette technique permet également d’importantes économies d’eau.Via un échangeur de chaleur, l’air chaud permet d’alimenter une turbine en vapeur et de générer ainsi de l’électricité. Autre originalité de cette centrale d’Airlight Energy : le jour, outre la génération d’électricité, l’air chaud sert également à chauffer le réservoir qui est constitué de pierres. La nuit, la mise en circulation d’un ventilateur évacue cette chaleur des pierres vers l’échangeur, permettant ainsi la génération d’électricité. Selon Airlight Energy, le stockage atteint ainsi un peu plus de 24 heures.Le concentrateur, d’un poids de près de 200 tonnes et de 50 mètres de long, a été conçu par Airlight Energy en collaboration avec l’Ecole Polytechnique Fédérale de Zürich (ETHZ) et la Haute école de la Suisse italienne (Supsi). Il est le troisième et dernier prototype lancé par Airlight. 
Origine :
BE Suisse numéro 23 (7/12/2009) – Ambassade deFrance en Suisse / ADIT –http://www.bulletins-electroniques.com/actualites/61457.htmGaël Robert est chargé de mission scientifique à l’ambassade de France en Suisse.

Les processeurs multi-coeurs vont s’imposer aussi dans le segment des mobiles

Très largement présents dans les ordinateurs portables, les processeurs multi-coeurs vont progressivement s’imposer dans le secteur des mobiles estime In-Stat. Objectif : augmenter leurs performances, notamment en matière de transfert et de traitement des données, sans pour autant accroître leur consommation d’énergie.Ce virage devrait s’amorcer dès 2010, considère la société d’études. Il concernera en premier lieu le segment des Netbooks (ordinateur de très petite taille équipé d’une connexion Internet haut débit et de logiciels de bureautique) et des Smartphones (téléphone mobile couplé à un PDA fournissant des fonctionnalités d’agenda, de navigation Web, de boîte mail, de messagerie instantanée, de GPS, etc).En 2011, ce sera au tour des UMPC (Ultra mobile personnal Computer c’est-à-dire des portables très compacts incluant un ordinateur complet et une connexion sans fil) et des MID (Mobile Internet Devices, petits ordinateurs portables conçus pour un public de non-professionnels et principalement destinés à la navigation Web et au multimédia), tirés dans ce sens par le développement des applications graphiques et multimédias. Les processeurs multi-coeurs se généraliseront ensuite à l’ensemble de la famille des mobiles entre 2012 et 2013, pour équiper, à cette date, 88 % des appareils de ce segment.De même, si les processeurs multi-coeurs sont aujourd’hui essentiellement présents dans des produits, comme les PC portables, qui utilisent une architecture x86, ils devraient rapidement se développer pour des articles utilisant l’architecture ARM. L’apparition fin 2009 début 2010, d’un nouveau processeur multi-coeurs spécifique à chaque architecture, ARM et x86, devrait d’ailleurs relancer la bataille pour la plus forte croissance sur le marché des semi-conducteurs mobiles. Affaire à suivre donc, sur un marché, celui des mobiles, qui devrait croître selon In-Stat de 22,3 % par an jusqu’en 2013 pour atteindre 775 millions d’unités dans le monde.A.L B

Elles bougent pour faire connaître les métiers d’ingénieurs

(Cet article a été initialement publié le 07/12/09 sur Maviepro.fr) Le forum Elles bougent pour le ferroviaire se tient demain à Paris et invite 40 étudiantes à découvrir les métiers de cette filière, à laquelle elles n’ont peut-être jamais pensé. Une première pour l’association Elles bougent concernant ce secteur d’activité, qui a bien compris que pour féminiser ces métiers scientifiques, il faut aussi et surtout sensibiliser les jeunes filles encore en phase d’orientation. Une matinée bien chargée en partenariat avec la SNCF, Altom Transport ou encore Systra. 17 femmes issues de ce secteur feront office de marraines et partageront leur expérience professionnelle en deux temps. A partir d’un exemple de projet ferroviaire, tous les métiers seront étudiés à la loupe. Puis, sous la forme de tables rondes et en petits groupes, les étudiantes pourront approfondir le sujet avec leurs marraines.

Participer à cette opération
Pour Martine Sallé, responsable enseignement supérieur à la direction des cadres de la SNCF,  » Promouvoir les femmes dans les métiers ingénieurs et techniques (…) est un enjeu de société, une mission d’intérêt général « . Selon Anne Geneviève Gariel, directrice des ressources humaines de Systra, participer à cette opération est aussi l’occasion de  » convaincre les femmes que les métiers d’ingénieurs ne doivent pas leur rester étrangers, qu’elles peuvent s’y épanouir (…) sans que cela soit au détriment de la construction de leur vie personnelle « . A noter que l’action menée par Elles bougent ne se résume pas seulement au secteur ferroviaire, mais vise aussi l’automobile, l’aéronautique, l’énergie, le maritime et le spatial. 
Pour Marie-Sophie Pawlak, la présidente de Elles bougent et directrice des relations extérieures de l’Estaca,  » L’initiative de l’association est également motivée par un changement radical des comportements et des métiers « , avant d’expliquer sur le site Internet de l’association :  » Aujourd’hui, les filles privilégient des distractions plus diversifiées que les générations précédentes. Par ailleurs, on ne conçoit plus une voiture comme il y a vingt ans et la génération croissante de l’ingénierie assistée par ordinateur change grandement la donne « .

 Par Fanny Bonnin, Journaliste du site Maviepro.fr (article publié initialement le 7/12/09)

48 coeurs pour un processeur made in Intel

Repousser toujours un peu plus loin les limites en matière de performances des processeurs, et plus largement du matériel informatique. Une course dans laquelle Intel vient de marquer un point important. Les chercheurs des Intel Labs de Bangalore (Inde), des Etats-Unis et d’Allemagne viennent d’annoncer la mise au point d’un processeur expérimental qui regroupe 48 coeurs de traitement totalement programmables. Baptisée  » Single-chip cloud computer « , cette puce de silicium possède ainsi dix à vingt fois plus de moteurs de traitement que la plupart des processeurs Intel qui existe actuellement. Un record pour la société. Au delà, elle dispose également d’un réseau intégré à haute vitesse qui relie les coeurs pour optimiser le partage d’informations et d’un système de gestion électrique qui permettent à l’ensemble du processeur de travailler très efficacement avec une puissance d’à peine 25 watts au ralenti et de 125 watts à pleine puissance, soit l’équivalent des processeurs actuels.  

Voir la vidéo
Bien sûr, ces équipes n’en sont qu’au stade du prototype. Mais cette innovation ouvre de nouvelles perspectives. L’objectif, à long terme, est de doter les futurs ordinateurs d’applications logicielles inédites et de transformer les interfaces homme- machine. Ainsi, un ordinateur doté de ce processeur pourrait avoir les capacités de traitement nécessaires à l’intégration d’une fonction  » vision « . Plus besoin de clavier, de télécommandes ou de manettes pour interagir avec la machine. Les gestes pourraient suffirent et pourraient être reproduits à l’identique dans un univers virtuel (achat de vêtements, jeux) ou dans un autre lieu via un robot (chirurgie à distance).De même, grâce à leur réseau intégré à haute vitesse et à leur système de gestion électrique, ces puces permettent d’imaginer des centres de données virtuels plus économes et surtout, plus efficaces en matière de traitement des informations. Au lieu de se déplacer de plusieurs dizaines de mètres, les paquets de données n’ont qu’à se déplacer de quelques millimètres sur la puce.Afin d’approfondir les recherches nécessaires au développement de ce prototype, Intel prévoit de fabriquer une centaine de ces puces expérimentales qu’il devrait distribuer, pour leurs usages, à des centres de recherche privés et universitaires. L’objectif étant l’élaboration d’applications logicielles et de modèles de programmation pour les futurs processeurs multi-coeurs. L’un des premiers bénéficiaires de ce programme est d’ailleurs l’école polytechnique fédérale de Zurich (ETHZ).  Lien utileToutes les informations sur le site d’Intel A.L B

Saena Technologies propose un code-barre spectral à base de nanoparticules

http://www.bulletins-electroniques.com/actualites/61380.htmExploitant une technologie issue des travaux de recherche de l’équipe Spectroscopie et Nanomatériaux de l’Institut des Nanotechnologies de Lyon (CNRS/Ecole Centrale de Lyon/INSA de Lyon/Université Claude Bernard de Lyon), SAENA Technologies, créée officiellement le 19 novembre dernier par Mehdi Medjaoui, un jeune ingénieur de l’INSA, est une start-up qui souhaite utiliser certaines propriétés, notamment de luminescence, de nanoparticules de semi-conducteurs, afin d’élaborer un code-barre spectral pour le marquage et l’authentification des matériaux. A plus long terme, ces nanoparticules pourraient également servir de combustible pour les piles à combustible ou encore être utilisées comme traitement thérapeutique du cancer. Lauréat de la 11ème édition du Concours National d’Aide à la Création d’Entreprises de Technologie Innovantes en juin dernier, SAENA Technologies, installée dans l’incubateur d’entreprise CREALYS, est soutenue par INSAVALOR, la filiale de valorisation de l’INSA de Lyon et FIST, filiale de transfert et de commercialisation de technologies innovantes du CNRS et d’OSEO INNOVATION. »J’ai toujours eu l’envie de créer une entreprise « , confie d’emblée Mehdi Medjaoui. C’est donc tout naturellement, lorsque l’occasion se présente, durant son cycle d’ingénieur au sein de l’INSA de Lyon, en science et génie des matériaux, qu’il s’engage dans cette aventure. Il est alors en stage de cinquième année qu’il réalise à l’Institut des Nanotechnologies de Lyon (INL), une jeune Unité Mixte de Recherche dans laquelle travaille notamment Vladimir Lysenko, chargé de recherche au CNRS, qui l’accompagne dans ce projet de création de start-up. Les chercheurs de l’INL mènent notamment des travaux sur les nanoparticules de silicium et de carbure de silicium.  » Entre 1 et 10 nanomètres de diamètre, ces particules présentent des propriétés très intéressantes, notamment de luminescence, leurs propriétés spectrales dépendant de leur taille. Ainsi, en réussissant à contrôler leur distribution en taille il est alors possible d’élaborer un code-barre spectral. Intégrer dans un matériau, ce code-barre permet alors de marquer celui-ci et de l’authentifier « , explique Mehdi Medjaoui.Brevetée, à terme cette technologie devrait permettre à SAENA Technologies de produire des nanopoudres destinées au marquage et à l’authentification des matériaux, mettant ainsi sur le marché un nouvel outil pour accroître leur contrôle qualité, leur traçabilité et lutter ainsi contre leur contrefaçon.  » Jusqu’à présent, nous travaillons sur un pilote installé à l’INL qui ne permet pas de produire ces nanopoudres en quantité suffisante. Mais nous devrions disposer dès février d’une installation pré-industriellle qui nous permettra d’en produire de 1 à 10 kilos par mois « , précise-t-il. Autre préoccupation de SAENA Technologies, l’approvisionnement en matières premières, à savoir silicium et carbure de silicium non conventionnels. Car si l’industrie de la microélectronique utilise des wafers toujours très sophistiqués à la valeur ajoutée sans cesse plus importante, la start-up lyonnaise a besoin de matériaux massifs dont les surfaces sont importantes. Aussi collabore-t-elle avec des entreprises de l’industrie du photovoltaïque pour s’approvisionner.

1 tonne par mois à l’horizon 2011

Mais là ne s’arrête pas les ambitions de SAENA Technologies. Car ces nanoparticules, en fonction de leur taille, pourraient être utilisées également pour d’autres applications, aussi brevetées, en particulier dans des piles à combustible où, mélangées dans une solution, elles serviraient alors de combustible. Mais comme ces nanoparticules sont fluorescentes, les chercheurs ont essayé aussi de les utiliser pour marquer des cellules cancéreuses.  » Or les résultats des tests in vitro ont montré qu’une grande majorité des cellules cancéreuses avaient été tuées, ce qui était inattendu. D’où le lancement de tests in vivo qui sont en cours « , indique Medhi Medjaoui qui précise que cette dernière application n’est encore que dans la phase de recherche.Ainsi pour SAENA Technologies, il s’agit d’abord de se positionner solidement comme une entreprise spécialisée dans le marquage et l’authentification des matériaux à l’aide de code-barre spectral à base de nanoparticules.  » A plus long terme, nous devrions proposer d’autres technologies de marquage, en particulier deux d’entre elles que nous sommes en train de breveter, l’une pour le marquage des métaux, qui représente un problème de plus en plus important pour les industriels, l’autre destinée au secteur de l’agroalimentaire. » Mais pour l’heure, il s’agit de produire à l’échelle industrielle, l’objectif que s’est fixée SAENA Technologies étant d’une tonne par mois fin 2010. En savoir plus : Saena Technologies – Mehdi Medjaoui : tél. +33 (0)6 14 94 59 03 – email : [email protected]Rédacteur : ADIT – Jean-François Desessard – email : [email protected]Origine : BE France numéro 235 (30/11/2009) – ADIT / ADIT – http://www.bulletins-electroniques.com/actualites/61380.htm

Icera ouvre en France un centre de R&D sur la LTE

Icera, société britannique spécialisée dans la fabrication de puces de communication cellulaire configurables par logiciel, devrait finalement ouvrir en France, à Sophia Antipolis, un centre de recherche et développement consacré à la technologie LTE (Long Term Evolution) qui est au coeur de la future quatrième génération de téléphone mobile. C’est du moins ce qu’annonce un communiqué de presse émanant du ministère de l’Industrie sans préciser toutefois la date exacte de l’inauguration du centre. Seule précision, mais non des moindres, cette structure devrait embaucher 50 ingénieurs dans les trois prochaines années afin d’améliorer les performances des puces fabriquées par la société. Des puces modem qui, aujourd’hui, ont adopté une architecture multi-coeur et un fonctionnement en parallèle afin d’augmenter leurs performances sans multiplier leur consommation d’énergie.Afin de faciliter la mise en oeuvre de ce projet, Icera va bénéficier d’un Crédit Impôt Recherche. Une incitation fiscale qui viendra compléter les dernières levées de fonds que la société a réalisées ces deux dernières années. En avril 2008, Icera a levé 40 millions de dollars (27 millions d’euros) auprès de ses investisseurs historiques, à savoir Accel Partners, Atlas Venture, Amadeus Capital Partners, Balderton Capital ( ex Benchmark Capital Europe) and 3i Group plc, auxquels est venu s’ajouter Tudor Investment Corp (Boston, Mass). Huit mois plus tard, elle clôturait à nouveau un tour de table de 70 millions de dollars (47,2 millions d’euros) auprès de ces mêmes investisseurs historiques auxquels est venu s’ajouter cette fois-ci ETV Capital SA and MMV Financial Inc.Icera n’est toutefois pas un nouveau venu sur la Côte d’Azur. Elle est implantée à Sophia Antipolis depuis janvier 2005 et en janvier 2009, elle comptait quelques 95 salariés en charge du développement d’éléments spécifiques pour les logiciels de communications ainsi que du  » Customer Engineering and Validation « . Un nouveau projet qui bénéficiera du pôle de compétitivité Solutions Communicantes Sécurisées (SCS) et qui devrait accroître les compétences du pôle français. Liens utiles

  • Le site d’Icera
Qu’est-ce que la LTE ?La LTE est un projet mené par l’organisme de standardisation 3GPP visant à rédiger les normes techniques de la future quatrième génération en téléphonie mobile. Elle permet le transfert de données à très haut débit, avec une portée plus importante, un nombre d’appels par cellule supérieur (zone dans laquelle un émetteur de téléphonie mobile peut entrer en relation avec des terminaux) et une latence plus faible. En théorie, elle permet d’atteindre des débits de l’ordre de 50 Mbps en lien ascendant et de 100 Mbps en lien descendant, à partager entre les utilisateurs mobiles d’une même cellule. A.L B

Mobile et santé : l’incertitude prévaut chez les Français

La téléphonie mobile fait désormais partie de la vie quotidienne des Français. 79 % d’entre eux disposent de cet appareil à titre personnel ou professionnel en septembre 2009 selon l’Observatoire sociétal du téléphone mobile réalisé par TNS Sofres pour le compte de l’Association française des opérateurs mobiles (AFOM). Pour autant, ils s’interrogent toujours sur l’impact éventuel du mobile sur leur santé (voir méthodologie de l’étude). Début novembre 2009, soit quelques semaines après la publication, le 15 octobre, de l’avis de l’Afsset sur les conséquences des radiofréquences sur la santé et qui, au vu des incertitudes qui demeurent, recommande de développer la recherche afin de lever les ambiguïtés encore existantes et de réduire les expositions du public (lire le communiquer de presse de l’Afsset), 36 % des Français de 12 ans et plus estiment que les téléphones mobiles sont dangereux pour la santé.   Un chiffre à prendre toutefois avec beaucoup de précautions car il est très fluctuant et étroitement lié à l’actualité. En effet, en août 2009, c’est-à-dire en plein coeur de l’été, les Français n’étaient que 29 % à estimer que les téléphones mobiles sont dangereux pour la santé. Alors qu’en juin 2009, soit juste après la table ronde sur le Grenelle des Ondes organisée par le ministère de la Santé, mais également par deux sous-secrétariats d’État (Écologie et Développement de l’économie numérique), ils étaient 41 % à exprimer cette opinion. Concernant les antennes relais, en revanche, c’est l’incertitude qui prévaut. 32 % des Français déclarent ne pas savoir vraiment quels sont les effets de ces équipements sur la santé car certains scientifiques disent qu’ils sont dangereux alors que d’autres affirment le contraire. A cela s’ajoute 31 % de personnes qui déclarent que l’on n’a pas la preuve aujourd’hui d’un danger, mais que l’on manque de recul sur le sujet.Au vu de ces résultats, on ne peut dire qu’une chose : que la recherche doit donc continuer pour apporter de nouveaux éléments et quels que soient les résultats, qu’un effort de pédagogie et de clarté de l’information doit être fait sur la durée et non pas ponctuellement. Méthodologie de l’étudeCette enquête a été réalisée les 28, 31 août et 1er septembre 2009 auprès d’un échantillon national de 1.200 personnes représentatif de l’ensemble de la population française âgée de 12 ans et plus selon la méthode des quotas (sexe, âge, profession du chef de ménage) et selon une stratification par région et par catégorie d’agglomération. Ces personnes ont été interrogées en face à face à leur domicile par le réseau des enquêteurs TNS Sofres. Cet échantillon est identique à celui utilisé en 2006, 2007 et 2008. En 2005, l’étude portait sur un échantillon national représentatif des Français âgés de 15 ans et plus. )Liens utiles

  • L’étude sur le site de l’AFOM
  • Le communiqué de presse de l’Afsset sur les radiofréquences

 A.L B

Seuls 12 % des mobiles professionnels sont des smartphones

La téléphonie mobile s’est imposée dans la société française, mais sa diffusion tend à se stabiliser en 2009. Telle est l’une des premières conclusions de la 5ème édition de l’observatoire du téléphone mobile réalisée par TNS Sofres pour le compte de l’Association française des opérateurs mobiles (AFOM) (voir la méthodologie).En 2009, 79 % des personnes interrogées déclarent disposer d’un téléphone mobile personnel ou professionnel, soit le même chiffre qu’en 2008. Un équipement qui va d’ailleurs souvent de pair avec une ligne fixe (69 % des interviewés). Seuls 10 % d’entre eux disent n’avoir qu’un téléphone mobile, soit deux point de moins qu’en 2008 (12 %). Le taux d’équipement de la population active en mobile professionnel s’élève quant à lui à 21 %.   Mais de quelle nature sont ces téléphones ? Diffèrent-ils selon qu’il s’agit d’un appareil personnel ou professionnel ? La réponse est clairement positive. La majorité des mobiles personnels (54 %) permettent, en plus des fonctions de base, de prendre des photos ou d’écouter de la musique, contre 38 % pour les téléphones professionnels. A contrario, les mobiles professionnels sont soit proportionnellement beaucoup plus frustres, 50 % d’entre eux n’offrent que les fonctions de base (téléphoner et envoyer des SMS), soit beaucoup plus complets en permettant d’accéder à l’Internet mobile (12 % contre 9 % pour les téléphones à usage personnel). D’ailleurs, au global, la proportion de mobinautes dans la population des français équipés d’un mobile continue de progresser. En 2009, 23 % déclarent utiliser leur mobile comme un accès à Internet, soit 1 point de plus qu’en 2008. Un chiffre bien supérieur chez les 12-24 ans (41 % en hausse de 7 points) ainsi que chez les 25-39 ans (31 % en hausse de 8 points). Mais cette pratique reste essentiellement confiné à l’espace de la maison (59 %). Seuls 38 % des mobinautes déclarent se connecter dans la rue, 36 % dans un salle d’attente, 35 % au travail ou en cours, 35 % dans un café ou au restaurant et 32 % dans les transports en commun. L’Internet mobile a donc encore des progrès à faire.Sans doute faut-il attendre les nouveaux standard qui permettront de débrider les débits. Méthodologie de l’étudeCette enquête a été réalisée les 28, 31 août et 1er septembre 2009 auprès d’un échantillon national de 1.200 personnesreprésentatif de l’ensemble de la population française âgée de 12 ans et plus selon la méthode des quotas (sexe, âge, profession du chef de ménage) et selon une stratification par région et par catégorie d’agglomération. Ces personnes ont été interrogées en face à face à leur domicile par le réseau des enquêteurs TNS Sofres. Cet échantillon est identique à celui utilisé en 2006, 2007 et 2008. En 2005, l’étude portait sur un échantillon national représentatif des Français âgés de 15 ans et plus. )Liens utiles

  • L’étude sur le site de l’AFOM

 A.L B

Prix des Techniques Innovantes pour l’Environnement 2009 : l’audace récompensée

Le mardi 1er décembre, à l’occasion du salon Pollutec Horizons étaient remis les Prix des Techniques Innovantes pour l’Environnement, sur le plateau de Pollutec TV, installé au cœur du parc des expositions. Ces prix récompensent les laboratoires de recherche publique effectuant des recherches pouvant faire l’objet, à court terme, d’applications concrète ou de développement industriel. Cette année, 32 projets ont été soumis à un jury de cinq journalistes spécialisés dans des domaines tels que la chimie, l’eau ou l’environnement. Voici, par catégorie, les projets récompensés :

Maîtrise de l’énergie /énergies renouvelables
Valorisation du CO2 par voie thermochimique solaire pour la production de combustible synthétiqueCe projet, très ambitieux, pourrait permettre la production de carburant à partir du CO2. Stéphane Abanades, qui dirige le projet, nous explique les avantages de ce type de valorisation du CO2 : « l’utilisation d’un procédé solaire permet d’effectuer la dissociation du CO2 à des températures relativement basses, loin des 2.500 °C théoriques. Cela remet en courses les infrastructures déjà existantes pour la production de carburant à partir du CO2 ».
Eau / dépollution de l’eau
Reconditionnement de l’eau des stations d’épuration viti-vinicoles par procédés membranairesCristèle Delsart et son équipe du laboratoire de la faculté d’œnologie de la faculté de Bordeaux ont travaillé sur de couplage d’un procédé de filtration membranaire aux stations d’épuration viti-vinicoles pour permettre un reconditionnement de l’eau traitée.Nanoparticules métalliques supportées pour la dégradation de perturbateurs endocriniens dans l’eauL’équipe de chimie organique et supramoléculaire de l’ENSC Rennes utilise des nanoparticules métalliques supportées dans les systèmes catalytiques aqueux, dans le but de trouver une alternative aux procédés usuels utilisant des solvants organiques.Séquestrants macrocycliques supportés du plomb : de la molécule à l’épuration de l’eau potable par extraction solide/liquideCe projet, mené par Michel Meyer, de l’Institut de Chimie Moléculaire de l’Université de Bourgogne. Le projet s’appuie sur le développement de séquestrants tétraazamacrocycliques fonctionnalisés présentant une excellente affinité pour le plomb et une sélectivité vis-à-vis des ions alcalins (sodium, potassium) et alalino-terreux (calcium, magnésium) ainsi que du fer, du manganèse et de l’aluminium trivalents. Le greffage de ces agents à la surface d’un minéral actif, le gel de silice, ayant permis de mettre en oeuvre les matériaux ainsi obtenus dans un procédé d’extraction solide/liquide. Les possibilités pour ces systèmes granulaires de remplissage de cartouches épuratoires pouvant être directement installées en amont d’un robinet chez le consommateur. Les essais d’épuration d’eau du robinet contaminée au contact d’un tuyau en plomb mettant en évidence des teneurs résiduelles après écoulement au travers de la cartouche prototype inférieures à la valeur guide de 10 microgrammes par litre.
Sols pollués
Quand la dépollution naturelle devient productive…Le Centre d’Ecologie Fonctionnelle et Evolutive a été récompensé à travers Claude Grison pour des recherches sur le développement d’une nouvelle génération de biotechnologie blanche reposant sur l’utilisation d’une biomasse développée sur des sites miniers comme catalyseurs naturels de transformations chimiques d’applications très générales. Les capacités de développement de certaines plantes sur des sols contaminés telle que Thiaspi caerulescens ayant acquis des seuils de tolérance et des propriétés d’accumulation des métaux de transition importantes. A la clé, comme le souligne Claude Grison, « la possible utilisation de cette biomasse végétale dans des procédés de synthèse propres et sobres grâce à l’effet catalytique des matériaux de transition ».La dégradation biologique des Polychlorobiphényles par Phanerochaete chrysosporium – Etude du potentiel technologiqueLe lauréat, Matthieu Sangely, de l’INP Toulouse, a porter ses recherches sur les capacités de dégradation des PCB par un champignon lignolytique également appelé « pourriture blanche », le Phanerochaete chrysosporium, présentant la particularité de pouvoir dégrader un large éventail de xénobiotiques.
Déchets
Dispositif de traitement de biomasse humide par fritureBruno Lavedie, du laboratoire Rapsodée, a étonné le jury avec son idée de mettre des boues en friture ! Les résultats obtenus mettent en évidence un produit chimiquement stable, exempt d’éléments pathogènes et sans odeur désagréable. Procédé innovant de désencrage réactif à l’ozone des fibres cellulosiques de récupérationMarc Aurousseau, et son équipe du Laboratoire de Génie des Procédés Papetiers de Grenoble ont effectué des recherches sur l’effet de l’ozone introduit directement lors de l’étape de désencrage des fibres cellulosiques de récupération par flottation, et sur l’optimisation de son action, afin d’améliorer les propriétés optiques des fibres recyclées et réduire l’impact environnemental des rejets. Les résultats obtenus mettant en évidence l’amélioration de l’élimination de l’encre des fibres, une légère diminution de la production de boues de désencrage et pour des concentrations optimales en ozone variant entre 0,6 et 1,2 g O3/g de matière sèche désencrée une amélioration de la sélectivité pour les deux types de papier traité.
Analyse / mesure
Développement d’un analyseur en ligne de concentration d’ammoniac atmosphérique multicanauxBenjamin Loubet et son équipe du laboratoire UMR de l’INRA développent une technique d’analyse de la concentration d’ammoniac atmosphérique. Ce projet s’appuie sur le développement du système ROSAA (RObust and Sensitive Ammonia Analyser), analyseur d’ammoniac très sensible, robuste (entretien bi-hebdomadaire ou mensuel/contrôle hebdomadaire), avec étalonnage automatisé. Le système ROSAA repose sur le couplage de capteurs (« denuders » verticaux) piégeant l’ammoniac gazeux sous forme d’ammonium, à une analyse en ligne de la concentration en ammonium piégé.Estimation du potentiel éolienC’est le Laboratoire de Traitement d’Images et Rayonnement de la ville d’Alger qui est primé, à travers sa représentante Fatiha Youcef Ettoumi, qui a profité de la remise de ce prix pour appeler les laboratoires francophones à « plus collaborer, échanger, et mutualiser les moyens et les connaissances », surtout en ce qui concerne la recherche sur les énergies renouvelables. Son projet s’appuie sur le développement et la mise au point d’un logiciel permettant l’extrapolation de la vitesse du vent dans le temps et dans l’espace en 3 D (rayon, hauteur, temps) à base de réseaux de neurones pour un apprentissage de quelques jours, ou une exploitation des données temps réel.Mesure rapide du potentiel méthane (Biochemical Methane Potential) d’ordures ménagères et interprétation de leur biodégradabilité par spectroscopie proche infrarouge pour l’optimisation des procédés de digestion anaérobieMatthieu Lesteur, qui représentait la Plateforme Technologique Régionale Ecotechnologies pour les agro-Bioprocédés-INRA-Cemagref-EMA-CIRAD-Montpellier Supagro, a présenté un projet qui pourrait assez rapidement avoir des retombées en termes d’instrumentation, de chimiométrie et de traitement des déchets. La réalisation de ces objectifs est basée sur le développement d’une méthode de détermination rapide du potentiel méthane (BMP) de déchets pour optimiser les procédés industriels de production de méthane par utilisation de la spectroscopie proche infrarouge (SPIR).

Quand Nheolis reinvente l’éolienne compacte

Cette année, le prix européen de l’innovation environnementale, le Gold EEP-Award, a été attribué mercredi 2 décembre 2009 sur le salon Pollutec Horizons, à Nheolis, une jeune entreprise française. Basée à Aix en Provence, cette start-up technologique a été créée en 2005 pour développer une éolienne compacte, adaptée à une utilisation urbaine. Son originalité : un nouveau concept de voilure volumique à axe horizontal qui augmente le rendement de l’appareil. Nordine Haddjeri, président et fondateur de la société revient sur cette technologie et sur ses atouts.

Techniques de l’ingénieur : Vous venez de recevoir le Gold EEP-Award pour votre éolienne Nheowind 3D. Pouvez revenir rapidement sur la genèse de ce projet ?

Nordine Haddjeri : En fait, ce projet est né en 2005. J’étais alors directeur marketing d’un laboratoire pharmaceutique, mais aussi un passionné de voile et de mécanique et je m’intéressais énormément à tous ce qui touche l’environnement. Un de mes amis mathématicien m’a alors parlé du principe de Bernoulli [NDLR : principe qui stipule que l’augmentation de la vitesse d’un fluide se produit simultanément à la diminution de la pression], en ajoutant qu’il n’avait jamais été exploité dans le domaine de la rotation. J’ai donc essayé de le faire en l’appliquant à un nouveau concept d’éolienne et j’ai construit un premier prototype dont les premiers tests se sont avérés concluants. J’ai alors créé Nheolis en décembre 2005 et j’ai rapidement cherché deux choses : des fonds et une crédibilité. J’ai trouvé le premier en la personne de Marc Lassus, le fondateur de Gemplus. Ce qui m’a permis de réaliser un deuxième prototype et de le présenter au CNRS pour qu’ils fassent l’étude de puissance et apposent leur label. Ce qui était fait à la fin de l’année 2006. Dès lors, nous avons recherché de nouveaux investisseurs. Au final, quatre business angels ont investi 2,5 millions d’euros dans la société ce qui nous a permis en un an de passer d’un effectif de 1 personne à 14.

Sur quelle technologie repose cette éolienne et quels sont ses atouts ?

En fait, il s’agit d’une éolienne volumique à axe verticale, où la concentration du flux d’air dans un conduit entraîne une augmentation de la vitesse. Ce qui la rend très efficace. A encombrement équivalent, elle produit trois à quatre fois plus d’électricité qu’une autre éolienne. Par ailleurs, elle peut commencer à fonctionner avec des vents dont la vitesse atteint 2,5 m/s, mais peut aller bien au delà. Grâce à une structure renforcée via un haubanage des pales, elle peut résister à des vents allant jusqu’à 45 m/s. Elle est donc très robuste. Enfin, elle est auto-directionnelle et comme ses pales sont incurvées, elle ne cisaille pas le vent et est donc plus silencieuse qu’une éolienne classique.

original

Quels sont vos objectifs à présent à court et moyen terme ?

Pour l’instant, nous commercialisons un modèle d’éolienne qui est destiné aux collectivités locales ou aux administrations au tarif d’environ 20.000 euros. Mais nous allons sortir, dès le début de l’année 2010, deux nouveaux modèles dont nous avons optimisé les performances techniques avec l’ONERA. Ces derniers sont, quant à eux, destinés aux particuliers et aux sites isolés ou aux exploitations agricoles. En revanche, pour l’instant, nous n’avons pas arrêté de grille tarifaire. Voici pour le court terme. Pour le plus long terme, nous visons le marché international. Pour l’instant, en deux mois d’exploitation commerciale, nous avons vendu nos produits dans trois pays européens : l’Italie, l’Irlande et le Royaume-Uni.

En savoir plus

Le prix européen de l’innovation environnementale est organisé par l’European Environmental Press (EEP) qui regroupe 17 magazines leaders en Europe dédié à l’environnement, en partenariat avec le salon Pollutec Horizons et l’EFAEP (Association des fédérations de professionnels de l’environnement en Europe). Ce prix, organisé cette année pour la 7ème fois, vise à récompenser les meilleures innovations environnementales. Ces dernières sont jugées d’après les critères suivants :

  • Innovation et degré d’amélioration ;
  • Problème environnemental et incidence européenne ;
  • Coût, qualité et fiabilité ;
  • Bonus : l’originalité.

Outre le Gold EEP-Award, deux autres prix ont été attribués.

  • Le Silver EEP-Award est revenu à la société portugaise A4F-AlgaFuel pour la réalisation d’u prototype de réacteur utilisant la photosynthèse d’algues pour capter le CO2 produit par une cimenterie.
  • Le Bronze EEP-Award a été attribué quant à lui à la société danoise Grundfos pour son système NoNox permettant, grâce à la réduction catalytique sélective (SCR) qui utilise l’urée, de réduire les émissions d’oxydes d’azote (NOx) des véhicules diesels et de les transformer en azote.

Propos recueillis par Anne-Laure Béranger

Prix Entreprises et Environnement : le palmarès est…

Premier jour du salon Pollutec Horizons et première remise de prix. A l’honneur en ce début de matinée, mardi 1er décembre 2009, les prix Entreprises et Environnement. Organisés par le ministère de l’Ecologie, de l’Energie, du Développement durable et de la Mer (MEEDDEM) et par l’Agence de l’environnement et la maîtrise de l’Energie (ADEME), ces prix récompensent des entreprises ayant engagé des démarches exemplaires afin de maîtriser et de réduire l’impact de leurs activités et/ou de leurs produits et services sur l’environnement.Au total, 174 dossiers ont été déposés, mais seules 8 entreprises ont été récompensées au sein de 4 catégories.  » Nous constatons toutefois que l’innovation entre dans tous les domaines, y compris la logistique, résume Michèle Pappalardo, Commissaire générale au Développement durable du MEEDDEM. Ces prix ont au final relativement peu une couleur énergétique. « Le prix Ecoproduit pour le développement durable revient à la société Bio Création pour la mise au point d’une palette logistique. Réalisée en matériaux composites et équipée d’une puce RFID, ce produit beaucoup plus léger qu’une palette en bois, a également une durée de vie bien supérieure. Ce qui offre à la fois un avantage en termes de coût mais aussi en termes de gestion des ressources en bois. Enfin, ce produit ce déclinant en deux versions, dynamique pour le transport et statique pour le stockage, il permet de limiter les contaminations liés aux flux logistiques. Dans cette même catégorie, la mention spéciale du jury renvient quant à elle à Aubrillam S.A.S pour la conception d’un mât d’éclairage public en bois, baptisé Moshi.La catégorie Management et initiatives pour le développement durable récompense quant à elle la société Euro-Nat pour sa politique globale de développement durable. Transformateur et distributeur de produits biologiques d’épicerie sèche depuis 1988, Euro-Nat joue dans ce domaine sur divers tableaux : utilisation des énergies renouvelables pour couvrir 25 % de ses besoins, construction de nouveaux locaux répondant aux normes environnementales Iso 14001, tri sélectif et recyclage des déchets, utilisation de produits d’entretien bio, filière biosolidaire, réduction de l’impact carbone de l’entreprise via le reboisement autour des axes routiers, etc… La mention spéciale du jury revient elle au distributeur de plantes Botanic.Le prix des Technologies économes et propres a pour sa part été attribué aux ateliers de l’Argoat. Producteur d’andouilles et d’andouillettes, cette entreprise d’Ille et Vilaine a réussi, grâce à un nouveau procédé, à transformer les graisses animales qui résultent de sa production et qui sont pour elle autant de déchets polluants, en biocombustible. Au delà, ce procédé lui a également permis de réduire de 12 % les accidents du travail associés aux projections de graisses sur le sol. La mention spéciale du jury revient quant à elle à Lanxess Elastomères pour sa réduction des composés organiques volatils dans l’atmosphère grâce aux Zéolithes, ainsi qu’au Club Méditerranée pour la mise en place d’un traitement écologique de ses eaux usées.Enfin, le prix coopération internationale pour le développement durable revient à Signaléthique pour le développement d’une offre de cadeaux d’affaires issus du commerce équitable.A.L B

CO2 supercritique : mais pour quelles applications industrielles ?

C’est un des thèmes spécifiques abordés par l’édition 2009 du salon Pollutec Horizons : les fluides supercritiques. Et en particulier le CO2 qui, grâce à l’augmentation conjointe de sa pression et de sa température, ouvre la voie à de nouvelles applications dans de nombreux domaines. Oui, mais lesquels ? Voici quelques éléments de réponses présentés mardi 1er décembre 2009 sur le salon par Michel Perrut, président directeur général de Separex, une société spécialisée dans le développement de technologies autour des fluides supercritiques.En fait, le CO2 est intéressant à plus d’un titre pour les industriels, car à l’état supercritique, il devient un solvant naturel, certes très spécifique, puisque c’est un solvant non polaire, mais dont les propriétés lui permettent, à une température et à une pression relativement faibles (à partir de 31°C et 74 barres) de devenir une alternative aux solvants chimiques et toxiques.

Un domaine d’application très large
De fait, cette technologie est aujourd’hui de plus en plus employée par l’industrie pour des applications technologiques.  » Au total dans le monde, il existe environ 300 unités qui utilisent cette technologie dont une centaine sont des entreprises chinoise,  » précise Michel Perrut. Et le champ de ces applications est très large.En ce qui concerne l’extraction de solide, le CO2 supercritique est essentiellement utilisé par l’industrie alimentaire. L’exemple le plus connu dans ce domaine est l’extraction de la caféine dans le café, mais il est également employé pour extraire des arômes comme la baie rose, le gingembre, la vanille ou encore le houblon. Le secteur de la santé se sert également de ce procédé pour extraire les principes actifs des plantes. Dans un autre registre, le CO2 supercritique peut également permettre une extraction sélective des pesticides sans détruire les propriétés d’un végétal, ou encore, servir à stériliser une pièce ou un milieu.Autres applications du CO2 supercritique : l’extraction de monomères ou le fractionnement de polymères, mais aussi le recyclage des huiles de coupe sur les lignes de fabrication de métaux, ou le nettoyage de surfaces sur des textiles à la place du perchloréthylène, ou sur des pièces très fines comme les puces électroniques ou les pièces optoélectroniques. En revanche, s’il existe également des applications pour dépolluer des sols imprégnés par exemple de PCB, ces techniques ne sont à l’heure actuelle pas encore suffisamment mûres, estime Michel Perrut.

Mais quid d’un traitement en continu ?
Toutefois, la plupart de traitements fonctionnent par « batch », c’est-à-dire par lots. Est-il possible de les utiliser en continu ? Oui, mais pas pour tous les produits. Les liquides se prêtent en particulier très bien à ce procédé. C’est le cas notamment de l’extraction des arômes des boissons telles que le rhum, le cognac, le whisky, le vin, la bière, le cidre ou encore, les essences de citrus. Mais il est possible également d’utiliser ce procédé pour fractionner des lipides tels que des huiles de poisson ou encore pour recycler des huiles de friture, ou enfin, pour fractionner des polymères à l’état liquide.

Les autres applications
Enfin, outre l’extraction de solide, le CO2 supercritique peut également être employé en imprégnation, par exemple pour diminuer l’apport de solvants dans une peinture. Mais il est également possible de faire de l’expansion pour la fabrication de mousses de polymères ou d’aérogels, des matériaux semblables à un gel où le composant liquide est remplacé par du gaz et qui s’avèrent être d’excellents isolants, malheureusement encore très chers pour l’instant. Pour finir, le CO2 supercritique peut être utilisé dans le secteur de la santé pour produire des poudres sur-mesure ou fabriquer des nanoparticules qui seront collées à un autre produit, par exemple du lactose, pour éviter leur dispersion. Pour autant, le CO2 supercritique est-il merveilleux. La réponse de Michel Perrut est sans appel : non ! Par contre, s’il est vrai qu’il nécessite des investissements lourds, les coûts d’exploitation son proportionnellement faibles et l’effet de taille est considérable, ce qui favorise le développement de très grandes installations.A.L B 

De nouveaux champs d’application grâce aux cellules solaires flexibles

Le professeur John Rogers, chercheur à l’Université de l’Illinois, a mis au point avec son équipe des cellules solaires flexibles. Il nous explique le défi technologique que représente cette innovation, et les champs d’application potentiels.

Quelle méthode avez-vous utilisée ?
Nous avons des méthodes de gravure pour le silicium (Si) et l’arsénure de gallium (GaAs), qui nous permettent de « trancher » dans l’épaisseur de la surface d’une wafer, des couches ultra-minces (c’est-à-dire d’une épaisseur comprise entre 2 et 20 microns) qui peuvent être utilisées pour des micro cellules solaires. La chimie de la gravure est différente pour ces deux matériaux mais le concept reste le même. 

Dans quelle mesure cela va-t-il étendre le champ d’application des cellules solaires photovoltaïques ?
La géométrie fine représente une manière efficace d’utiliser les matériaux et les wafers de support (dans le cas du GaAs), et est ainsi à l’origine d’une réduction des coûts. La taille minime des cellules rend la dissipation thermale passive beaucoup plus efficace que pour les cellules volumiques conventionnelles. Cet aspect est particulièrement important pour les systèmes de concentrateurs (par exemple GaAs) et simplifie la forme des optiques de focalisation. De plus, la géométrie fine suppose un degré de flexibilité mécanique qui peut non seulement faciliter le transport et l’installation des modules, mais ouvre également la voie à de nouvelles applications. Enfin, nous sommes en mesure de contrôler les espaces entre les micro cellules individuelles dans les modules finis, ce qui nous permet de définir, à l’étape du montage, un niveau donné de transparence optique qui peut s’avérer important pour certaines utilisations. 

Est-ce exagéré de parler d’une révolution en cours dans l’industrie solaire photovoltaïque ?
Il existe de nombreux groupes de recherche sur les nouvelles technologies solaires. On peut distinguer ceux qui développent de nouveaux matériaux (dominés par les organiques et les polymères) et ceux qui développent de nouvelles façons d’utiliser les matériaux anciens. Nous tombons dans la seconde catégorie. 

Avez-vous bon espoir de voir commercialiser des cellules solaires ultra-minces et flexibles d’ici la fin de l’année comme l’annonce l’entreprise de semi-conducteurs Semprius ?
Oui, Semprius possède aujourd’hui des prototypes qui fonctionnent et a l’intention d’améliorer ces systèmes pour les distribuer cette année à des groupes clés pour des tests sur le terrain. Toutefois, ils ne seront pas encore en mesure de les fabriquer en grande quantité. Cette étape devrait, nous l’espérons, être franchie l’année prochaine. Il est important de souligner que Semprius ne fabrique pas de modules flexibles. Ils fabriquent des systèmes de micro concentrateurs GaAs dont le substrat est le verre. John Rogers est professeur de science et d’ingénierie des matériaux à l’Université de l’Illinois.

Dématérialisation des factures en France : un marché de 400 millions d’euros en 2009

Comment la dématérialisation de factures a-t-elle évolué en France depuis 2004, date à laquelle le format électronique a commencé à se substituer au format papier ? Selon la récente enquête menée par Markess International auprès de 190 responsables et décisionnaires d’organisations publiques et privées de l’Hexagone, ce marché continue à progresser (voir l’encadré pour la méthodologie). En 2009, le cabinet d’études estime en effet que le marché français des logiciels et services IT associés à ces projets a atteint 400 millions d’euros, soit une croissance de 21 % par rapport à 2008. Ce qui représente une performance non négligeable au vue du contexte économique actuel. Cette bonne santé devrait d’ailleurs perdurer dans les années à venir, voire même s’accélérer. Markess International estime en effet que ce segment devrait continuer à progresser pour atteindre 670 millions d’euros en 2011, soit une croissance annuelle de 29 % entre 2009 et 2011, contre 20 % entre 2007 et 2009. Un dynamisme que la société d’études impute à deux principaux facteurs.

  • Le premier tient au nombre croissant d’organisations qui s’impliquent dans cette démarche. En 2007-2008, la dématérialisation de factures était surtout le fait de précurseurs qui se trouvaient essentiellement dans le monde de la distribution et de l’industrie. En 2008-2009, ces grands donneurs d’ordre ont eux-mêmes fait des émules parmi leurs fournisseurs, accroissant de fait le marché. Entre 2009 et 2011, du fait de la mise en application de certaines mesures telles que la dématérialisation des marchés publics, ce rôle d’entraînement devrait revenir aux organismes publics.
  • Le second tient à la maturité de ce marché. Markess International estime en effet que les acteurs qui pour l’essentiel aujourd’hui, utilisent la dématérialisation simple et la dématérialisation de factures papier, devraient passer progressivement entre 2009 et 2011 à la dématérialisation fiscale qui est la seule forme pouvant se substituer aux factures papier (voir encadré)
Pourtant, certains freins subsistent.
  • Au niveau européen, le principal écueil réside dans l’absence d’harmonisation des pratiques de dématérialisation fiscale au niveau des Etats membres. Certes, la Directive européenne 2001/115/CE reconnaissant la validité de la facturation électronique existe. Mais en l’absence d’harmonisation des pratiques dans les différents Etats membres, l’exercice est pour le moins complexe, voire dissuasif. Conscient de cette lacune, l’Union européenne tente d’ailleurs de modifier cette Directive pour aller vers davantage de simplification.
  • Enfin, force est de constater qu’il n’existe pas de standard technique en la matière : les formats sont multiples, il n’existe pas de standard de dématérialisation européen, et l’interopérabilité des solutions de dématérialisation est perfectible.
En un mot, le marché est loin d’être figé. Et outre l’Union européenne qui travaille actuellement à harmoniser les pratiques tant au niveau légal que technique, les prestataires s’efforce également de lever les principaux écueils pour faire dialoguer les machines.  Méthodologie de l’étudeCette enquête a été réalisée auprès de 190 responsables et décisionnaires au sein d’organisations publiques et privées entre août et octobre 2009 par Markess International. Cet échantillon n’est toutefois pas représentatif de l’univers des organisations françaises (statistiques non redressées). Il est constitué à 48 % de sociétés appartenant au secteur de l’industrie, à 30 % d’entreprises de distribution ou de négoce, à 8 % d’entreprises du secteur public, à 7 % d’opérateurs de services, les 7 autres pourcents provenant d’autres secteurs. 39 % des entreprises interrogées ont moins de 249 salariés, 18 % oscillent entre 500 et 1.999 salariés, 18 % affichent entre 2.000 et 9.999 employés, 13 % ont entre 250 et 499 salariés et 12 % ont plus de 10.000 collaborateurs. Ce premier volet a parallèlement été complété par 34 entretiens de prestataires IT, dont 47 % sont des opérateurs de services d’externalisation (plates-formes de dématérialisation, d’échange, EDI, tiers d’archivage), 38 % sont des éditeurs de logiciel, 6 % des cabinets de conseil, 6 % des intégrateurs et 3 % des professionnels appartenant à d’autres segments.Qu’entend on par dématérialisation des factures ?La dématérialisation des factures peut se faire sous diverses formes, pouvant être menées conjointement dans lesorganisations. 3 formes de dématérialisation sont communément admises :– Dématérialisation de factures papier  » fournisseurs  » : mise sous forme numérique des factures reçues au format papier(scanning, LAD (Lecture Automatique des Documents), RAD (Reconnaissance Automatique des Documents) ;– Facturation électronique ou dématérialisation  » simple  » de factures : échange électronique de factures sous forme defichiers via des systèmes de télétransmission (EDI conventionnel…) ou de simples fichiers (PDF, jpg…) non signésélectroniquement ;– Dématérialisation fiscale de factures : échange électronique de factures sous forme :
  1. Soit de fichiers structurés (EDI, XML, csv, Idocs…) devant respecter les modalités imposées par le Code général des impôts (CGI) ;
  2. Soit de fichiers non structurés (PDF…) obligatoirement signés au moyen d’une signature électronique et dans le respect des modalités imposées par le CGI.
En France, les 2 premières formes de dématérialisation ne permettent pas de s’affranchir de l’échange de la facture au format papier (seul document ayant une valeur légale) alors que la 3ème forme donne à la facture dématérialisée une valeur légale.
 A.L B

MD5 : une bombe sur la sécurité de l’Internet

Cliquez sur le lien : https://i.broke.the.internet.and.all.i.got.was.this.t-shirt.phreedom.org/ .
Si vous avez au préalable mis la date de votre ordinateur en août 2004 (on verra pourquoi plus tard), vous accèderez de manière sécurisée par SSL et sans aucun avertissement de sécurité à une page qui aurait pu être construite par un pirate ! Heureusement, il n’est est rien. Cette page a été rédigée par de brillants chercheurs dont l’objectif est au contraire d’avertir les utilisateurs d’Internet d’un grave problème de sécurité.

Examinons, comme on devrait le faire pour toute page sécurisée par SSL, le certificat et la chaîne de certification. Il suffit pour cela de cliquer sur le fameux petit cadenas jaune dont la présence assure, ou du moins devrait assurer, la sécurité de la navigation.

  • L’autorité racine est :  » Equifax Secure Global eBusiness CA-1  » qui est reconnue par Internet Explorer et par tous les navigateurs. C’est pour cela qu’il n’y a pas d’avertissement de sécurité.
  • La chaîne de certification comporte une autorité intermédiaire :  » MD5 Collisions Inc.  » dont le nom est pour le moins curieux…
  •  Le certificat serveur est délivré à :  » i.broke.the.internet.and.all.i.got.was.this.t-shirt.phreedom.org  » ce qui correspond bien à la page en question. Ce certificat expire en septembre 2004. C’est pour cela qu’il faut modifier la date de l’ordinateur.

Ce qui est extraordinaire, c’est que mis à part le nom bizarre de l’autorité intermédiaire et la date d’expiration, maladresses qu’un vrai pirate n’aurait certainement pas commises, un utilisateur même averti ne détecte rien d’inquiétant en utilisant les outils standards de visualisation de certificat fournis par MicroSoft par exemple.

De quoi s’agit-il ?

Dans les faits, le certificat de l’autorité intermédiaire n’a jamais été délivré par Equifax ! Il s’agit d’un faux certificat qui est l’aboutissement d’un travail, long, délicat et particulièrement astucieux, accompli par les auteurs de la communication citée [1].Ce certificat permet de délivrer à son tour des certificats qui, par transitivité, sont eux même reconnus par les navigateurs.

Dans les mains d’un pirate, le faux certificat intermédiaire (et sa clé privée associée) permet de créer des certificats utilisateurs, des certificats serveurs et même de signer du code, malversations qui pourraient avoir des conséquences dévastatrices. Mais rassurez-vous la clé privée est gardée en lieu sûr et, de toutes façons, le choix d’une date de validité dépassée rend le dispositif inoffensif.

Quelles conséquences ?

C’est une grande part de la sécurité de l’Internet qui pourrait être mise à mal par un pirate disposant d’un tel certificat, car un principe fondamental a été violé : une autorité de certification ne doit délivrer des certificats qu’à des individus ou à des entreprises en qui on peut avoir confiance :

  • Les services de non répudiation et de confidentialité sont atteints : en construisant un faux certificat pour une victime, on peut signer à sa place n’importe quel message ou n’importe quelle déclaration et en fournissant ce certificat à ses interlocuteurs, déchiffrer tous les documents qui lui sont destinés.
  • Il est possible de créer des sites Web malveillants sécurisé par SSL. Leur visite ne produira aucun avertissement de sécurité et sera même encouragée par la présence rassurante du petit cadenas. Pire, les attaques en coupure sur des serveurs sécurisés deviennent faciles : le pirate peut s’interposer entre l’internaute et un site de paiement par exemple, il pourra ainsi récupérer les coordonnées bancaires de l’internaute sans que celui-ci ne se rende compte de rien !
  • Enfin, en signant une mise à jour ou une distribution d’un logiciel largement utilisé, il devient possible d’infecter un nombre incalculable d’ordinateurs et là encore, l’utilisateur malheureux sera totalement abusé par le logiciel d’installation qui, au lieu de l’avertir d’un danger, lui indiquera qu’il installe un logiciel signé par l’éditeur adéquat.

Comment se protéger ?

La gravité du problème soulevé nous amène naturellement à examiner quelles contre mesures peuvent être envisagées :

  • Coté utilisateur : comme on vient de le voir, il y a peu de choses à faire car, et c’est là, toute la puissance du procédé, il n’y a pas d’avertissement de sécurité. Cliquer sur le cadenas n’est pas une pratique courante et même un utilisateur averti ne pourra que remarquer l’utilisation suspecte de MD5 dans le champ  » algorithme de signature « .
  • Coté éditeur de navigateur, on peut imaginer d’avertir l’utilisateur de l’utilisation de MD5. Mais cela génèrera énormément de fausses alertes qui troubleront plus l’utilisateur qu’elles ne l’aideront, car dans les faits, MD5 est encore utilisée ! Repérer le faux certificat par sa construction particulière est simple pour une méthode de construction donnée, mais il n’est pas évident que cela fonctionne pour une autre construction…
  • Coté autorité de certification, il y a évidemment une mesure qui s’impose : ne plus utiliser MD5 ! Mais il faut gérer le passé et le présent. Heureusement la méthode de construction du faux certificat est tellement acrobatique (voir l’encadré et la note 1) que de légers changements dans la manière de délivrer des certificats peuvent la mettre en échec. Verisign, propriétaire de la marque, RapidSSL affirme que des contre mesures sont déjà prises et qu’il est désormais impossible de construire à nouveau un faux certificat. A voir… et rien ne dit que cette contre mesure ne soit pas contournable.

Ce qui choque le plus, c’est que la fonction de condensation MD5 est considérée comme non sûre par les cryptanalystes depuis 1996 [3]. D’autres attaques dévastatrices sur cette fonction ont eu lieu en 2005 [4] et en 2006 [5] par une partie des auteurs de cette communication. Le lecteur pourra utilement se reporter à un précédent article sur les fonctions de condensation paru dans cette lettre [2].L’attitude des autorités de certification qui utilisent encore MD5 est incompréhensible et irresponsable. La potentialité du problème est connue depuis plus de 10 ans – il existe des fonctions de condensation sûres – et le remplacement de MD5 ne coûte rien !Il y a un parallèle intéressant à faire avec l’affaire Humpich [6]. Cet informaticien a révélé en 1998 que les clés RSA utilisées dans les cartes bancaires faisaient 320 bits ; or dès 1990, on savait casser de telles clés. Serge Humpich a tenté de prévenir les banques et, devant leur fin de non recevoir, a construit une fausse carte bancaire qui lui a permis d’acheter 2 carnets de métro. Comme pour notre faux certificat, la seule manière de convaincre est la démonstration ! Suite à une plainte des banquiers, Serge Humpich a reçu pour cet exploit la visite du GIGN et fait de la prison. Depuis, la taille des clés est passée de 320 à 768 puis 1.024 (ce qui est encore considéré comme insuffisant). Là, s’arrête le parallèle : Verisign n’a pas porté plainte et a fait une réponse polie… [7]

Comment ont-ils fait ?

Un certificat est constitué de 2 parties :

  • le  » to be signed  » : tbs qui comporte essentiellement l’identité, la clé publique, des dates de validité et un n° de série.
  • la signature de ce tbs par l’autorité de certification : s = SAuth(H(tbs)) où SAuth est la fonction de signature secrète de l’autorité et H une fonction de condensation MD5 en l’occurrence.

Les auteurs de la communication ont construit un tbs1 correspondant à un certificat de serveur SSL classique et un tbs2 correspondant à une autorité intermédiaire qui réalise une collision MD5 avec tbs1. Puis, ils ont demandé à Equifax de signer tbs1 et obtenu s = SEquifax(MD5(tbs1)). Alors comme MD5(tbs1) = MD5(tbs2), s est la signature de tbs2 et le couple (tbs2, s) constitue un faux certificat intermédiaire valide !Deux difficultés ont dû être surmontées :

  • La réalisation de la collision, les travaux [5] sont à l’origine de ce premier exploit.
  • Le fait que dans un certificat dates de validité et n° de série sont déterminés par l’autorité de certification au moment de la signature, donc non connus. Or la connaissance de ces deux éléments est essentielle pour réaliser la collision. Ces deux éléments sont cependant prévisibles (dans Equifax, les n° de série sont séquentiels). Les auteurs de l’article ont réussi à obtenir d’Equifax, un certificat ayant une date de validité et un n° de série donnés en effectuant plusieurs tentatives et en bénéficiant d’un peu de chance.

Par David Artitti, ingénieur des Télécom

Notes
[1] MD5 considered harmful today – Creating a rogue CA certificate. Alexander Sotirov, Marc Stevens, Jacob Appelbaum, Arjen Lenstra, David Molnar, Dag Arne Osvik, Benne de Weger. 25th Annual Chaos Communication Congress :
[2] Quand la cryptanalyse rencontre les fonctions de condensation. David ARDITTI. Lettre TI n°9 octobre 2007.
[3] Cryptanalysis of MD5 Compress (1996) by Hans Dobbertin In Rump Session of EuroCrypt ’96 : [4] Xiaoyun Wang and Hongbo Yu : How to Break MD5 and Other Hash Functions[5] Marc Stevens, Arjen Lenstra, and Benne de Weger : Target Collisions for MD5 and Colliding X.509 Certificates for Different Identities
[6] L’affaire Serge Humpich
[7] La réponse de Verisign

Fonctions de hachage : ce que le NIST prépare

Les fonctions de hachage constituent un élément essentiel des infrastructures de sécurité. Une fonction de hachage calcule une chaîne de bits de longueur fixe à partir d’une chaîne de bits de longueur arbitraire. Une bonne fonction de hachage (au sens cryptographique) possède un certain nombre de propriétés et peut-être utilisée dans des contextes très variés. Les fonctions de hachage interviennent en effet fréquemment dans les mécanismes de sécurité, ce qui implique que ces mécanismes reposent directement sur la sécurité d’une primitive unique. Pire : seul un très petit nombre de fonctions de hachage se trouve actuellement déployé dans l’industrie. Pour simplifier, les trois propriétés fondamentales qu’une fonction de hachage doit vérifier sont :

  • Sens-unique. Etant donnée la sortie d’une fonction de hachage, trouver une entrée qui donne cette sortie doit être difficile.
  • Résistance à la deuxième pré-image. Etant donnée une entrée, trouver une autre entrée qui donne la même sortie doit être difficile.
  • Résistance aux collisions. Trouver deux entrées distinctes qui donnent la même sortie doit être difficile.
Une quatrième propriété qui pourrait être ajoutée à cette liste est que la sortie d’une fonction de hachage doit  » avoir l’air aléatoire « . Ces notions ont bien sûr été formalisées de façon plus rigoureuse par les cryptologues (voir le livre Handbook of Applied Cryptographie).Une des applications classiques des fonctions de hachage est la signature électronique où il est souhaitable de pouvoir signer le haché d’un document plutôt que le document lui-même. La vérification de la signature s’effectue en appliquant la même fonction de hachage au document afin de vérifier la signature du haché. Cette approche n’est bien entendu valable que si les deux primitives cryptographiques (fonction de hachage et signature) sont sûres.La résistance aux collisions est, par exemple, nécessaire pour garantir la non-répudiation, un attaquant étant en effet capable de produire de multiples variations (même infîmes comme faire varier imperceptiblement les espaces entre caractères) de deux documents donnés et à l’aide du paradoxe des anniversaires de trouver une collision beaucoup plus rapidement qu’une pré-image. En obtenant la signature d’un des deux documents, l’attaquant dispose simultanément d’une signature du second document à l’insu du signataire. Une fonction de hachage utilisée lors de l’authentification d’un utilisateur d’un système d’exploitation doit en revanche être résistante aux secondes pré-images. Il est donc important de garder à l’esprit qu’utilisée dans des contextes différents, une fonction de hachage fait souvent appel à des propriétés différentes.

NIST et SHA-3
Le National Institute of Standards and Technology (NIST) est en charge de l’édition et de la mise à jour des standards pour la sécurité des systèmes d’information. La fonction de hachage originalement proposée par le NIST, SHA, a été remplacée par SHA-1 en 1995. Très proche des constructions MD4 et MD5 de Rivest, SHA-1 a depuis lors été rejointe par deux autres standards de hachage, les fonctions de la famille SHA-2 (voir le site du NIST). De récentes avancées en cryptanalyse ont démontré que trouver des collisions pour SHA-1 est beaucoup plus facile qu’espéré. Bien que personne n’ait encore réussi à produire une telle collision, le très large déploiement dont SHA-1 a fait l’objet montre qu’il est nécessaire de migrer rapidement pour une alternative plus robuste. Bien qu’il existe de telles alternatives au sein de la famille SHA-2, le NIST prépare un algorithme alternatif entièrement nouveau : SHA-3.La quête de SHA-3 a débuté le 23 janvier 2007. Après un an de design et d’implémentation, 64 soumissions ont été reçues par le NIST le 31 octobre 2008. Sur ces soumissions, 51 ont été retenues pour le premier tour d’évaluations. A partir de ces évaluations, et afin de concentrer ses efforts sur un nombre de candidats plus restreint, le NIST a sélectionné ce 24 juillet 14 soumissions pour évaluation lors du second tour ; trois des soumissions en lice sont françaises, deux américaines, les autres provenant de divers pays.Ceux qui ont assisté au processus de sélection de l’AES se souviennent peut-être la diversité des soumissions. Dans le cas de la compétition SHA-3, la situation est encore plus marquée. BLAKE, BMW, CUBEHASH, KECCAK, LUFFA, SHABAL, SIMD et SKEIN n’utilisent que des opérations telles que les additions, les  » ou exclusifs  » et les rotations de bits. Les candidats HAMSI et JH utilisent des briques un peu plus complexes, et les autres sont basés sur l’AES. Les candidats reposant sur des techniques utilisées pour le design de l’AES peuvent être divisés en deux groupes : FUGUE et GRØSTL d’une part et ECHO et SHAvite-3 d’autre part qui peuvent utiliser les nouvelles instructions AES disponibles dès la prochaine génération de processeurs d’Intel. Il est probable que le second tour dure plus d’un an. Cette année fournira certainement son lot d’avancées en cryptanalyse et d’intéressantes discussions sur les compromis adéquats entre sécurité et performance. Les finalistes seront probablement annoncés au troisième trimestre 2010 et au second trimestre 2012, le NIST aura certainement sélectionné le(s) gagnant(s) de la compétition SHA-3. Compte tenu de la chute de plusieurs favoris durant le premier tour, il nous semble beaucoup trop tôt pour faire des pronostics. Ceux qui souhaitent suivre le processus de sélection de SHA-3 trouveront un certain nombre d’informations sur cette page du NIST. L’outil eBASH fournit quant à lui des informations très détaillées sur les performances des candidats (ainsi que de nombreuses autres fonctions de hachage) sur un très grand nombre de plate-formes, et le SHA-3 Zoo maintient un ensemble de pages avec des liens sur les dernières cryptanalyses ainsi que sur les diverses implémentations hardware disponibles. Par O. Billet et M. Robshaw

Black Hat 2009 : ce qu’il faut en retenir

Black Hat est LA conférence la plus importante dans le domaine de la sécurité informatique. Cette année, la treizième édition américaine s’est déroulée comme d’habitude à Las Vegas (Nevada) du 29 juillet au 2 août. Elle a rassemblé plus de 3.500 personnes (venant des 5 continents et autour de 80 présentations techniques organisées en 8 sessions parallèles) durant deux jours. Trois journées beaucoup plus  » underground  » de DEFCON 17, une sorte de grande messe  » hacker « , ont clôturé la conférence. Elles ont réuni plus de 8.500 personnes venues assister à cent trente présentations techniques.Toute la force de ces conférences, organisées par la même personne, Jeff Moss, tient au fait qu’elle couvre de nombreux aspects de la sécurité informatique et en offre deux facettes très différentes : la conférence officielle, Black Hat, qui reste très professionnelle et est le lieu de rencontre des grands acteurs du domaine ; et DEFCON ou l’esprit hacker très présent. Pas moins de deux cents présentations ont ainsi été faites durant ces conférences, avec des sujets très variés. Certaines ont lieu d’ailleurs à la fois à Black Hat et à DEFCON, et touchent ainsi un public important. Parmi les grands thèmes de cette édition 2009, citons :

  • Le fuzzing (technique pour tester des logiciels). Même si le sujet peut sembler un peu galvaudé, cette technique permet toujours d’obtenir d’excellents résultats pour du test en boîte noire. Cette année, les téléphones portables évolués (smartphone de type Android, Windows Mobile et Apple iPhone) en ont fait les frais, avec plusieurs présentations montrant comment l’envoi de SMS malformés sur certains équipements peut, dans le meilleur des cas, entraîner un plantage du terminal, et dans le pire, une compromission distante ! Certes, ces attaques sont généralement complexes à mener, mais les résultats déjà obtenus sont extrêmement prometteurs… L’actualité dans le domaine pourrait être riche prochainement.
  • Des problèmes liés à l’authentification sur Internet, et plus précisément aux certificats SSL (X509v3). En effet, plusieurs présentations (Moxie Marlinspike et Dan Kaminsky) ont abordé ce sujet sensible. Il apparaît qu’il est possible, sous certaines conditions, de fabriquer de faux certificats qui seront vus comme valides par les navigateurs Web se connectant aux sites piégés. Suivant le cas, l’attaque peut reposer sur un problème cryptographique (utilisation de MD2 ou MD5 comme algorithme de signature), ou sur des problèmes de codage dans un certificat (et l’utilisation du caractère nul, , dans le nom du certificat).
  • Du Web 2.0 et du Cloud Computing… Quelques présentations techniques ont encore abordé les classiques XSS, CSRF… Plus nouveau, la sécurité des plates-formes de type EC2 a aussi fait l’objet de présentations très intéressantes. Ces technologies n’ont semble-t-il pas encore atteint un niveau de maturité élevé, et pas mal de soucis sont encore présents.
  • Et bien sûr, un bon nombre de présentations très techniques sur le reverse engineering, l’analyse de malware, les rootkits, la fuite d’information (privacy)…
 Où trouver de l’information sur les conférences Black Hat et DEFCON ? Black Hat
  • Le programme
  • Le présentation
 DEFCON
  • Le programme
  • Le présentation

 Par Franck Veysset, Expert en sécurité

L’avenir de l’Ultra Large Bande passera par DAA

La technologie Ultra Large Bande (UWB), acronyme désignant tout signal de communication sans fil [1] dont la bande passante est supérieure à 500 mégahertz où représente 20 % de la fréquence centrale, a tout pour avoir un bel avenir. En tant que solution à faible puissance, elle peut fournir de très hauts débits de données sur des courtes portées. Elle est d’ailleurs déjà utilisée pour des solutions d’USB sans fil (Wireless USB avec le forum USB-IF) ou est étudiée dans de futures évolutions par le Bluetooth SIG (Specific Interest Group). Pourtant, malgré son avance technologique et scientifique indéniable, cette technologie a fait l’objet de nombreux débats en particulier auprès des régulateurs. Et ceci pendant plusieurs années, accumulant ainsi des retards sur les autorisations de mise sur les marchés européens et asiatiques des produits et empêchant un réel décollage industriel. Ces discussions portaient notamment sur les risques d’interférence avec les systèmes de communication conventionnels, avec lesquels des systèmes UWB pourraient partager les bandes de fréquences due à son large spectre d’émission. Pourtant, des systèmes de communication conventionnels comme GSM/UMTS ou le WiMax sont habituellement autorisés sous-licence et leurs fournisseurs ont donc payé pour l’usage du spectre de fréquences. Par conséquent, les technologies même innovatrices comme UWB ne peuvent pas nuire ou dégrader la qualité de ces systèmes de communication autorisés. D’autre part, les bandes de fréquences disponibles étant différentes suivant les pays, les industriels étaient confrontés à la difficulté de trouver une solution globale, acceptée à un niveau mondial, garantissant la masse critique nécessaire au déploiement d’une technologie visant également un usage de masse sur le « tout sans fil, haut débit, courte portée ».

Les apports de DAA et les avancées en terme de régulation

Il semble que la technique appelée DAA pour Detect And Avoid apporte une solution à ces problèmes et permette enfin un déploiement mondial. Un pays comme la Chine vient d’ailleurs d’autoriser l’UWB avec DAA et affiche une grande ambition sur cette technologie en soutenant des programmes de recherche dédiés à l’UWB.Cette technique de limitation de brouillage pour des dispositifs UWB est en effet proposée comme une solution potentielle pour diminuer les risques d’interférence radio. Les régulateurs radio ont proposé l’adoption du DAA dans certains domaines de normalisation et pour des bandes spécifiques de radiofréquences. En Europe, les conditions d’utilisation de la technique de limitation de brouillage d’UWB DAA sont présentées dans le rapport 120 [4] de CCE édité en juin 2008.Au-delà, le DAA est également considéré comme une première avancée vers une approche dynamique pour utiliser le spectre de radiofréquences et pourrait donc avoir des répercussions dans d’autres domaines. Le DAA peut être considéré une forme simple de radio cognitive, où les dispositifs d’UWB sondent la présence de systèmes de communication autorisés (tel que WiMax ou un Radar) et émettent uniquement s’il n’y a pas d’émissions de ces autres systèmes. Principal avantage : un dispositif d’UWB peut ainsi augmenter sa puissance d’émission quand aucun autre système de communication n’est ni dans les mêmes secteurs, ni sur les mêmes bandes de fréquences.

Le DAA est donc une technique innovante qui permet la cohabitation des différents réseaux sans fils. Elle divise la puissance d’émission en zones dans lesquelles on peut transmettre un signal UWB. Pour cela, les dispositifs DAA UWB détectent les changements de la configuration RF (i.e. modification de la zone d’opération) et basculent au nouveau niveau d’émission dans un temps maximal [ETSI EN 302 065].Les constructeurs d’UWB ont d’ailleurs commencé à déployer les premiers prototypes ces derniers mois. Trois zones (Zone 1,2 et 3) ont été définies pour les BWA (Broadband Wireless Access) dans la bande 3.4-4.2 GHz et seulement deux zones (Zone A et B) pour la radiolocalisation dans la bande 3.1-3.4 GHz et 8.5-9 GHz.Pour éviter les risques d’interférences produits par l’UWB vis-à-vis d’autres services, les régulateurs ont défini des limites sur la puissance d’émission des dispositifs d’UWB. Dans la plupart des cas, la limite est décrite comme masque d’émission d’EIRP (Equivalent Isotropically Radiated Power). Les masques d’émissions d’EIRP ont été définis par la FCC en 2002, l’Union européenne en 2006, la Chine en 2008, le Japon et la Corée en 2006. Le schéma suivant décrit le comportement d’un dispositif UWB avec DAA. Quand il détecte la présence d’un signal de BWA (Broadband Wireless Access comme WiMax) dans le spectre de fréquences, le dispositif UWB cesse de transmettre dans la bande BWA et déplace son émission dans bande adjacente (voir les flèches pointillées) ou se maintient simplement dans la même bande BWA mais arrête d’émettre (voir les flèches pleines).

Les défis à venir

Reste un défi significatif à relever : comme les régulateurs radio du monde entier définissent différents bandes de fréquences et masques d’émission pour l’activation du DAA, il faut concevoir des méthodes d’essais flexibles permettant d’évaluer les diverses configurations DAA à travers le monde. Or, le fait que DAA soit une forme de radio cognitive avec des paramètres de transmissions pouvant changer, que les niveaux de puissance soient extrêmement faibles, certains spécialistes parlent d’impossibilité de tester le DAA dans son concept global. Des approches pragmatiques et réalistes devront donc être mises en œuvre tant au niveau de la technique DAA elle-même que pour l’évaluation de conformité, étape incontournable avant de mettre un produit sur le marché. C’est précisément un des sujets étudié dans le cadre du projet de recherche européen WALTER [5], cofinancé dans le cadre du 7ème programme-cadre de la Commission européenne. Son principal objectif est de développer un réseau de services d’essais UWB avec des moyens en Chine (TMC du Ministère MII), en Espagne (AT4Wireless) et en Italie (le Centre Commun de Recherche de la Commission européenne) , le tout étant au service de la recherche, de la régulation et de l’industrie. Plus concrètement, le projet WALTER définit des procédures d’essais et des campagnes de mesures pour valider les techniques de limitation de brouillage UWB ainsi que des mécanismes de coexistence utilisant des protocoles de DAA. L’expérience acquise dans la définition d’un banc d’essai d’UWB DAA pourra aider l’étude d’autres essais de radios cognitives. Les défis liés aux essais DAA seront d’ailleurs abordés dans un second article.

Par Philippe Cousin, ETSI (Institut Européen de Normalisation des Télécommunications), chef du projet de recherche européen WALTER

Notes
[1] Il faut noter des différences sur la définition précise UWB entre ETSI[2] et FCC[3] ainsi que sur les techniques utilisés comme MB-OFDM (Multi-Band Orthogonal Frequency division) ou la version impulsion DS-UWB (Direct Sequence Ultra Wideband)
[2] ETSI EN 302 065 v1.1.1, “Electromagnetic compatibility and Radio spectrum Matters (ERM); Ultra WideBand (UWB) technologies for communication purposes; Harmonized EN covering the essential requirements of article 3.2 of the R&TTE Directive”. European Standard Telecommunication Institute (ETSI), February 2008.
[3] FCC CFR Title 47 Part 15 Subpart C, “Intentional Radiators”. Federal Communications Commission, October 2007.[4] ECC Report 120 ( June 2008) on Technical requirements for UWB DAA (Detect And Avoid) devices to ensure the protection of Radiolocation in the bands 3.1 – 3.4 GHz and 8.5 – 9 GHz and BWA terminals in the band 3.4 – 4.2 GHz.[5] FP7 WALTER (Wireless Alliance for Testing, Experiment and Research) project. http://www.walter-uwb.eu/