L’innovation automobile se tourne depuis quelques années vers les économies de carburants. Arrêt du moteur au feu rouge, récupération de l’énergie cinétique… les procédés innovant ne manquent pas. Cependant, un facteur de consommation de carburant sur lequel les constructeurs n’ont aucun moyen d’action est le style de conduite. Ainsi, on sait que les conduites dites « sportives » sont gourmandes en carburant, surtout en ville.Partant de là, Alex Ackerman et Yossef Shiri, respectivement suédois et israëlien, ont mis au point un appareil intelligent nommé GreenDrive. Ce système, dont la date de commercialisation n’est pas encore arrêtée, combine des informations sur la position du véhicule, les conditions de circulation et le type de voiture pour calculer et conseiller le conducteur sur le style de conduite à adopter pour réduire sa consommation. « Notre système permet de réduire la consommation de carburant d’un véhicule d’une manière très intuitive pour le conducteur. Il peut fonctionner sur un téléphone mobile ou un appareil de navigation personnelle, et il tient compte de l’environnement », explique Yossef Shiri.
Entre 15 et 25% de carburant économisé
Le système est encore à l’état de prototype, mais les résultats des tests menés sur le terrain sont concluants. Selon les deux inventeurs de GreenDrive, ce système permet de réaliser, en moyenne, une économie de 15 à 25% de carburant sur un cycle complet. « Si vous conduisez de manière agressive, vous pouvez économiser jusqu’à 50% de carburant grâce à ce système », précise Yossef Shiri.Utilisant les informations de localisation du Global Navigation Satellite System (GNSS), GreenDrive fonctionne pour l’instant avec le GPS, mais dans l’avenir, il sera également capable d’exploiter les données de Galileo, le futur système de positionnement par satellites européens.Il sera même possible aux utilisateurs de ce système de consulter sur le Web les données statistiques relatives à leur style de conduite, pour adapter ce dernier au besoin.L’Agence Spatiale Européenne a salué cette invention, dans le cadre de son programme de transfert de technologie, et travaille en partenariat avec Ackerman et Shiri pour améliorer ce nouveau système. GreenDrive a déjà été récompensé, en 2008, par le premier prix de l’European Satellite Navigation Competition.
Comment la crise financière et le développement rapide des nouvelles technologies, notamment la vidéo, les réseaux sociaux ou encore l’intelligence artificielle dans le domaine des prévisions, affectent-ils le métier de DSI ? Que recouvre aujourd’hui cette fonction et comment celle-ci est-elle susceptible d’évoluer dans les années à venir ? Autant de questions auxquelles l’enquête commandée par l’éditeur de solutions d’entreprise CSC ainsi que l’éditeur de logiciels d’Application Intelligence Cast, et réalisée par l’IFOP auprès d’une centaine de DSI des grandes entreprises européennes apporte quelques éléments de réponse.Premier constat : d’une fonction support au service du développement des métiers et de la réduction des coûts, la DSI des entreprises interrogées est devenue aujourd’hui une fonction stratégique, à la fois support du patrimoine applicatif de l’entreprise mais aussi acteur de l’innovation. Interrogé sur leur position et leur contribution actuelle au sein de leur société, 86% des DSI estiment que la fonction informatique est un levier d’excellence professionnelle pour les métiers et 75% pensent qu’elle mène de plus en plus l’innovation et contribue à la création de valeur grâce aux nouvelles technologies. La dynamisation et la valorisation des patrimoines applicatifs est cité, quant à elle, par 68% des professionnels interrogés. Une évolution que l’on retrouve de manière sensible dans la perception qu’ont les DSI de l’évolution de leur fonction. Pour 83% d’entre eux, ils sont désormais de plus en plus impliqués dans la stratégie de leur entreprise. 76% signalent également être associés aux changements et évolutions des métiers tandis que 73% déclarent contribuer à l’accélération de l’innovation. Mais la crise économique qui oblige aujourd’hui les entreprises à adapter leurs offres et leurs prix, mais aussi à intensifier les économies d’échelles et à resserrer les coûts et d’autre part, l’évolution rapide des technologies ne remettent-elles pas en cause ce nouveau rôle acquis par les DSI ? Pour les auteurs de l’enquête, il semble que ce ne soit pas le cas. « Car aujourd’hui, les dirigeants d’entreprises ont conscience que les systèmes d’informations sont devenus de puissants leviers de croissance », martèlent-ils. Encore faut-il que les DSI sachent se positionner comme une fonction capable de renforcer l’entreprise sur son marché. Et pour cela, ils doivent relever deux principaux défis :
Se servir de l’informatique pour créer de la valeur auprès des directions opérationnelles. Ce qui signifie, faciliter voire anticiper les besoins métiers, améliorer la rentabilité des applications sur leur cycle de vie et créer des connexions entre informatique, processus métiers et business de l’entreprise. Sur ce point, les DSI déclarent être confrontés à quatre principaux défis : l’optimisation des processus IT et le développement des bonnes pratiques telles que CMMI, ITIL, cobit, etc. (93 % des réponses) ; la rationalisation du patrimoine applicatifs et des infrastructures (91%) ; la mise en place de la sécurité et du contrôle interne (84 %) et enfin, la mise en place de solution ou d’ERP (83%).
Utiliser les technologies pour identifier et mettre en oeuvre des relais de croissance pour l’entreprise. Ce qui signifie, aider les dirigeants à imaginer comment les technologies peuvent changer la stratégie de l’entreprise et contribuer à générer du chiffre d’affaires supplémentaire via de nouveaux produits ou de nouveaux services. Dès lors, la question à laquelle les DSI vont être de plus en plus confrontées et devront répondre est moins « comment », mais « quoi ». Un virage dont ils ont bien conscience puisque 83 % d’entre eux estiment qu’ils devront être de plus en plus moteur de l’innovation au moyen des nouvelles technologies dans les années à venir.
Deux évolutions qui pour les auteurs de l’étude ont des implications importantes en terme d’évolution de cette fonction et de ses attributions dans les années à venir.Du fait de leur rôle croissant dans l’innovation, ils devront être impliqués de plus en plus en amont dans la stratégie des entreprises. Par ailleurs, afin de pouvoir être force de proposition, ils devront veiller :
à comprendre et anticiper l’impact des signaux précurseurs tels que les changements socio-économiques, réglementaires, technologiques ou encore organisationnels, puis adapter le système d’information en conséquence ;
à développer une bonne compréhension de l’informatique et de ses enjeux par les dirigeants de l’entreprises et mettre en place des relations proactives avec les responsables métier ;
à développer une veille constante pour pouvoir identifier les modèles de demain ;
à développer et cultiver dans l’entreprise une curiosité au changement ;
à mettre l’innovation au service de l’approche client afin de faciliter le recueil d’informations auprès de ces derniers ;
à intégrer de plus en plus dans le processus de production le travail collaboratif et les nouveaux modes de communication.
Les principaux défis RH des DSI dans l’avenirIls sont principalement au nombre de six. Le premier d’entre eux est le besoin croissant de compétences en matière de nouvelles technologies (75% des réponses). Vient ensuite la gestion des compétences et des carrières (73%), la rareté des compétences (60%), la mixités des profils recherchés (59%), l’évaluation de la performance du personnel IT (56%) et enfin, l’apparition de nouveaux métiers au sein de la DSI (55%).
Le transport est un secteur extrêmement gourmand en énergie. Dépendant à plus de 98 % des produits pétroliers, il constitue également le domaine où les recherches pour produire des carburants alternatifs s’intensifient. En effet, les sources d’énergie exploitables pour les transports regroupent les ressources fossiles, la biomasse et les énergies renouvelables voire nucléaires (via la production d’électricité). A partir de ces ressources, plusieurs types de carburants peuvent être obtenus puis utilisés dans différents types de véhicules, que l’on classe en quatre catégories : les véhicules équipés de moteur à combustion interne ; les plus répandus, les véhicules hybrides, qui sont en cours de mise sur le marché ; les véhicules à pile à combustible et les véhicules électriques qui ne sont pas, pour le moment, des solutions suffisamment pertinentes. L’étude de l’IFP révèle des chiffres qui, à défaut de surprendre, soulignent une dépendance écrasante du secteur par rapport au pétrole. Ainsi, les carburants conventionnels pétroliers constituent l’immense majorité des besoins en énergie, comme le montre le camembert ci dessus présentant la consommation d’énergie dans le transport routier mondial par type de carburant. On constate que l’essence et le gazole constituent 98% de l’énergie utilisée pour le transport mondial. Ce chiffre tombe à 96% en Europe, où les biocarburants représentent seulement 1,5% et le gaz naturel à peine plus de 1%.
Le transport, secteur extrêmement énergétivoreEn ce qui concerne les transports aérien et maritime, ils dépendent respectivement du pétrole à hauteur de 99,9% et 100%. En fait, seul le transport ferroviaire est parvenu à se détacher légèrement des ressources pétrolières (71% de l’énergie totale), et ceci grâce à l’électrification avancée des réseaux ferroviaires dans certains pays.Or, la consommation énergétique du secteur des transports augmente à un rythme annuel proche de 2%. Ayant déjà fait l’objet de nombreuses améliorations techniques et environnementales, les carburants routiers traditionnels devront encore être modernisés, notamment pour répondre aux exigences futures de l’UE en termes de qualité de l’air. De nouvelles exigences en matière de modes de combustion des moteurs sont également prévues dans les années à venir.Quoi qu’il en soit, à l’heure actuelle, les carburants fossiles présentent des atouts considérables pour le transport, qui expliquent pour partie leur omniprésence. En effet, leur densité énergétique importante permet une autonomie appréciable des véhicules, souvent plus de 600 km, et les techniques de raffinage sont éprouvées et peu coûteuses (hormis en ce qui concerne les coûts d’approvisionnement).
Des techniques de raffinage éprouvées et peu coûteusesCette extrême dépendance pétrolière des modes de transport pose des problèmes complexes, principalement au niveau économique et environnemental. Economiquement, l’utilisation d’une ressource rare et non renouvelable, dont les économies développées sont souvent très dépendantes et exposées à la volatilité des cours, est une source de vulnérabilité énergétique. Au niveau environnemental, la donne est connue : le contenu en carbone des produits pétroliers, les émissions de gaz à effet de serre et la pollution locale associées aux activités de raffinage et à la combustion dans les moteurs sont des enjeux majeurs. Qui plus est, ces problématiques prennent une dimension croissante, dans un contexte où le développement durable prend une place centrale.Au final, l’extrême dépendance du secteur des transports face au pétrole est plus que jamais d’actualité. Malgré les efforts menés sur la demande (comportements de conduite, modification des habitudes de déplacement), c’est bien la diversification des carburants dans le transport routier qui permettra de lutter efficacement contre les émissions de CO2, ainsi qu’une réduction substantielle de la consommation des énergies non renouvelables.
Les substances qui appauvrissent la couche d’ozone (SAO), font l’objet d’une étroite surveillance depuis quelques années. L’Union européenne a décidé de franchir un palier de plus, en parvenant à un accord qui limite au maximum l’utilisation de ces substances identifiées comme des gaz à effet de serre. L’accord, signé le 11 mars dernier, comporte trois axes de lutte contre l’utilisation des SAO.Il s’agit dans un premier temps de simplifier le règlement actuel, notamment en réduisant les charges administratives inutiles. L’accord souligne également l’importance du respect du protocole de Montréal tel qu’adapté en 2007. Enfin, l’anticipation des problèmes, afin de garantir la reconstitution de la couche d’ozone, constitue une volonté claire de la part de l’UE et de tous les pays membres.« Le succès de la présidence est le résultat de l’engagement actif et ancien de la République tchèque dans le cadre des actions entreprises pour la protection de la couche d’ozone au niveau international, et plus particulièrement au niveau européen », a déclaré Jakub Achrer, expert du ministère de l’Environnement de la République tchèque dans ce domaine. Un succès donc pour la présidence tchèque, qui a obtenu la signature de cet accord. Au-delà, il s’agit d’une véritable avancée au niveau environnemental, mais aussi pour la santé de l’homme. En effet, les SAO endommagent la couche d’ozone, mais sont également potentiellement néfaste pour l’homme, car elles augmentent l’exposition aux rayonnements UV.
Privilégier au maximum les solutions de remplacementLa modification du règlement actuel permettra non seulement d’améliorer de manière significative la protection de l’environnement, mais aussi de réduire l’influence du rayonnement ultraviolet sur l’organisme humain. Il s’agit donc d’un double enjeu environnemental et sanitaire. A ce titre, la Communauté Européenne s’est montré enthousiaste, qualifiant le protocole de « plus constructif de tous les accords internationaux conclus dans le domaine de l’environnement ».Le rapport de Johannes Blokland, adopté par 667 voix pour, 13 voix contre et 10 abstentions, propose de réduire au minimum les SAO et de mettre un terme à leur production et leur utilisation lorsqu’il existe des solutions de remplacement. L’objectif est clair : à terme, il s’agit d’interdire progressivement l’utilisation des SAO, ainsi que des produits et des équipements qui en contiennent. Autre but avoué du texte dans son ensemble : éclaircir les conditions dans lesquelles les substances endommageant l’ozone vont cesser d’être utilisées. Cette proposition harmonise de façon plus appropriée la législation européenne avec les accords internationaux en vigueur sur la réduction des substances dangereuses, tel que le protocole de Montréal (ratifié en 1987).
Fin annoncée des HCFC et du bromure de méthylAu niveau des substances concernées, ce sont les réfrigérants, type HCFC (hydrochlorofluorocarbures), qui sont principalement ciblés. Ainsi, l’interdiction d’utiliser des HCFC nouvellement produits entrera en application dès 2010. Leur fabrication sera limitée cette même année à 35%, puis à 14% en 2014, à 7% en 2017, pour être arrêtée au 1er janvier 2020. La seule exception accordée concernera la fabrication de ces substances pour des raisons scientifiques et leur utilisation en laboratoire.Enfin, 2010 marquera décidément un virage dans l’utilisation des SAO. En effet, c’est l’année prochaine qu’entrera en vigueur l’interdiction d’utiliser du bromure de méthyle et du halon 1202. Cela englobe des mesures plus restrictives quant à la prévision de leurs émissions, comme des contrôles d’étanchéité des équipements contenant plus de 30 kg des substances concernées. Cette substance pourra être utilisée uniquement lors des applications de quarantaine et des applications préalables à l’expédition en vue d’empêcher la propagation de nuisibles à travers le commerce international, ceci jusqu’au 18 mars 2010. L’exportation de ces substances sera également limitée, en particulier à destination des pays en voie de développement.En savoir plus sur le protocole de Montréal28 ans avant les accords récemment trouvés par l’UE, le protocole de Montréal, relatif aux substances qui appauvrissent la couche d’ozone, a donné la première impulsion dans la prise en compte de la dégradation de la couche d’ozone. Négocié et ratifié par 24 pays et la CEE, il implique alors que les signataires suppriment tous les CFC, halons et OCD synthétique des produits manufacturés ou importés. Accompagné de pénalités importantes pour tous les contrevenants, il sera par la suite complété par les accords de Londres (1990), Copenhague (1992) et Pékin (1999).
Le professeur Hu et son équipe robotique du Département d’Informatique de l’Université d’Essex ont mis au point des poissons robots, d’une taille d’environ 1,5 mètre. Imitant le mouvement ondulant des poissons à la perfection, ces robots sont complètement autonomes et trouvent leur chemin sans risque, évitant les objets et réagissant à leur environnement. Parmi toutes les applications possibles de ce bijou technologique, la détection des pollutions marines intéressent particulièrement les scientifiques.Le coût de ce prototype de poisson-robot, créé par BMT Group Ltd, est estimé à près de 23.000 euros. Le professeur Hu prévoit que les robots soient opérationnels d’ici 2010. « Si utiliser des bancs de poissons robots pour détecter la pollution dans les ports semble sortir tout droit de la science-fiction, il y a des raisons très pratiques pour choisir cette forme. Avec des poissons robots, on suit un modèle, créé par des millions d’années d’évolution, qui est incroyablement efficace », explique Rory Doyle, directeur de recherche scientifique chez BMT Group. Innovation technologique remarquable, c’est bien le mimétisme avec la nage des poissons qui a impressionné les visiteurs de l’aquarium de Londres, où des prototypes étaient en démonstration (voir la vidéo).Autres capacités étonnantes, ces robots, actuellement au nombre de cinq, ne sont pas télécommandés. Disposant d’une autonomie de huit heures, ils se déplacent intelligemment et sont capables de travailler en équipe. Aussi, ils trouvent seuls leur chemin pour revenir à leur port d’attache une fois leur batterie épuisée.
Repérer des fuites jusque là indétectablesPouvant se déplacer à une vitesse d’un mètre par seconde, équipé de capteurs chimiques pouvant identifier différentes sources de pollution et transmettre les données récoltées en Wi-Fi, ces prototypes se révèlent des outils parfaits pour identifier des fuites dans des canalisations, et toute sorte de pollution sous-marine, afin d’en limiter au maximum l’étendue et la gravité.Cinq poissons-robots de ce modèle doivent être mis à l’eau dans le port de Gijon, dans le nord de l’Espagne, dans le cadre d’un projet de recherche fondé par la Commission européenne.Le projet s’étendra par la suite, s’il s’avère concluant, à d’autres étendues d’eau comme des lacs ou des rivières. « L’espoir est que cela puisse prévenir des rejets potentiellement dangereux dans la mer, avant que des fuites non détectées ne s’aggravent avec le temps », conclut le professeur Hu.
Décidément, les TIC sont de nouveau au coeur des débats sur les économies d’énergie. Début mars, elles étaient présentées par le Conseil général des technologies de l’information et le Conseil général de l’environnement et du développement durable comme un moyen de diminuer » la facture écologique » (lire l’article). Aujourd’hui, c’est au tour de Viviane Reading, Commissaire européenne en charge de la société de l’information et des media, d’appeler les professionnels de ce secteur à redoubler leurs efforts pour aider l’Union européenne à baisser de 20% sa consommation d’énergie d’ici à 2020.Mais comment ? Tout d’abord, en proposant aux promoteurs immobiliers et aux entreprises du bâtiment des systèmes intelligents permettant de contrôler plus efficacement les dépenses de chauffage, de ventilation, de climatisation ou encore d’éclairage. Un poste stratégique puisqu’il représente à lui seul, 40% des besoins d’énergie de l’Europe. Au delà, elle propose également de développer le commerce électronique, le télétravail ainsi que tous les outils d’optimisation des trajets afin, soit de limiter les déplacements, soit de les rendre plus efficaces. Pour rappel, le transport des biens et des personnes représente pas moins de 30% de la consommation d’énergie de l’Union européenne. Enfin, elle suggère aux fournisseurs d’énergies d’informer ou de permettre à leurs clients, grâce à des outils spécifiques tels que les compteurs intelligents, de suivre leur consommation.Mais la Commissaire européenne ne s’arrête pas là. Elle souhaite également que l’ensemble de ce secteur montre l’exemple en matière de réduction de son empreinte carbone. Une injonction assortie de chiffres, puisque d’ici 2015, elle leur demande de réduire cette dernière de 20%. Parallèlement, Viviane Reading en a profité pour lancer une consultation publique sur le Web. Ouverte à tous les pays membres, son but est de collecter des idées d’utilisation des TIC pour réduire la facture énergétique de l’UE.
Mieux protéger, à un coût acceptable, les puces RFID (Radio Frequency identification) contre une lecture pirate. Telle est l’ambition, rapporte l’Adit, d’une équipe d’informaticiens américains de l’université du Massachusetts coordonnée par Wayne Burleson, professeur d’électronique et d’informatique. Leur idée, s’appuyer sur les nombres aléatoires et l’empreinte numérique unique que génèrent les puces SRAM (Static Random-Access Memory) pour réaliser des communications sécurisées avec un lecteur RFID. Ces puces sont en effet très sensibles aux variations de leur unique source d’énergie, à savoir les ondes radio émises par les lecteurs RFID. Lorsque celles-ci surviennent, ce qui ne manque pas d’arriver plusieurs fois par seconde, la mémoire de ces puces se réinitialise en produisant une série de 1 et de 0. Or, « en raison de petites imperfections dans leur composition ou dans leur processus de fabrication, certains bits deviennent de façon prévisible des 1 lorsqu’on augmente la puissance du lecteur, tandis que d’autres deviennent des 0 », explique Wayne Burleson. Il suffit dès lors de lire cette succession de 1 et de 0 pour obtenir « une empreinte unique pour chaque puce » et identifier avec certitude chacune d’elles.Parallèlement, d’autres bits réagissent de manière aléatoire aux variations de puissance. Non reproductibles, ces nombres peuvent alors être utilisés pour sécuriser la communication avec le lecteur. Selon Daniel Holcomb, qui a travaillé sur ce système pour sa thèse de master, « c’est un véritable système accessible. Il suffit d’activer n’importe quelle puce SRAM et cela fonctionne…». Seul bémol, il faut des puces RFID programmables dotées de SRAM. Ce qui n’est pas le cas de celles qui servent aujourd’hui à afficher les prix.Cette étude paraîtra, précise l’Adit, dans une prochaine édition du journal IEEE « Transactions on computers« , mais est déjà accessible sur le Net.
Les entreprises de construction ont un rôle majeur dans le développement durable et la promotion des énergies renouvelables. Qualibat, organisme certificateur des entreprises du bâtiment, regroupe les principales organisations professionnelles d’entreprises, d’architectes et de maîtres d’ouvrages publics ou privés et différentes institutions d’étude, de contrôle ou de recherche du secteur. Dans le contexte actuel, les entreprises du bâtiment ont une responsabilité accrue dans la diffusion et l’installation de produits innovants et durables. Or, selon Qualibat, « le manque de professionnalisme des entreprises en la matière conduirait à des risques de contre performance, et, par conséquent, à l’abandon des techniques concernées ». C’est pour remédier à ces errements que l’organisme certificateur a créé, en 2007, sept nouvelles certifications d’entreprises « énergies renouvelables », spécifiques aux installations thermiques utilisant les énergies renouvelables. Ces labels concernent principalement trois domaines :
Le solaire : trois certifications ont été mises en place, elles ciblent les chauffe-eau solaires, les systèmes solaires combinés ou chauffage seul, ainsi que les « installations solaires thermiques ».
La géothermie : les installations de pompes à chaleur géothermique font l’objet de deux certifications, l’une pour les installations de technicité courante, et une seconde pour celles de technicité confirmée.
Le bois énergie : comme pour le solaire, deux certifications existent, l’une de technicité courante et l’autre de technicité confirmée. Elles concernent les « installations thermiques bois énergie ».
Pour l’instant, les entreprises se montrent surtout intéressées par les certifications concernant les chauffe-eau solaires et les installations bois énergie. Pour les entreprises candidates, le processus de certification, réalisé par un auditeur indépendant mandaté par Qualibat, constitue un examen de passage standardisé. Une évaluation approfondie concernant la situation juridique et administrative de l’entreprise, de ses chantiers de références et de ses procédures techniques est tout d’abord conduite. Ensuite, c’est un auditeur indépendant, qui se rend dans l’entreprise et sur les chantiers, pour évaluer au plus près les pratiques de l’entreprise et leur adéquation avec les exigences inhérentes aux certifications.
Plus de 300 entreprises candidatesSi l’entreprise est jugée conforme à toutes les exigences du référentiel, la certification lui est attribuée pour quatre ans. Les sept certifications étiquetées « énergies renouvelables » sont très prisées, elles répondent à l’attente des entreprises. En effet, plus de 300 entreprises ont déjà demandé un dossier en vue d’obtenir une des certifications. Qualibat, de son côté, indique que la commission d’examen génie climatique a examiné 33 dossiers de candidature, au cours de ses réunions entre les mois de septembre et décembre 2009. 12 ont été rejetées, mais 16 entreprises ont été retenues pour un total, 21 certifications ont été délivrées.Pour les entreprises du bâtiment, il s’agit donc d’un enjeu très important. L’exigence de Qualibat en matière de certification assure à l’entreprise labellisée une véritable reconnaissance en matière de savoir-faire. Une reconnaissance nécessaire, qui permettra à chaque entreprise de se positionner efficacement sur le marché des installations thermiques impliquant les énergies renouvelables. Un marché en pleine croissance, avec des nouveaux produits toujours plus performants, mais qui doivent être mis en oeuvre de manière très précise. Dans un contexte où les installateurs font face à des projets tous différents, il est important qu’ils proposent des prestations irréprochables. En effet, le succès à long terme des installations thermiques utilisant les énergies renouvelables, croissant, passe par là.En savoir plus sur les modalités d’attribution des certifications QualibatL’attribution d’une certification implique une évaluation des capacités techniques, humaines, et financières des entreprises. C’est pourquoi chaque candidature fait l’objet de procédures rigoureuses soumises au contrôle d’un organisme tiers :
l’établissement de référentiels reconnus, pour évaluer objectivement les entreprises candidates à la certification, Qualibat définit les exigences de qualité auxquelles elles doivent répondre et qui constituent la base de toute évaluation.
Des procédures harmonisées sur l’ensemble du territoire, conformes aux exigences de la norme NF X50-091 qui s’applique aux organismes de certification.
Des Commissions collégiales compétentes et régulièrement évaluées au moyen d’audits internes et d’audits tierce partie.
Un certificat officiel, pour récompenser et surtout reconnaître les entreprises.
Commandée en 2007 par les ministères chargés de l’Ecologie et de la Santé, l’expertise menée par l’Agence Française de Sécurité Sanitaire de l’Environnement et du Travail (AFSSET) s’appuie sur une nouvelle forme de mesure des particules de l’air. Celle-ci prend en compte la fraction volatile des particules, ce qui conduit à des résultats différents, et globalement à une augmentation des concentrations mesurées. Depuis le 12 octobre 2007, une circulaire ministérielle fixe les seuils d’information et d’alerte, respectivement à 80 µg/m3 et 125 µg/m3 en moyenne sur 24 heures. Au niveau des objectifs, le Grenelle avait conclu à la nécessité de mettre en place un « plan particules », avec un objectif de 15 µg/m3 (valeur cible en 2010, qui deviendra obligatoire en 2015). Ceci équivaut à une réduction de 30% de la pollution. A terme, l’objectif est d’atteindre la valeur guide de l’OMS, soit 10 µg/m3.
Aucun seuil en dessous duquel l’impact pour la santé est nulLes résultats du travail réalisé par l’AFSSET confirment les connaissances actuelles, mais ils ont le mérite d’apporter des éléments nouveaux, qui doivent prendre toute leur place dans la réflexion engagée pour lutter contre la pollution par les particules. A ce jour, les connaissances scientifiques mettent en évidence des effets indésirables des particules dans l’air ambiant sur la santé de l’homme. Ceci est valable qu’il s’agisse d’une exposition de court terme ou d’une exposition chronique. Il n’est cependant pas possible d’observer un seuil de concentration en particules en deçà duquel aucun effet sanitaire ne serait constaté. Deuxième conclusion de l’enquête, plus étonnante : ce sont les expositions fréquentes, à des niveaux modérés de pollution, qui sont responsables de l’essentiel de l’impact sanitaire, et non les pics de pollution. Les chiffres sont édifiants : 97% de l’impact sanitaire est attribuable à des niveaux modérés mais fréquents, et seulement 3% aux pics.Enfin, le troisième point concerne les seuils d’alerte. Car même si les principaux pics ne sont pas responsables de l’impact sanitaire, la mise en place de seuils d’alerte reste intéressante. Notamment pour les personnes sensibles, mais aussi en termes de communication vis-à-vis du grand public.
La nécessité de réduire les émissions à la sourceA partir des ces conclusions, le rapport de l’AFSSET propose trois principales recommandations, avec en point d’orgue la nécessité absolue de réduire à la source les émissions de particules, pour diminuer l’exposition des personnes. Ainsi, les sources d’émission primaire de particules devront être ciblées. Selon le Centre Interprofessionnel Technique d’Etude de la Pollution Atmosphérique (CITEPA), il s’agit en premier lieu de la combustion du bois, du charbon et du fioul dans le résidentiel tertiaire (27% des émissions), de l’industrie manufacturière (28%) et de l’agriculture/sylviculture. A noter que dans les zones urbaines, les transports contribuent également de manière importante aux émissions, trois fois plus que dans les zones rurales. L’autre recommandation de l’AFSSET cible la communication vers les publics les plus sensibles. Ainsi, femmes enceintes, nouveau-nés, personnes âgées, et plus particulièrement les personnes atteintes de pathologies cardio-vasculaire ou respiratoire sont particulièrement visés. Le diabète et l’obésité sont aussi les critères d’une sensibilité particulière.Enfin, l’AFSSET recommande de considérer conjointement, pour une fixation de seuils d’information et d’alerte pertinents dans la réglementation, deux éléments primordiaux. D’abord, les données épidémiologiques du programme de surveillance air et santé de l’institut de veille sanitaire qui pour différents niveaux de pollution aux particules évaluent les risques pour la santé. Ensuite, la distribution statistique des niveaux journaliers de particules à l’échelle nationale car celle-ci donne également des informations pertinentes quant à la pollution réelle par particules.Au final, le rapport de l’AFSSET apporte des éléments nouveaux dans la réflexion sur les dangers liés aux émissions de particules, mais souligne en premier lieu un point déjà connu de tous : seule une diminution à la source des émissions de particules réduit efficacement l’exposition des personnes.
Investir davantage dans les industries à valeur ajoutée technologique pour aider ce secteur, et plus largement l’économie française, à sortir de la crise… Tel est l’appel qu’une trentaine d’organisations coordonnées par la Fédération des industries électriques, électroniques et de communication (FIEEC) ainsi que l’Association française des éditeurs de logiciels (AFDEL) a lancé au gouvernement, mercredi 18 mars 2009, lors de la présentation de leur plan de conquête.Véritable plan de relance, celui-ci repose sur 10 projets qui couvrent un large spectre d’activités.
Le premier propose la création d’un environnement numérique performant sur l’ensemble du territoire et dans les bâtiments. Objectif : permettre aux particuliers comme aux entreprises de disposer d’un accès Internet haut débit de 10 Mbits/s d’ici 2012 avant d’atteindre 100 Mbits/s en 2020. Pour y parvenir, les rédacteurs du rapport proposent deux types de mesures : améliorer la capillarité du réseau de fibres optiques et jouer sur la mixité des technologies (sans fil, ADSL, etc.) pour atteindre l’abonné ; libérer les fréquences nécessaires pour les technologies sans fil haut débit au plus vite et s’assurer que les réseaux de communication à l’intérieur des immeubles sont conformes. Un projet dont l’investissement de départ est évalué à 300 millions d’euros en 2009.
Le deuxième vise à améliorer la qualité et la sécurité du réseau électrique. Objectifs : renforcer immédiatement la sécurité des installations électriques existantes, sécuriser d’ici 2015 120.000 km de lignes électriques contre les aléas climatiques et, d’ici 2018, accélérer le développement des énergies renouvelables et, parallèlement, travailler à l’intelligence d’un réseau électrique au service des citoyens et des entreprises (smart grid). Un projet dont le coût est évalué à 100 millions d’euros en 2009.
Le troisième concerne l’e-santé. Objectifs : faire en sorte que d’ici 2012, 10% des patients soient suivis sur leur lieu de vie plutôt que dans un hôpital et que d’ici 2020, toutes les personnes fragilisées (vieillesse, handicaps, maladies chroniques…) puissent demeurer chez elles si elles le désirent. Pour y parvenir, le rapport propose de développer la télé-médecine et la télé-santé, ainsi que de lancer un programme d’équipement ambitieux pour soulager des pathologies spécifiques. La première année, ce projet pourrait être financé à hauteur de 50 millions d’euros.
Le quatrième projet a trait à l’éco-responsabilité énergétique et au Green IT. Trois mesures phares sont proposées : accélérer dici 2015 a mise en oeuvre des décisions du Grenelle de l’environnement sur la rénovation des bâtiments tertiaires, industriels et résidentiels ; remplacer les équipements vétustes et énergivores et gérer les consommations d’énergie des bâtiments » intelligemment » grâce aux technologies innovantes ; et enfin, encourager le développement d’applications logicielles au service de l’éco-responsabilité. Un projet dont l’investissement pour 2009 est évalué à 200 millions d’euros.
Le cinquième programme s’applique, quant à lui, au développement de systèmes d’éclairage plus économes et plus performants. Objectif : rénover, d’ici 2015, 80% des installations, publiques et privées, d’éclairage des bâtiments et voieries les plus dégradées et énergivores, et installer des systèmes de contrôle automatique du fonctionnement (détection de présence de personnes et de lumière du jour). Un projet évalué à 100 millions d’euros en 2009.
Le sixième projet vise pour sa part à développer d’ici 2010 une véritable filière française de contenus audiovisuels et de jeux interactifs en Haute Définition (HD). Pour y parvenir, les auteurs du rapport proposent de redéployer et de compléter les aides du Conseil National de la Cinématographie (CNC) vers la filière HD, d’avancer sur le déploiement TNT, et de former et de sensibiliser l’ensemble de la filière. Coût de l’opération en 2009 : 30 millions d’euros.
Le septième programme propose de réguler le trafic routier pour polluer moins et réduire les bouchons en généralisant les infrastructures intelligentes et le rechargement électrique. Pour y parvenir, le rapport propose de développer, dès 2009, un pilote grandeur nature dans une ville, une région ou un département, et de réunir les acteurs concernés. Un projet qui pour 2009 devrait représenter un investissement de 24 millions d’euros.
Le huitième projet se place, lui, sous le volet de la sécurité. Objectifs : généraliser, d’ici 2015, les outils de sécurité des personnes et des biens grâce aux technologies à valeur ajoutée. Entre autres mesures, il s’agit essentiellement d’accélérer l’introduction de la carte nationale d’identité électronique et de la carte vitale 2 à base de puce. Coût de l’opération : 100 millions d’euros en 2009.
Le neuvième programme est consacré à l’e-éducation et propose, d’ici 2015, de généraliser les outils numériques de soutien à l’enseignement en primaire et secondaire ainsi que dans la formation professionnelle. Le budget nécessaire à sa mise en oeuvre en 2009 est évalué à 50 millions d’euros.
Enfin, le dixième projet propose de généraliser l’e-administration et d’encourager l’équipement numérique des entreprises d’ici 2011, l’investissement de départ étant évalué à 50 millions d’euros.
Au final, pour être lancé, ce plan en 10 points nécessiterait un investissement global de 1 milliard d’euros en 2009. Pour réunir cette somme, la FIEEC et l’AFDEL propose de créer un fond d’investissement spécifique au secteur des industries à valeur ajoutée : le FIVAT. Piloté par le gouvernement, mais cogéré par les différents acteurs publics et privés (incluant les centres de recherche et développement et les pôles de compétitivité pertinents), celui-ci sera alimenté par une mise initiale associant capitaux privés et publlics et serait, ensuite, alimenté par le privé et par les économies réalisées par la mise en place du plan de conquête. Reste à savoir si le gouvernement est prêt à financer un nouveau plan de relance en plus de ceux dans lesquels il est déjà engagé. Un plan de relance IT également aux Etats-UnisOutre-Atlantique aussi, des voix s’élèvent pour appeler le gouvernement à investir davantage dans les nouvelles technologies afin de sortir plus rapidement de la crise. Là bas, le projet est porté par Robert Atkinson, l’un des conseillers du président américain, fondateur et dirigeant de la Fondation pour l’innovation et les technologies. Celui-ci invoque la capacité de ce secteur à générer des gains de productivité. Le plan de relance économique américain prévoit pourtant d’allouer 7,2 milliards de dollars à la construction de réseaux. Mais pour Robert Atkinson, ce sont 15 milliards de dollars qui seraient nécessaires.
Un SMSI est avant tout un système de management. Un tel système est un ensemble de mesures aussi bien organisationnelles que techniques visant à :
atteindre un objectif ;
une fois cet objectif atteint, à s’y tenir voire à le dépasser.
Les systèmes de management s’articulent autour d’un modèle cyclique à quatre phases connu sous le nom de « PDCA » (Plan, Do, Check, Act) :
Phase Plan : dire ce que nous allons faire dans le cadre du domaine qui nous concerne.
Phase Do : faire ce que nous avons dit dans le cadre de ce domaine.
Phase Check : vérifier l’écart entre ce que nous avons dit (Plan) et ce que nous avons fait (Do).
Phase Act : engager les actions correctives nécessaires à la suppression d’un éventuel écart.
Tel que défini par la norme ISO 27001, un SMSI est « une partie du système de management global de l’entreprise basée sur une approche du risque lié à l’activité, visant à établir, mettre en œuvre, exploiter, surveiller, réexaminer, tenir à jour et améliorer la sécurité de l’information ». Dans la suite de ce document, nous allons nous appuyer sur cette norme pour toutes les définitions et exigences relatives à un SMSI.
Sélection et mise en œuvre des mesures de sécuritéUne appréciation des risques est effectuée dans la phase Plan du SMSI. Cette appréciation permet ensuite d’engager la réflexion sur le traitement des risques identifiés. Dans la plupart des cas, il s’agit de les réduire à l’aide de mesures de sécurité adaptées. Mais comment déterminer ces mesures ?L’ISO 27001 fournit en annexe une liste de 133 mesures de sécurité, sans fournir de conseil ou d’exemple d’implémentation. Ceci est le rôle de la norme ISO 27002. Si toutefois l’implémenteur ne trouve pas de mesure permettant de réduire un risque identifié parmi celles proposées, il a la possibilité de la chercher dans un autre référentiel ou de l’élaborer lui-même. Les mesures de sécurité sélectionnées sont alors mises en œuvre lors de la phase Do du SMSI.
Ces mesures sont-elles efficaces ?A la lecture de ces quelques lignes, n’avez-vous pas l’impression d’assister à un Happy End où la mise en place d’un SMSI serait un jeu d’enfant ? C’est loin d’être le cas et les normes ISO 27001 et 27002 ont leur lot d’imperfections.Ces normes ne fournissent quasiment aucune recommandation pratique pour juger de l’efficacité des mesures de sécurité sélectionnées. A sa décharge, l’ISO 27001 demande à ce que des indicateurs d’efficacité soient définis pour vérifier le bon fonctionnement du SMSI. Mais lesquels ?L’ISO 27001 ne fournit malheureusement pas plus de détails. L’absence d’éléments concrets permettant d’établir des indicateurs est un de ses défauts majeurs. L’ISO compte le corriger à l’aide d’une autre norme en cours d’élaboration : l’ISO 27004. Elle proposera une démarche de sélection d’indicateurs dans le cadre d’un SMSI. Mais en attendant cette nouvelle norme, que peuvent faire les entreprises pour mesurer l’efficacité des mesures de sécurité de leur SMSI ?Le National Institute of Standards and Technology (NIST), entité fédérale au sein du Département du Commerce américain, a récemment publié un guide intitulé « Performance Measurement Guide for Information Security » et portant l’identifiant SP 800-55. Ce guide vise à fournir une aide dans le développement, la sélection et l’implémentation d’indicateurs de performances d’un programme de sécurité de l’information. Bien qu’il soit destiné aux agences gouvernementales américaines, les entreprises disposant d’un SMSI peuvent tout de même s’en inspirer.Facteurs de succèsQuel que soit l’indicateur que vous souhaitez développer et implémenter, le SP 800-55 met l’accent sur des facteurs importants dont il faut tenir compte :
tout indicateur doit produire une information quantifiable (que ce soit des pourcentages, des moyennes ou des chiffres concrets) ;
les données servant à alimenter les indicateurs doivent être facilement consultables ;
seuls les processus reproductibles doivent être mesurés ;
les indicateurs doivent être utiles pour évaluer la performance et l’affectation des ressources.
Le but de ces facteurs est de s’assurer que les indicateurs soient développés dans le but d’identifier les causes de la faible performance d’un SMSI et d’aider à entreprendre les actions correctives adéquates.
Trois types d’indicateursLe SP 800-55 porte particulièrement sur le développement et la collecte de trois types d’indicateurs :
des indicateurs d’implémentation,
des indicateurs d’efficacité,
des indicateurs d’impact.
Les indicateurs d’implémentation visent à jauger le niveau d’application des mesures de sécurité. Par exemple, un indicateur d’implémentation pourrait être le pourcentage de systèmes disposant de politiques de gestion de mots de passe correctement configurées ou le pourcentage de systèmes d’exploitation durcis suivant la politique de durcissement en vigueur. Ces indicateurs sont principalement alimentés par les résultats d’audits.En gagnant en maturité, le SMSI permet à ces indicateurs d’approcher et surtout de rester autour de 100 %. L’entreprise commencera alors à porter son attention vers les autres types d’indicateurs proposés par le SP 800-55.Les indicateurs d’efficacité sont utilisés pour vérifier que les processus du SMSI et les mesures de sécurité sont correctement implémentés, fonctionnant tel qu’attendu et permettant d’obtenir le résultat souhaité (réduction des risques à un niveau acceptable). Le pourcentage de vulnérabilités corrigées est un exemple d’indicateur d’efficacité de la mesure de sécurité 12.6.1 de l’ISO 27001 (mesure relative aux vulnérabilités techniques). En effet, tout résultat en deçà du résultat attendu indique une incapacité à recevoir les bulletins d’alertes et à les utiliser pour corriger les vulnérabilités.Enfin, les indicateurs d’impact sont destinés à mesurer les conséquences d’événements de sécurité sur l’activité de l’entreprise. Ces indicateurs peuvent être utilisés par exemple pour mesurer les économies réalisées grâce au SMSI suite à un incident sécurité. Bien évidemment, ces indicateurs sont très recherchés par les dirigeants de l’entreprise. Il n’en reste pas moins les plus difficiles à développer et à implémenter. Contrairement aux autres indicateurs présentés plus haut, le SP 800-55 ne fournit pas d’exemple concret d’indicateur d’impact. La description de ces indicateurs reste aussi très vague. Le SP 800-55 se contente d’indiquer qu’ils sont spécifiques à chaque organisation (sic). Une manière d’écarter un sujet aussi difficile à traiter ?Améliorer les performances du SMSIAfin d’améliorer les performances du SMSI, le SP 800-55 propose une démarche en six étapes dont voici les grandes lignes :
Préparer soigneusement la collecte des données qui vont servir à générer les indicateurs d’efficacité du SMSI. Il s’agit de décrire à l’aide d’un plan comment ces données seront réunies, traitées et comment les résultats seront communiqués.
Procéder à la collecte des données et à leur analyse. Ainsi seront obtenus les indicateurs attendus. Cette étape permet d’identifier tout problème d’efficacité des mesures de sécurité retenues et de donner une visibilité sur les actions qui doivent être engagées afin de rectifier le tir s’il y a lieu.
Identifier clairement les actions devant être entreprises en s’appuyant sur l’étape précédente. Chaque mesure de sécurité qui n’est pas suffisamment efficace se voit associer une ou plusieurs actions correctives. Ces actions sont priorisées suivant un processus d’analyse de risques.
Estimer le budget nécessaire pour mener à bien les actions précédemment identifiées. Défendre le projet auprès des décideurs.
Obtenir les ressources nécessaires à la bonne conduite des actions correctives.
Appliquer les actions correctives aux mesures de sécurité incriminées. Il se peut qu’il soit nécessaire de supprimer une mesure de sécurité au profit d’une autre, plus adaptée. Cette démarche est itérative.
Un coup d’épée dans l’eau ou une réelle aide ?Malgré les quelques problèmes de cette première version tel qu’un traitement très vague des indicateurs d’impact, le SP 800-55 reste une ressource utile pour développer quelques indicateurs pertinents et améliorer ainsi l’efficacité des mesures de sécurité du SMSI et donc les performances de ce dernier. Le guide fournit aussi treize fiches descriptives de mesures de sécurité et les indicateurs associés. Bien que ces mesures soient décrites dans un langage propre au NIST, il est facile de trouver leur pendant dans l’ISO 27001. Toutefois, un effort d’adaptation vis-à-vis au monde « ISO » des SMSI tels que nous les connaissons reste nécessaire, sans oublier que ce guide n’est actuellement disponible qu’en anglais. Saad Kadhi, Consultant sécurité, ISO 27001 Lead AuditorLes autres articles du dossier
Quel script pour un bon audit de systèmes d’informations ?
OSSTMM, une méthodologie pour cadrer les tests de sécurité
Les tests d’intrusion comme révélateurs de dysfonctionnements
Tests d’intrusion : le contrat, gage d’une mission réussie
Si l’on n’y prend garde, l’audit d’un système d’information peut s’apparenter au script du célèbre film de Sergio Leone Le Bon, la Brute et le Truand .Dans le rôle du « Bon », le client d’une prestation de service qui contribue à tout ou partie de son système d’information. Ne maîtrisant pas directement les équipements et les hommes qui concourent à cette prestation, il est inquiet voire suspicieux sur le niveau de sécurité effectif.Pour le « Truand », retenons le prestataire qui apporte au « Bon » une solution informatique généralement mutualisée avec d’autres clients. Il connaît bien son métier mais il doit trouver le juste équilibre entre une sécurité adaptée aux enjeux et une pression sur les prix imposée par ses clients.Enfin, attribuons le rôle de la « Brute » à la société d’audit missionnée par le client. Au prix de nombreuses tortures du genre interviews, revues de documents et autres tests d’intrusion en force, elle cherchera à faire « avouer » au prestataire un nombre de défauts proportionnel au coût de sa prestation facturée au client.Mais essayons d’être plus constructifs. Contrairement à un trésor caché, la sécurité n’est pas un jeu à somme fixe à partager entre trois belligérants. Il vaut mieux la voir comme un enfant qui peut croître et embellir s’il est couvert par l’attention de tous. Dans ce cas, mieux vaut que nos trois protagonistes jouent ensemble comme dans Trois Hommes et un couffin de Coline Serreau.
Enjeux pour le prestatairePlaçons-nous dans le rôle du prestataire. Vous connaissez votre métier et vous agissez de manière professionnelle dans la fourniture de services à des tiers. Pour fixer les idées, prenons quelques exemples concrets d’une telle prestation :
déploiement et exploitation d’un réseau IP privatif d’entreprise ;
hébergement en salle blanche de serveurs informatiques appartenant à vos clients ;
hébergement sur vos serveurs d’applications développées et maîtrisées par vos clients ;
fournitures d’une application clef en main de comptabilité, de gestion documentaire, d’archivage…
Cette prestation va reposer sur les 3 grands piliers suivants :
des plates-formes logicielles et matérielles : serveurs, systèmes d’exploitation, bases de données…
des hommes et des femmes pour concevoir, déployer, maintenir et opérer l’ensemble de ce qui précède dans le respect de processus clairement définis et efficients.
Si le client vous a confié cette prestation, c’est qu’il pense que vous pouvez la réaliser à un meilleur rapport coût / performance que ce qu’il saurait faire en interne avec des ressources en propre.Ce meilleur rapport coût / performance tient essentiellement dans le couple « savoir faire » et « mutualisation » :
Ce savoir faire acquis dans un domaine vous permet d’être plus efficace que d’autres acteurs et d’offrir une prestation de qualité. Vous avez les bons équipements, les bonnes personnes, les bons processus industriels…
La mutualisation de surfaces techniques, d’équipements informatiques, de liens réseau et d’experts dans un domaine entre plusieurs clients similaires vous permet de maîtriser votre compte d’exploitation et d’offrir votre prestation à un coût concurrentiel.
Ces deux points sont structurants dans votre attitude en tant que prestataire quand un client souhaite auditer la sécurité de la prestation rendue :
Vous allez devoir imposer des mesures afin de protéger votre savoir faire de l’inquisition des auditeurs ;
Vous allez devoir « contenir » les assauts des auditeurs pour éviter toute perturbation sur les services offerts à vos autres clients.
Les points clefs pour un bon auditCela va sans dire, l’audit client ne doit porter que sur la prestation qui lui est contractuellement due. On pourra y inclure quelques éléments connexes, mais avec de solides justifications. Si on vient dans un restaurant pour juger du bien fondé des ses étoiles, on peut inspecter la cuisine mais pas sa comptabilité, même si cela peut impacter la pérennité de l’établissement.Quelles sont les actions qui seront réalisées et les bonnes questions à se poser ?
L’ingénierie sociale ? Mais alors comment protéger les employés qui en font l’objet ?
Les tests d’intrusion dans les systèmes d’informations du prestataire ? Et quelles seront les limites de ces tests ?
Les tests de déni de service ? Alors comment protéger les équipements mutualisés dans l’intérêt des autres clients ?
Les analyses documentaires ? Les documents seront-ils copiés ou consultés sur place ?
De fait, tout ceci doit être précisé avec le périmètre de l’audit.
Faut-il planifier l’audit ?Certains clients aimeraient pouvoir agir comme la » Brigade des Stups » et faire irruption comme bon leur semble chez leur prestataire. Si ce dernier accepte toutes les demandes de ce genre alors on risque de désorganiser les services opérationnels au détriment des prestations elles-mêmes. Un bon audit n’est pas fait pour « pincer » le prestataire mais pour évaluer la sécurité et l’améliorer si nécessaire. Et si le client insiste pour mettre en place des audits » surprise « , c’est que le minimum de confiance nécessaire dans son prestataire n’existe pas. Pour contribuer à l’amélioration, l’audit doit être planifié à l’avance afin que tous les intervenants soient disponibles. Et il doit être borné dans le temps pour ne pas perturber plus que nécessaire le fonctionnement quotidien des équipes.Des coûts supplémentaires à répartirL’audit va monopoliser des ressources chez le prestataire. Les techniciens qui seront interviewés, la présentation de l’organisation ou des process par les managers, la mise en œuvre d’un accueil approprié des auditeurs, l’ouverture de comptes système… Autant d’actions qui ne font pas partie de la prestation de base. Il faut donc se mettre d’accord sur l’acteur qui prendra en charge ces différents postes de coûts.
Attention à la confidentialitéLe prestataire devra présenter aux auditeurs un savoir faire, des documents, son organisation… qui sont autant de potentiels atouts concurrentiels. Dans certains cas, il peut également avoir à présenter des informations qui concernent d’autres clients que celui qui réclame l’audit. Et puis certaines de ces informations seront portées à la connaissance du client au travers du rapport d’audit. Il est donc indispensable que le cabinet d’audit et le client concerné soient soumis à une clause de confidentialité appropriée.
Formaliser la responsabilité du cabinet d’auditDans l’exercice de sa mission, le cabinet d’audit peut porter involontairement préjudice au prestataire : un test technique qui dérape et met un équipement mutualisé hors service, un document confidentiel dupliqué et perdu… Afin que ce cabinet conduise l’audit avec tout le professionnalisme nécessaire, il est prudent de lui faire signer un engagement de responsabilité, et le cas échéant de vérifier son contrat d’assurance professionnelle. Autrement dit, pas de clause d’exonération comme certains cabinets en demandent parfois. Un droit de regard pour le prestataireLe rapport d’audit appartient logiquement au client. Mais afin de pouvoir progresser par le déploiement de mesures correctives, il est bon que le prestataire ait accès à ce rapport. Il en va de l’intérêt même du client. On peut aussi prévoir un droit à commenter pour le prestataire si le rapport ne lui reflète pas exactement la situation. Un élément positif peut avoir échappé à l’auditeur. Enfin, dans le cadre de la clause de confidentialité, la diffusion de tout ou partie de ce rapport à des tiers doit être prohibée.
Comment bien choisir son cabinet d’audit ?Un cabinet d’audit peut faire partie d’un groupe ou d’une société concurrente du prestataire audité. Si ce dernier argumente que cela peut impacter la réalité de la confidentialité de l’audit, alors il doit pouvoir récuser ce cabinet. Client et prestataire doivent donc s’accorder sur le choix du cabinet d’audit finalement retenu. Il faut aussi se méfier des problématiques de type « juge et partie » et s’assurer que le cabinet d’audit et le prestataire ne font pas partie de la même entité !
Prévoir l’audit dans le contrat Afin d’éviter de pénibles débats a posteriori, il est recommandé d’inclure la possibilité de l’audit et ses clauses opératoires dans le contrat de la prestation, en s’inspirant de ce qui précède. Il faudra bien sûr compléter les documents quand un prestataire aura été retenu et lui faire apposer sa signature sur les différents volets qui le concernent : confidentialité, responsabilité, assurance…
L’audit d’un prestataire de services par son client doit être conçu dans une approche d’amélioration dans l’esprit du « Plan-Do-Check-Act » cher à la norme ISO 27001. L’audit se place dans le Check et il trace le chemin pour le Act.
Pour ce faire, il faut convenir d’un accord sur la planification, la confidentialité, l’utilisation des résultats… entre le client, le prestataire et le cabinet d’audit.
L’audit doit être « balisé » dès la signature du contrat de la prestation de base.
Eric Wiatrowski, responsable de la sécurité des systèmes d’information de Orange Business Services Les autres articles du dossier
Comment évaluer l’efficacité des mesures de sécurité d’un SMSI ?
OSSTMM, une méthodologie pour cadrer les tests de sécurité
Les tests d’intrusion comme révélateurs de dysfonctionnements
Tests d’intrusion : le contrat, gage d’une mission réussie
Les responsables chargés de maintenir la sécurité d’un système d’information (SI) disposent d’une gamme d’outils variés pour identifier les faiblesses potentielles. Parmi ceux-ci, les tests d’intrusion sont généralement utilisés de manière à relever les vulnérabilités purement techniques (mauvaise configuration, erreurs de développement, non application des correctifs…). Cependant, en regardant ces tests et leurs résultats sous un autre angle, il est possible, dans certains cas, d’en tirer des conclusions d’un niveau plus élevé qui peuvent servir de point d’entrée à des réflexions d’ordre plus général sur la sécurité du SI.Voici quelques exemples, tirés de cas rencontrés au cours d’audits réels, dont peuvent être déduits l’existence de problèmes de fond dans la sécurité d’un SI : au niveau de la conception (réseaux, architecture logicielle, développement d’applications) mais aussi dans la définition et l’application de la politique de sécurité.
Les problèmes de conceptionComme indiqué, les tests d’intrusion techniques (externes ou internes) peuvent mettre en évidence des problèmes de conception. La preuve, via ces trois exemples qui illustrent, chacun à leur niveau, ce cas de figure.
Au niveau architecture réseauAu cours d’un test d’intrusion externe, un auditeur peut parvenir à passer des commandes sur une des machines frontales (par exemple un reverse proxy Web). L’auditeur cherche ensuite à cartographier les machines internes accessibles et à identifier les ressources sensibles. Dans l’exemple qui suit, l’auditeur exploite la méthode HTTP CONNECT sur le reverse proxy situé en frontal d’un service HTTPS (secure.site.fr) pour établir des connexions vers des serveurs du réseau interne:
Connexion SSL vers le port 443 du site secure.site.frEtablissement de la connexionTentative de connexion vers le port 80 d’un serveur interne. Ici 192.168.0.10La connexion avec le serveur est effective. L’attaquant peut donc effectuer des requêtes sur le port distant, au travers du reverse-proxy.
L’exemple précédent démontre la possibilité de se connecter au service HTTP (80/tcp) d’un serveur interne du réseau cible (192.168.0.10), au travers du reverse-proxy mal configuré. La page d’accueil retournée constitue une ressource interne de la société qui ne devrait en aucun cas être accessible depuis Internet. Ce serveur ne devrait pas être accessible depuis le reverse-proxy. Cela dénote un manque de cloisonnement dans la définition de l’architecture réseau. La mise en place de DMZ et de filtrage entre les différentes DMZ et le réseau local aurait permis d’éviter les intrusions par rebonds successifs depuis l’extérieur. Cette mesure vaut également pour contrer des intrusions depuis le réseau interne et spécifiquement depuis le LAN utilisateur.Remarque : en fonction de la configuration du reverse proxy, il peut être possible d’atteindre n’importe quel service (SMB, SSH, telnet…).Au niveau développement logicielDans le cadre d’un test d’intrusion sur une application Web, l’auditeur va chercher à vérifier le degré de liberté que possède un utilisateur dans les valeurs envoyées en paramètre à l’application. L’objectif est d’injecter des chaînes de caractères qui seront interprétées comme du code et exécutées comme tel :
soit côté serveur : injection de code dynamique (PHP/ASP/JSP), injection de code SQL (SQL Injection);
soit côté client : injection de JavaScript dans le navigateur client ou Cross-Site Scripting (XSS).
En fonction des résultats observés, l’auditeur pourra identifier des faiblesses au niveau du développement de l’application. Par exemple si le fait de passer une commande du type : http://www.site.com/rechercher.php?requete=> affiche un pop-up dans le navigateur de l’auditeur, on peut en déduire qu'aucun contrôle des paramètres envoyés par l’utilisateur n'a été implémenté au sein de l'application. En effet, cette chaîne de caractères, classiquement utilisée pour l’injection devrait être systématiquement filtrée par un mécanisme de contrôle. L’application aurait dû retourner une erreur ou au minimum filtrer les caractères ‘<’.Si cette requête ne donne aucun résultat, il est possible qu’un mécanisme de filtrage ait été mis en œuvre. Dans ce cas, l’auditeur cherche à contourner le dispositif de filtrage. Par exemple en utilisant des requêtes du type : http://www.site.com/rechercher.php?requete=%3C%73%63%72%69%70%74%3E%61%6C%65%72%74%28%27%58%53%53%27%29%3C%2F%73%63%72%69%70%74%3EIci, l’encodage a été modifié (représentation en URL-Encoding du code JavaScript précédent). Si le pop-up s’affiche, cela démontre que la prise en compte de la problématique d’injection est incomplète. Il existe de nombreuses requêtes et types d’encodage pour tenter d’injecter du code dans une application.De manière générale, toute modification du comportement de l’application par le biais d’injection de code indique une prise en compte limitée, incorrecte ou nulle de la sécurité (en ce qui concerne le contrôle des paramètres utilisateurs) au cours du développement de l'application.Le filtrage des entrées utilisateurs peut être effectué soit au coeur de l'application, par des fonctions développées spécifiquement, soit au travers d'un composant de filtrage applicatif situé en amont, tel qu'un reverse proxy filtrant. La première solution est la plus sûre, le reverse proxy pouvant être ajouté par mesure de sécurité, ou pour protéger d'anciennes applications disposant de failles mais ne pouvant pas (encore) être corrigées.Au niveau architecture applicativeToujours au cours d’un audit d'application Web, l’auditeur, s’il détecte une vulnérabilité de type injection SQL (due à une absence de contrôle sur les paramètres utilisateurs, comme présenté dans le paragraphe précédent), peut tenter de créer un fichier à la racine du site. Par exemple à l’aide de la commande SQL Server xp_commandshell : xp_cmdshell "@ECHO D3f4c3d! >> C: Inetpubwwwrootaudit.txt"Si le fichier créé est accessible par le navigateur, l’auditeur est en mesure de démontrer une insuffisance architecturale : deux des composants de l'architecture de l'application (frontal Web de présentation et base de données) sont situés sur le même serveur physique. La décomposition en architecture n-tiers aurait permis de répartir les composants sur différents serveurs et donc de minimiser les conséquences d’une vulnérabilité présente sur l’un des composants. Au lieu de créer un fichier inoffensif, un attaquant aurait plus probablement modifié la page d’accueil (defacing).Cette remarque s'applique à des applications complexes. Il n'est pas forcément réaliste de considérer la mise en œuvre d’une architecture n-tiers pour des petites applications Web.Problèmes liés à la politique de sécuritéUne des missions des responsables du SI est de définir une politique de sécurité correspondant aux besoins de l’entreprise. Ici aussi, par le biais de résultats techniques, il est possible de mettre en évidence des lacunes dans la définition ou l’application de la politique de sécurité.
Un exemple trivial : la mauvaise application de la politique de mots de passeLa mise en place d’une politique de mots de passe forte impose aux utilisateurs d’un domaine Active Directory de choisir un mot de passe répondant à plusieurs critères de complexité. Cependant, lors de tests d’intrusion internes, c'est-à-dire depuis le réseau des utilisateurs du domaine, l’auditeur cherche systématiquement à identifier des comptes valides possédant des mots de passe faibles, ainsi que les groupes auxquels ils appartiennent. Pour cela, la méthode la plus commune est d’effectuer des requêtes RPC sur le contrôleur de domaine (considérons de plus que les requêtes anonymes sont autorisées) : # rpcclient -I 192.168.1.1 -U '%' DOMAINSERVERUne fois connecté, l’auditeur liste les utilisateurs et les groupes :rpcclient $> enumdomusersuser:[Administrator] rid:[0x1f4]user:[pikachu] rid:[0x3eb]user:[qulbutoquet] rid:[0x3ee]user:[test] rid:[0x3ed] ...rpcclient $> enumdomgroupsgroup:[Domain Admins] rid:[0x200]group:[Domain Users] rid:[0x201] ...La commande suivante liste les utilisateurs du groupe « Domain Admin » :rpcclient $> querygroupmem 0x200rid:[0x1f4] attr:[0x7]rid:[0x3eb] attr:[0x7]rid:[0x3ed] attr:[0x7]…Trois utilisateurs possèdent des privilèges élevés : ‘administrator’, ‘pikachu’ et ‘test’. L’auditeur teste pour chaque compte des mots de passe triviaux.rpcclient -I 192.168.1.1 -U 'test%test' DOMAINSERVER –c netshareenumnetname = IPC$…Le compte ‘test’ possède un mot de passe faible (test), les exigences de complexité ne sont donc pas respectées ! Différentes hypothèses peuvent alors être avancées pour comprendre cet écart entre la politique définie et la réalité :
contournement de la politique par des administrateurs ;
mauvaise configuration du contrôleur de domaine ;
présence de comptes inutilisés (absence d’audit sur les anciens comptes lors de la mise en place de la politique).
Contournement de la politique d’accèsIl arrive que les tests d’intrusion mettent en évidence des cas d’utilisation permettant de contourner la politique de filtrage au niveau réseau. Le schéma suivant présente un cas classique de contournement de cloisonnement.D’après les règles définies sur le pare-feu, seuls les administrateurs devraient pouvoir accéder au réseau de production. Cependant, les serveurs de production et de développement se situent sur le même réseau. Les développeurs pourront chercher à se connecter aux serveurs de production en utilisant un serveur de développement comme passerelle : # ssh dev@serv_dev1dev@serv_dev1’s password : ***[dev@~ serv_dev1] # ssh root@serv_prod1root@serv_prod1’s password :On peut en déduire que les exigences de cloisonnement ont été mal appliquées.Mauvais usage des éléments de journalisationDans ce dernier exemple, nous abordons le cas de la journalisation des évènements, composante importante de la sécurité du SI. Le fait de journaliser différents types d'évènements, sans définir davantage de contraintes sur l’implémentation de cette journalisation peut aggraver des vulnérabilités. Par exemple, un auditeur détectant une vulnérabilité de type « inclusion de fichier local » peut chercher à insérer du code dynamique dans un fichier local dans l’objectif de l’inclure dans l’application et donc de le faire exécuter. Toutes les requêtes passées au serveur étant journalisées, l’auditeur cherchera à injecter du code (PHP par exemple) dans le fichier de log à l’aide de requêtes incorrectes contenant le code qu’il désire faire exécuter :http://www.site.fr/Le code PHP fourni dans cet exemple prend en paramètre une commande shell et retourne le résultat de son exécution. L’auditeur n’a plus qu’à tenter d’inclure le fichier de log au sein de la page vulnérable, en passant en paramètre la commande à exécuter (ici la commande UNIX ls).http://www.serveur.fr/page.php?incl=../../../../var/log/httpd/error_log&cmd=lsSi la requête précédente fournit le résultat attendu (affichage du contenu du répertoire courant), l’auditeur peut en déduire que les droits sur les fichiers de journalisation sont trop permissifs. Il aurait été nécessaire de préciser dans la politique de sécurité de limiter l'accès à ces fichiers au seul utilisateur 'root'.Certaines de ces faiblesses sont certes identifiables par d'autres types d'audits (entretiens, analyse de documentations, audits de configurations, audits de code...) mais leur détection est souvent coûteuse en temps et en ressources. Ce qui est moins le cas des tests d'intrusion techniques. De plus, ils offrent la possibilité de dérouler des scénarii d'attaques explicites aboutissant à des résultats marquants : accès à la messagerie de n'importe quel employé de l'entreprise, à des données stratégiques, des informations concernant les ressources humaines, des contrats partenaires... Ce type d'illustration marque plus facilement les esprits des acteurs de la sécurité du système d'information (décideurs, exploitants et utilisateurs) et de tels résultats peuvent servir aux responsables de la sécurité dans leurs missions de sensibilisation. En fonction de la cible, les exemples doivent bien sûr être adaptés pour que chaque personne se sente concerné par les problématiques de sécurité.Sébastien Langlais, Emilien Le Jamtel, Consultants en Sécurité des Systèmes d'InformationLes autres articles du dossier
Comment évaluer l’efficacité des mesures de sécurité d’un SMSI ?
Quel script pour un bon audit de systèmes d'informations ?
OSSTMM, une méthodologie pour cadrer les tests de sécurité
Tests d’intrusion : le contrat, gage d’une mission réussie
Sans une compréhension exacte de leurs tenants et aboutissants, que ce soit au regard de l’interprétation de leurs résultats, des risques induits ou encore des obligations et responsabilités respectives du prestataire et de son client, les opérations de tests intrusifs ne doivent pas être autorisées ou engagées sans un encadrement et une préparation minutieuse. De ce point de vue, le contrat de test d’intrusion, qui prévoit également l’organisation et les modalités de la mission, est sans nul doute un des éléments déterminants dans le succès futur d’une prestation de tests intrusifs.
Les risques des tests d’intrusionLes tests d’intrusion comportent intrinsèquement de nombreux risques de différentes natures :• Les évènements liés au système d’information (SI) cible et au périmètre d’intervention, conduisant en particulier le prestataire à réaliser (dans cette hypothèse, illégalement) des tests d’intrusion sur une partie du système se situant en dehors du périmètre contractuel ou qui n’appartient pas ou ne relève pas de la responsabilité du client mais d’une entité juridique autonome ou d’un tiers hébergeur par exemple, dont les ressources sont mutualisées au profit de différentes organisations ; dans ce dernier cas de figure, les risques induits par la réalisation de tests d’intrusion sur des serveurs partagés par différents clients sont évidemment démultipliés dans l’hypothèse de la réalisation de dommages au cours des opérations de tests ;• les évènements liés à la maîtrise des outils ou aux méthodes employées pour la conduite des tests d’intrusion, causant des dommages sur le SI cible (atteintes par exemple à l’intégrité ou de la confidentialité des données et surtout, à la disponibilité du système engendrant un déni de service) ou permettant la réalisation d’attaques opportunistes, éventuellement par rebond, au cours de la période des tests (porte dérobée installée par le prestataire, vulnérabilité non corrigée permettant d’atteindre des ressources critiques de l’environnement cible ou d’affecter des SI tiers, …) ;• les évènements liés aux résultats des tests, conduisant par exemple au déclenchement d’une fausse alerte et à un dépôt de plainte contre le prestataire, ou bien surtout, de façon plus réaliste, à une perturbation du fonctionnement du SI cible ou encore à l’accès à des données « sensibles », qu’elles soient confidentielles, personnelles ou révélatrices de contenus pénalement répréhensibles.Le contrat vise à appréhender tous les risquesFace à ces différentes hypothèses, le contrat, qui a vocation à anticiper les risques, doit fixer un cadre strict pour l’intervention du prestataire et permettre, dans le même temps, au client de prendre conscience aussi bien de la démarche à respecter et de ses objectifs, que des précautions nécessaires au bon déroulement des opérations.Pour parer aux différents évènements envisagés plus haut, la première étape clé dans la préparation d’une mission de tests intrusifs consistera d’abord à recueillir toutes les autorisations de test nécessaires en fonction à la fois du périmètre technique des opérations envisagées et de l’existence ou non de prestataires externes. Ainsi, pour ne pas tomber sous le coup de l’article 323-1 du Code pénal (qui punit, rappelons-le, tout accès frauduleux à un « système de traitement automatisé de données » [1]), la signature du contrat par le client ne suffira pas toujours et il conviendra encore d’obtenir l’autorisation spécifique, d’une part, des sociétés détenues par le client – mais dont il ne détient pas la majorité du capital et pour lesquelles il n’est pas décisionnaire – et d’autre part, de ses sociétés partenaires (fournisseurs, hébergeurs, …) qui sont compris dans le périmètre des tests prévus au contrat [2]. Bien entendu, force est de rappeler également la nécessité de vérifier la qualité et la capacité à engager l’organisation cliente du signataire du contrat ou de l’autorisation. Par ailleurs, relevons ici que les délais de réalisation, qui conditionnent quant à eux la périodedelégalité des tests – ou bien, s’agissant d’une approche « boîte blanche », la période d’attribution des droits et habilitations sur le système d’information client – devront eux aussi être définis avec la plus grande précision, ainsi que l’obligation, le cas échéant, de respecter certaines dates et plages horaires pour la conduite des tests.Ensuite, le contrat comprendra, tantôt dans son préambule (trop souvent négligé), tantôt dans le corps de ses dispositions, un « avertissement » au client, qui n’est pas en principe ici considéré, au regard de la loi, comme un professionnel du domaine de la sécurité des systèmes d’information mais bien comme un profane, et qui doit, en conséquence du devoir d’information, de conseil et d’alerte du prestataire, être éclairé en particulier sur les risques induits et les limites des objectifs que peuvent remplir des tests d’intrusion. A cet égard, il soulignera notamment l’absence d’exhaustivité des tests d’une part – dont l’objectif n’est pas de révéler toutes les vulnérabilités d’un système mais bien plutôt de démontrer la possibilité d’en exploiter certaines – et l’erreur d’interprétation qui conduirait à considérer l’échec d’un test d’intrusion (au sens où le système aurait résisté à toutes les tentatives d’attaques menées par les pentesteurs) comme constituant la preuve de la sécurité du système d’autre part – en effet, pour obtenir un niveau d’assurance suffisant sur la sécurité d’un environnement informatique, un audit de sécurité prenant en compte les aspects organisationnels et procéduraux en plus des questions techniques doit permettre de mieux répondre à ces attentes.Le contrat informe, responsabilise et organise Le client ainsi informé des risques et limites des opérations de test, le contrat pourra formaliser un ensemble d’obligations respectives des parties. Pour sa part, le client devra notamment s’engager à prendre toutes les mesures nécessaires pour protéger les données, informations et programmes présents sur son système d’information. Il sera le garant de l’application effective d’une politique de sauvegarde adéquate pour la conservation et la restauration (« back up ») nécessaire à la sécurité de toutes ses données, informations et programmes. Le prestataire, de son côté, s’engagera en particulier à informer sans délai le client de tout dysfonctionnement résultant directement ou indirectement de la session de tests intrusifs qu’il réalise. Lorsqu’il constatera l’existence d’une vulnérabilité critique sur le système d’information du client, il prendra immédiatement contact avec le responsable projet du client pour lui indiquer les mesures correctives à appliquer et parer ainsi à une éventuelle attaque réelle qui pourrait survenir à tout moment.Les modalités de réalisation de la mission propres à garantir le bon déroulement des opérations de tests seront également spécifiées dans le contrat qui désignera en particulier les outils et techniques autorisés (mention le plus souvent générique) ainsi que les prestations « exclues », telles que le socialengeeneering [3]. En effet, à la différence des attaques logiques réelles, Patrick Chambet souligne dans un article [4], qu’il convient, en principe, dans le cadre d’opérations de tests intrusifs, de se garder notamment de perturber le système cible, ce qui exclut par exemple, sauf l’autorisation préalable du client, la technique du déni de service, même lorsque celle-ci vise à faciliter une autre attaque, ou d’implanter une charge utile : rootkit, cheval de Troie, code hostile, bombe logique, …, qui comportent un risque fort d’atteinte au fonctionnement du système ou à ses données. De même, l’auteur recommande de ne jamais modifier les données sur la cible (dans la pratique, on relève que la modification de certaines configurations – SGBDR par exemple – pourra être permise, pour démontrer une faiblesse exploitable telle que l’élévation de privilèges à un niveau administrateur), et en particulier, les chargés de test ne doivent pas tenter d’effacer leurs traces dans les logs. A l’inverse, de ce point de vue, il faudra au contraire toujours avancer « à visage découvert » et préserver la traçabilité des actions effectuées sur le système en communiquant au client les adresses sources utilisées par les chargés de tests, afin que ceux-ci puissent être identifiés et permettre le cas échéant de qualifier un incident intervenant pendant la période de test.Le contrat prévoira également des étapes de validation au cours de la mission, notamment, suivant les recommandations émises par le Clusif [5] :
une étape de validation du périmètre de l’intrusion : le prestataire fournira par exemple le schéma de topologie du réseau vu de l’extérieur et demandera au client de valider que les éléments identifiés lui appartiennent bien et sont inclus dans la couverture du contrat ;
une étape de validation après la phase de recherche de vulnérabilités : lorsqu’une vulnérabilité majeure est identifiée, pouvant atteindre le fonctionnement du système ou l’intégrité des données, le prestataire sollicite une autorisation expresse du client pour pouvoir l’exploiter et tester plus en profondeur le système d’information cible.
Le contrat, objet d’une relation de confianceEn dernier lieu, s’agissant des ressources mises à disposition par le prestataire, force est de souligner que le succès d’une campagne de tests repose pour une part essentielle sur la relation de confiance avec les pentesteurs et leur savoir-faire, ce qui justifie que le contrat soit le plus souvent signé intuitupersonae. Ainsi, s’agissant en particulier de tests dits « en aveugle » (type boîte noire), où le chargé de test est placé dans une position presque identique à celle d’une personne malintentionnée (la différence ici, c’est le respect de règles de moralité, de transparence, de confidentialité et de probité, qui sont rappelées dans le dispositif du contrat), Bernard Foray (RSSI) témoigne [6] que ces tests sont l’affaire de spécialistes ayant « l’expérience et aussi l’instinct, qui leur permet d’interpréter toute modification ou variation dans le contenu d’une trame réseau, (…) ». Cette catégorie de tests vient donc pour lui en complément des audits internes et ils ne peuvent être réalisés sans l’aide externede professionnels du domaine appliquant une méthodologie et des principes déontologiques établis et partagés.Marie Barel, Consultant SSI chez Orange, Expertise juridique TIC[1] Cet accès frauduleux se caractérise, suivant les termes de la jurisprudence, par un accès « sans droit et en connaissance de cause », c’est-à-dire que l’on se sait dépourvu d’habilitation ou d’autorisation d’une part, et que l’on a pas agi par erreur mais de façon consciente et délibérée d’autre part. Sur ces éléments constitutifs de l’infraction visée, voir en particulier l’arrêt de la Cour d’appel de Paris, 5 avril 1994.[2] On notera ici, de façon incidente, que le périmètreàtester doit être déterminé non pas en fonction de la valeur que vous accordez à un système, mais de la valeur que les attaquants peuvent leur accorder.[3] Conformément aux règles de déontologie contenues dans la Charte des Professionnels des Tests Intrusifs (Charte FPTI) : http://www.freesec.net/pro_charte.htm [4] Les tests d’intrusion externes : tests d’intrusion réseau, système, applicatifs – Patrick Chambet (MISC 11) : http://www.chambet.com/publications/ Les%20tests%20d’intrusion.pdf[5] Test d’intrusion – Document technique du CLUSIF (mars 2004) : http://www.clusif.fr/fr/production/ouvrages/pdf/TestIntrusion.pdf [6] Bernard Foray, La fonction RSSI: guide des pratiques et retoursd’expérience – Editions Dunod / 01 Informatique (2007) ; EAN13 : 9782100502189Les autres articles du dossier
Comment évaluer l’efficacité des mesures de sécurité d’un SMSI ?
Quel script pour un bon audit de systèmes d’informations ?
OSSTMM, une méthodologie pour cadrer les tests de sécurité
Les tests d’intrusion comme révélateurs de dysfonctionnements
Pourquoi l’Internet a-t-il disparu ? On pourrait dire que l’année 2008 a été l’année de la surenchère dans le domaine des annonces catastrophiques…. Petit retour sur l’actualité :• Début juillet 2008, Dan Kaminsky [1], avec « sa » faille DNS, annonçait la fin du monde, car le protocole DNS serait totalement insécurisé : n’importe qui peut faire du « cache poisoning », c’est-à-dire modifier des enregistrements DNS sur un serveur de type cache récursif. Il est ainsi théoriquement possible de réorienter le trafic choisi (mail, web…) d’un abonné ou d’un réseau vers la destination de son choix.• Début septembre 2008, Robert E. Lee et Jack C. Louis déclaraient avoir découvert une terrible faille dans les piles TCP/IP des systèmes d’exploitation. La faille permet une atteinte à la disponibilité (DOS) de tous serveurs connectés… Le sujet a été un peu introduit lors d’une première conférence sécurité, Sec-T, puis a fait l’objet d’une annonce plus importante [2] sur le site « slashdot ». Le CERT finlandais « CERT-FI » a d’ailleurs aussi publié un avis [3] critique…• Un mois plus tard, début octobre donc, c’est au tour de la société Elcomsoft [4] d’annoncer la fin de l’Internet, ou plutôt celle du Wi-Fi, avec leur solution rendant possible le cassage des solutions de sécurité / chiffrement les plus puissantes utilisées dans le Wi-Fi, à savoir WPA et WPA2… suivi très rapidement par une autre annonce encore plus effrayante sur le « cassage » de TKIP [5]…Alors, que penser de tout cela ? Visiblement, de nombreuses personnes et sociétés n’hésitent plus à annoncer la fin du monde.La faille DNS annoncée par Dan Kaminsky est clairement une faille importante. Mais la présenter comme critique pour l’Internet était peut être un peu exagéré. De plus, la gestion de l’annonce (faille annoncée début juillet, en indiquant que les informations techniques seraient fournies lors de la grande conférence « BlackHat 2008 » de Las Vegas (voir le compte rendu publié dans la lettre Sécurité Sans fil, éditions TI, n° 19) sent clairement le coup de pub… et n’ai pas forcément le meilleur moyen de gestion de ce type d’incident à l’échelle d’Internet…La faille TCP, à l’heure de l’écriture de cet article, n’est toujours pas publiée, mais on peut d’ores et déjà dire que la médiatisation de l’affaire semble un peu disproportionnée… Les auteurs n’ont pas non plus hésité à annoncer qu’ils détailleraient leurs trouvailles lors de la conférence T2 [1] prévue mi octobre 2008. Malheureusement, aucune information n’a été fournie lors de ladite conférence… le sujet est-il encore trop dangereux pour être abordé ?Enfin, penchons nous sur Elcomsoft et son annonce de la fin de la sécurité sur les réseaux Wi-Fi. Il est probablement inutile de rappeler qu’Elcomsoft est une société commerciale, vendant des solutions de cassage de mot de passe reposant sur l’utilisation de matériel atypique (GPU de carte graphique notamment) pour améliorer les performances. En décortiquant un peu l’annonce, on apprend qu’Elcomsoft a tout simplement, grâce à une puissance de calcul accrue, amélioré d’un facteur 100 (à discuter…) la vitesse de cassage de clef. Et alors ? Rien de neuf, car comme l’explique mon confrère Cédric Blancher sur son blog [2], une simple clef PSK de 8 caractères nécessite… 2103 années de calcul… Reste l’annonce des faiblesses sur TKIP. Mais là encore, les journalistes ont peu être un peu trop parlé avant de connaître (et comprendre ?) tous les détails…La mode est à la surenchère, tout est bon pour attirer l’attention des médias, quitte à mentir un petit peu ne serait-ce que par omission… Gardons notre esprit critique lors de la lecture de l’actualité Internet…Franck Veysset, expert en sécurité des réseaux[1] La conférence T2 : http://www.t2.fi/schedule/2008/#speech8 [2] Le blog de Sid : http://sid.rstack.org/blog/index.php/299-ca-fout-les-boules[1] Doxpara, le blog de M. Kaminsky : http://www.doxpara.com/?p=1204[2] http://it.slashdot.org/it/08/10/01/0127245.shtml[3] https://www.cert.fi/haavoittuvuudet/2008/tcp-vulnerabilities.html[4] L’annonce de Elcomsoft, http://www.elcomsoft.com/news/268.html reprise notamment ici: http://mobile.slashdot.org/article.pl?sid=08/10/12/1724230&from=rss [5] « Gone in 900 Seconds, Some Crypto Issues with WPA« , conférence PACSEC 2008, Erik Tews
Dès sa conception, la technologie Wi-Fi était par nature plus exposée à la malveillance car la connexion physique au réseau n’était pas nécessaire puisque le Wi-Fi repose sur une communication par ondes hertziennes. Afin de palier à cette problématique, WEP (Wired Equivalent Privacy) a été créé. Mais rapidement, il a démontré des erreurs de conception qui ont débouché sur la possibilité de casser WEP rapidement (moins de 30 minutes) après la capture de quelques centaines de milliers de paquets.Heureusement, WPA était alors déjà disponible et bien plus sécurisé. En résumé, la sécurité de WPA repose sur une PSK (Pre-Shared Key), à savoir une clé (en fait un mot de passe) de longueur variable entre 8 et 256 bits qu’il fallait craquer selon la méthode traditionnelle de l’attaque par force brutale.Par conséquent, et malgré des annonces à sensation encore récentes (telles celle de la société ElcomSoft qui, par l’exploitation des processeurs graphiques NVidia a pu multiplié par 100 ou même 10.000 la puissance de calcul), le temps nécessaire pour une clé de taille respectable était encore de plusieurs centaines d’années.Cependant, durant la conférence PacSec de Tokyo qui s’est déroulée les 12 et 13 novembre 2008, une nouvelle méthode pour « casser » partiellement WPA [1] est apparue, réduisant des centaines d’années de calcul à environ…une quinzaine de minutes.
Comprendre WPAAvant tout, il faut savoir que WPA est implémenté au dessus de WEP. Cela signifie par conséquent que WEP pouvant être cassé, la sécurité de WPA ne peut compter que sur elle-même. Il faut également comprendre que WPA n’est qu’une solution intermédiaire développée pour palier rapidement à toutes les faiblesses découvertes avec WEP. Par conséquent une des contraintes était que les solutions mises en œuvre dans WPA devaient pouvoir être installées dans les équipements existants (par mise à jour BIOS par exemple). Sans ces contraintes, on aurait pu passé, pour ainsi dire, de WEP à WPA2 d’un coup, permettant ainsi d’utiliser directement AES-CCMP (Counter-Mode/CBC-Mac protocol) plutôt que TKIP (Temporal Key Integrity Protocol) pour assurer le chiffrement et l’intégrite des échanges. À ce jour, CCMP est considéré comme sécurisé et approuvé par le NIST (National Institute of Standards and Technology).En résumé, WPA est donc un protocole TKIP supplémentaire et c’est précisement au niveau de ce protocole que l’attaque va se faire, d’une manière très proche du cassage de WEP par la méthode dite « chopchop ». TKIP, qui fonctionne d’une manière très similaire aux mécanismes de WEP mais en plus complexe, doit en fait mélanger une clé de session avec un vecteur d’initialisation pour chaque paquet transmis, empêchant ainsi les attaques classiques de découverte de clé.De plus, 64 bits supplémentaires, appelés MIC (Message Integrity Check) ou Michael, sont ajoutés au paquet dans le but d’empêcher les attaques sur le checksum CRC32, pratique connue avec le WEP. Par ailleurs, afin d’empêcher les attaques de replay, un compteur de séquence (TSC) est utilisé pour garantir l’arrivée séquentielle des paquets.La technique d’attaque « chopchop » ayant déjà été éprouvée avec le WEP, TKIP met également en place à ce niveau des contre mesures. Ainsi, si un paquet est reçu avec un ICV incorrect, le paquet est détruit. Si l’ICV est correct mais que le MIC ne l’est pas, alors le paquet est considéré comme une attaque et une réponse « MIC failure report frame » est renvoyée. Si deux paquets ainsi incorrects sont reçus, alors la communication est rompue pendant 60 secondes et toutes les clés renégociées après ce délai. Enfin, lors de la réception d’un paquet valide, le TSC (TKIP Sequence Counter) du canal correspondant est mis à jour et, si un paquet avec un TSC inférieur est reçu, le dit paquet sera jeté.« Casser » WPAErik Tews, étudiant à l’Universite de Darmstadt, associé à Martin Beck de l’Université de Dresden, déjà connu pour sa participation dans Aircrack, outil destiné à casser du Wi-Fi, ont découvert une faiblesse dans l’implémentation de TKIP, qu’ils ont réussi à exploiter avec succès.Avant tout, il existe des contraintes pour que l’attaque puisse réussir :
il est nécessaire que le point d’accès fonctionne en s’appuyant sur TKIP ;
le point d’accès doit reposer sur IPv4 et dans un plan d’adressage où les adresses (souvent RFC1918) sont connues, permettant ainsi de déduire la plus grande partie du codage des adresses IP ; à ce niveau, une précieuse source d’information sera la documentation du point d’accès car souvent si la sécurité est modifiée, les plans d’adressage par défaut le sont moins ;
l’intervalle de renouvellement des clés doit être long, par exemple une heure (3.600 secondes). À nouveau, la documentation de l’équipement permettra d’avoir la configuration par défaut, la plus souvent appliquée ;
idéalement, le réseau doit supporter la fonction de Qualité de Service IEEE 802.11e qui permet jusqu’à 8 canaux différents entre le point d’accès et une machine spécifique sur le réseau.
En pratique, la personne malveillante va capturer des paquets jusqu’à ce qu’elle tombe sur un paquet de requête ARP (ARP request) chiffré ou sa réponse, ceux-ci étant caractérisés par une très petite taille dont 28 octets forment la requête ARP selon un format défini. Dans ce type de paquet (qui ne contient que des adresses IP et MAC où les adresses MAC ne sont pas chiffrées et le paquet envoyé vers une adresse de broadcast), la plupart du contenu en clair (plaintext) du paquet est donc aisément devinable par le pirate. Il ne lui manquera en fait que les informations suivantes : les 8 octets de Michael (MIC) et les 4 octets du checksum ICV, lesquels formeront les derniers 12 octets de la partie claire du message.Partant de là, le pirate peut alors lancer son attaque de type « chopchop » modifiée afin de décoder les octets manquants. Comme nous l’avons expliqué précédemment dans « Comprendre WPA », TKIP dispose de contre mesures pour lutter contre ce type d’attaque, mais celle-ci reste possible en s’appuyant sur la fonction de Qualité de Service qui permet de disposer de 8 canaux pour la même relation « point d’accès-ordinateur ». En effet, la personne malveillante peut alors utiliser ces autres canaux, particulièrement ceux encore peu utilisés où le trafic est bien moindre afin de disposer d’un TSC bien inférieur, pour continuer son attaque.Pour chaque paquet envoyé qui sera rejeté par un paquet « MIC failure report frame », il faudra patienter 60 secondes afin d’éviter que le point d’accès n’enclenche ses contre mesures.Ainsi, dans un laps de temps de 12 minutes, le pirate est donc à même de décoder les derniers 12 octets du paquet (le MIC et l’ICV). Il ne lui reste plus qu’à déterminer les adresses IP source et destination par force brutale en les comparant avec l’ICV déchiffré.Une fois que le contenu en clair du paquet et le MIC sont connus, il suffit alors de lancer l’inverse de l’algorithme MIC pour en déduire la clé MIC utilisée pour le chiffrement des paquets. C’est ici que réside la deuxième faiblesse du système du fait que l’algorithme Michael est réversible et tout aussi performant à l’envers qu’à l’endroit.À partir d’ici, le pirate dispose de la clé MIC. Il est donc capable d’utiliser les autres canaux de communication (en général seul le canal 0 est employé). Une fois l’attaque réussie, il devient possible de décoder une nouvelle clé en environ 4 ou 5 minutes, ouvrant ainsi la porte à des actions visant à perturber le point d’accès ou même tenter d’établir des sessions.Quels risques ?Il ne faut pas dramatiser : non, WPA n’est plus l’équivalent de WEP, à savoir une couche qui ne garantit plus la confidentialité des échanges. Ici, le succès de cette technique permettra de pouvoir insérer des paquets qui perturberont, jusqu’au déni de service, le point d’accès ou sa communication avec une machine particulière. Le pirate pourrait réussir, sous certaines conditions, à rerouter le trafic par des faux paquets ARP. Cependant, il n’est pas encore ici question de décoder la PSK de WPA, et par conséquent, le risque n’est pas aussi fort qu’avec WEP qui, lui, est complètement cassé.
ConclusionAvec le temps qui passe, utiliser du Wi-Fi devient de plus en plus risqué, même s’il est ici assez simple d’empêcher ce type d’attaque. En effet, en définissant un délai de 1 ou 2 minutes de renouvellement de la clé, le pirate ne dispose plus d’assez de temps matériel pour réussir. Une autre stratégie consisterait à ne pas renvoyer de paquet « MIC failure report frame », ce qui empêcherait le pirate de détecter le moment où il doit patienter 60 secondes avant de continuer pour ne pas voir les contre mesures enclenchées.Autre approche : passer à WPA2 qui s’appuie sur le protocole AES, déjà utilisé actuellement par les Etats-Unis pour ses communications militaires. Mais passer à WPA2 a un coût car, pour des raisons de performances, le chiffrement est assuré le plus souvent par un composant électronique et non par le logiciel. Il peut donc être nécessaire de changer le matériel des points d’accès ainsi que des interfaces Wi-Fi clients.Cependant, il faut clairement de plus en plus envisager de s’appuyer sur d’autres technologies pour combler les lacunes liées à la sécurité Wi-Fi. Ainsi, il peut être bien plus simple de paramétrer le point d’accès sans sécurité et de forcer une authentification pour l’établissement d’un tunnel chiffré par exemple (IPsec, VPN SSL, …), laquelle pourrait même être à usage unique.Les outils déjà prêts à appliquer cette nouvelle technique sont :
Laurent Levier, Expert en sécurité des systèmes et des réseaux, CISSP CISM
Pour en savoir plus :[1] Practical attacks against WEP and WPA – Martin Beck, TU-Dresden, Germany, Erik Tews, TU-Darmstadt, Germany – November 8, 2008 – http://dl.aircrack-ng.org/breakingwepandwpa.pdf
TI : Vous vous définissez comme expert en puissance hyperfréquences. Comment l’êtes-vous devenu ?Michel Turin : « J’ai débuté ma carrière en 1967 comme ingénieur d’étude dans le domaine des réémetteurs de télévision, ce qui a déterminé ma voie vers les hyperfréquences. Ma formation de généraliste avec de bonnes bases théoriques, alliée à la confrontation directe, durant toute ma carrière, aux problèmes de conception de circuits haute fréquence m’ont appris à toujours associer l’approche théorique à la compréhension physique des phénomènes. J’ai eu la chance de débuter dans une branche, l’émission de signaux de télévision, où les étages de puissance des équipements devaient garantir l’intégrité des signaux à amplifier. Ce n’est pas le cas d’autres domaines, tels que des applications de puissance industrielle, par exemple. Cet impératif supposait la prise en compte de tous les paramètres de la mise en œuvre de ces amplificateurs de puissance ; en particulier, j’ai toujours été confronté aux problèmes de linéarité et d’intermodulation, qui s’avèrent si critiques aujourd’hui pour les télécommunications, alors que nous sommes passés à l’ère du numérique, domaine du non-linéaire s’il en est !En 1967, on ne concevait encore la puissance haute fréquence que grâce à l’utilisation de tubes électroniques, sans problèmes de rendement, et dont la non-linéarité peut être qualifiée de « molle ». Il n’en va pas de même pour les transistors de puissance et dès que l’offre de composants de puissance état solide a émergé, leur mise en oeuvre s’est avérée très délicate et les impératifs de rendement et de linéarité sont devenus critiques.
Et qu’est-ce que cela recouvre exactement ?L’expertise en puissance hyperfréquence s’étend de la connaissance des différents procédés d’amplification à celle de la mise en œuvre des composants de puissance. Les procédés concernent les montages fondamentaux et les systèmes d’amplification. La mise en œuvre concerne la stabilité du fonctionnement, le rendement électrique, la linéarité, les risques et la maîtrise de la pollution hertzienne et l’évaluation de la fiabilité. Il s’agit, à ma connaissance, du seul domaine de l’électronique où l’utilisation de la modélisation trouve ses limites, un modèle ne pouvant couvrir tous les aspects de la mise en oeuvre. Il est essentiel dès lors de garder en permanence à l’esprit les limites du domaine de validité du modèle, et de ne pas extrapoler en dehors de ces limites. Cette restriction vaut aussi pour la caractérisation des composants de puissance, étape préalable à toute conception, où les conditions de mesures doivent être en relation avec l’application ciblée.De plus les différentes technologies disponibles, en fonction du matériau semi-conducteur et de la structure du transistor, présentent des comportements différents qu’il est important d’avoir approfondi.
Comment reste-t-on « à jour », dans un contexte où de nouvelles technologies émergent constamment ?Le maintien d’une expertise impose de confronter son point de vue avec ses pairs, et en particulier, pour le praticien que je prétends être, avec la recherche fondamentale et les laboratoires de recherche universitaires. Le concepteur doit constamment avoir à l’esprit que tout l’environnement immédiat du dispositif d’amplification a une influence sur l’intégrité du signal.A l’ère du numérique, associé au « sans fil », la gestion des ressources du spectre hertzien impose des procédés de modulation de plus en plus complexes, où les caractéristiques de l’amplification de puissance doivent être de mieux en mieux comprises et maîtrisées. Il ne s’agit pas forcément de rendre les amplificateurs parfaits au regard des caractéristiques des signaux à traiter, mais d’en bien comprendre le comportement et d’en garantir la stabilité pour pouvoir corriger de manière fiable et reproductible ses imperfections. »Etre expert en puissance hyperfréquence c’est…« On pourrait dire qu’il s’agit donc, pour l’expert en puissance hyperfréquence, à la fois de conseiller le technicien dans le choix des technologies et des procédés les mieux adaptés pour l’application envisagée et de l’accompagner dans sa démarche depuis le choix des composants jusqu’à la validation de la conception. »Michel Turin : son parcours
Ingénieur en électronique, diplômé de l’INSA en 1965
De 1967 à 1984 : ingénieur d’étude dans le domaine des réémetteurs de télévision, chef du laboratoire d’étude puis directeur technique de Velec-Sefat, dirige toutes les conceptions de produits haute fréquence et hyperfréquence.
1984 à 1989 : directeur technique d’une PME spécialisée dans l’électroacoustique.
1989 à 2004 : groupe Thomson-CSF (Thalès actuellement), responsable du développement des produits de diversification en hyperfréquence de la branche Télévision Professionnelle (Thomson-LGT), puis de celle des émetteurs de télévision Etat Solide. En 1992, dirige l’équipe de conception de puissance, énergie et hyperfréquences, de Thomson-CSF Communications et en 2000, rejoint Thalès Microwave pour diriger les études et développement des produits de communication en ondes millimétriques.
2004 à 2006 : conseil en puissance hyperfréquence.
Depuis, goûte aux joies d’une retraite bien méritée.
Les fonctions de hachage cryptographiques sont des briques fondamentales de la cryptographie. Elles permettent notamment de vérifier l’intégrité de données (dans les paquets réseaux, pour les « packages » distribués et installés sous certains OS), de stocker les mots de passe de manière sécurisée, etc.
Nécessité d’un processus de standardisationLe NIST (National Institute of Standards and Technology) est une agence gouvernementale américaine ayant pour vocation la promotion et le développement, notamment, de standards technologiques. Dans le domaine de la cryptographie, le NIST est à l’origine de la standardisation de l’AES (Advanced Encryption Standard), un algorithme de chiffrement symétrique par blocs aujourd’hui largement adopté et utilisé [1]. L’avantage d’un processus de standardisation est de soumettre différents algorithmes aux spécialistes du domaine, ces derniers devant éprouver leur robustesse aux différentes attaques de l’état de l’art. La « cryptographic hash algorithm competition » a ainsi pour objectif la standardisation de SHA-3, successeur des fonctions MD5, SHA-1 et autres fonction de hachage actuellement utilisées sans toutefois avoir le statut de standards. Celles-ci ont en effet révélé des faiblesses ces dernières années, par exemple pour MD5 pour laquelle il est aujourd’hui trivial de trouver des collisions.
Détails sur le processus de soumissionLa compétition a été ouverte le 2 novembre 2007, la date limite des soumissions étant fixée au 31 octobre 2008. Le NIST a fourni des spécifications très détaillées sur ce qui doit être soumis [2] : • Spécifications et sécurité : hormis les spécifications détaillées de l’algorithme, les candidats doivent détailler chaque point de sécurité qu’ils revendiquent. Le minimum requis est un algorithme résistant aux attaques classiques (collisions, première et seconde pré-image, multi-collisions …).• Codes source et performances : le NIST a fourni une plate-forme de référence précise sur laquelle est testé le code de référence fourni par les candidats. En plus du code de référence, les candidats sont invités à fournir des codes source optimisés pour les plate-formes 32 et 64 bits. Les codes optimisés sont testés grâce à l’outil eBash [3], qui est un outil de tests automatisés. Le NIST demande aussi de fournir une estimation des performances de l’algorithme en implémentation hardware (FPGA, carte à puce …).• Vecteurs de test : chaque candidat doit fournir un ensemble de vecteurs de test (i.e. les sorties de l’algorithme pour des entrées déterminées) qui servira de référence aux futures implémentations. Il faut noter que le strict respect des spécifications du NIST est de rigueur puisque le moindre oubli peut valoir un rejet de candidature. Les deux principaux critères de sélection des candidats seront la sécurité et la performance tant au niveau software que hardware. A noter qu’il n’est pas exclu qu’il y ait plus d’un candidat qui sorte vainqueur de la compétition.
Quoi de neuf depuis le 31 octobre ? Depuis la fin de la soumission, le NIST n’a rien communiqué. La période de vérification des candidatures peut prendre un à deux mois, ce qui nous amène à courant décembre pour une publication de la liste des candidats jugés « valides ». Cela n’a pas empêché certaines équipes de cryptologues de rendre publique leur candidature. Le site [4] recense d’ailleurs les 28 candidats déclarés à ce jour alors que la rumeur fait état d’une soixantaine de candidatures déposées auprès du NIST. Parmi les candidats déclarés, le niveau des soumissions est très hétérogène. Certaines soumissions ont d’ailleurs déjà été cryptanalysées (au moins 6 candidats sont considérés comme faibles). D’autres sont au contraire déjà pré-senties comme finalistes, du fait notamment de la notoriété de leurs auteurs :
MD6 [5], fonction de hachage de Rivest et al. (Rivest était déjà à l’origine de MD5).
Skein [6], élaborée par Shneier et al.
Grœstl [7], soumis par Knudsen et al.
La suite ? De manière officielle, la présentation des candidats au premier tour sera faite lors d’une conférence au second trimestre 2009, et la liste des candidats validés ne saurait tarder. Une année après (second trimestre 2010), les cryptanalyses sur les candidats seront résumées lors d’une autre conférence. Le troisième trimestre 2010 marquera alors la sélection des finalistes de la compétition. Après d’éventuelles modifications des algorithmes, les candidats seront figés dans leur version finale fin 2010. Ce n’est que début 2012 qu’aura lieu la dernière conférence de la compétition, suivie de l’annonce du ou des choix de SHA-3 au second trimestre. Ryad Benadjila, ingénieur en sécurité Références :[1] http://fr.wikipedia.org/wiki/Standard_de_chiffrement_avanc%C3%A9[2] http://csrc.nist.gov/groups/ST/hash/sha-3/Submission_Reqs/index.html[3] http://bench.cr.yp.to/ebash.html[4] http://ehash.iaik.tugraz.at/wiki/The_SHA-3_Zoo[5] http://groups.csail.mit.edu/cis/md6/[6] http://www.skein-hash.info[7] http://www.groestl.info
Avec l’assouplissement du contrôle sur les produits sans fil [1], on pouvait penser que les prestations effectuées grâce à des réseaux sans fil et qui emploient des techniques cryptographiques allaient être libéralisées. Non seulement ce n’est pas le cas, mais elles font l’objet d’un contrôle distinct et plus rigoureux que celui des produits [2,3]. Ce contrôle est spécifiquement prévu par l’article 31 de la loi n° 2004-575 du 21 juin 2004 [4] pour la confiance en l’économie numérique (LCEN).
Définir les prestations de cryptologie, utilisant les réseaux sans fil, susceptibles d’être contrôlées
L’article 29, alinéa 2 de la LCEN tente de définir la prestation de cryptologie. Il s’agit des « opérations visant à la mise en œuvre pour le compte d’autrui de moyens de cryptologie ». Une prestation contrôlée est spécialement définie par le décret n° 2001-272 du 30 mars 2001 pris pour l’application de l’article 1316-4 du Code civil et relatif à la signature électronique : elle consiste à émettre des certificats électroniques de signature électronique qualifiés pour permettre d’apposer des signatures présumées fiables sur des documents électroniques. Hors ce cas de figure, une prestation de cryptologie contrôlée consiste en l’opération suivante : le prestataire se voit remettre par son client des données claires. Il les chiffre pour le compte de son client et les conserves, ou les remet aux destinataires que le client lui a indiqués. La définition de la prestation de cryptologie reste large et on peut se demander quelles prestations fournies sur les réseaux sans fil impliquent la cryptographie et pourraient être réglementées.
La première prestation qui vient à l’esprit concerne les réseaux de téléphonie sans mobiles. L’utilisateur appellant, confie des données claires, que l’opérateur va chiffrer et remettre à l’appelé qui est le destinataire indiqué par l’appellant. Mais le décret n° 2007-663 du 2 mai 2007 annexe 1 catégorie 15 et 4 prévoit que les prestations mettant en œuvre des téléphones mobiles sont exemptées de contrôle. On peut se demander si les prestations d’accès aux réseaux sans fil en utilisant une infrastructure à base de produits répondant aux normes 802.11x pourraient faire l’objet de la déclaration prévue par l’article 31 de la LCEN.
Le cas d’espèce concerne aussi bien les entreprises qui déploient des réseaux sans fil en recourant à des prestataires externes que les opérateurs de télécommunications qui installent des hot spot dans des lieux publics. L’annexe 1 catégorie 15 du décret 2007-663 n’exempte pas expressément les prestations mettant en œuvre ces matériels.Pour autant, le contrôle ne doit pas toucher une prestation qui se limite à fournir et mettre en service un moyen de cryptologie (en l’occurrence les bornes d’accès et routeurs) ou à en assurer la maintenance et l’administration. Ce type de prestation relèverait de la simple mise à disposition. Or la fourniture de produits réseaux basés uniquement sur les normes 802.11 a, b ou g est dispensée de déclaration par l’annexe 1 catégorie 11 du décret 2007-663. De plus, les usagers ne font qu’utiliser ces réseaux pour accéder à Internet, à l’intranet de leur entreprise ou à leur courrier électronique. Et l’article 30 I de la LCEN dispose précisément que l’utilisation de moyen de cryptologie est libre. En conséquence, les prestations qui mettent simplement en œuvre des produits réseaux aux normes 802.11x ne seront pas soumis à déclaration.
En revanche, une prestation de fourniture de certificats électroniques par des réseaux sans fil, sur carte à puce ou sur carte RFID relèvera de l’article 31 de la LCEN et devra être déclarée. Dans ce cas le réseau sans fil sera le vecteur et cette prestation devra être déclarée en raison de son objet et pas seulement à cause du vecteur qu’elle utilise.Cependant si le prestataire choisi ce mode de distribution il doit s’acquitter de la déclaration préalable.
Modalités de déclaration de prestations de cryptologie
Le décret n°2007-663 du 2 mai 2007 et l’arrêté du 25 mai 2007 [4] organisent la procédure de déclaration des prestations de cryptologie. Le déclarant doit envoyer son dossier à la direction centrale de la sécurité des systèmes d’information (DCSSI) deux mois avant de commencer sa prestation. Le dossier à envoyer, décrit à l’annexe II (DP) de l’arrêté du 25 mai 2007, se compose d’une partie administrative et d’une partie technique et est téléchargeable sur le site de la DCSSI [5]. En plus du dossier administratif, des éléments techniques doivent être décrits dans la déclaration de prestation :
les services offerts aux utilisateurs de la prestation ;
les fonctions cryptologiques mises en œuvre par le prestataire ;
les locaux utilisés pour mettre en œuvre la prestation ;
le matériel et des logiciels informatiques et notamment des moyens de cryptologie utilisés par le prestataire ;
les systèmes de protection physique et de contrôle d’accès aux locaux et aux systèmes informatiques du prestataire ;
lorsque la prestation consiste en la gestion de clés cryptographiques ou de certificats électroniques au profit des utilisateurs :
la procédure de génération des clés et des certificats ;
la procédure de distribution et de remise des clés et des certificats aux utilisateurs ;
les mesures techniques et organisationnelles mises en œuvre pour la protection et la conservation des clés ;
la procédure de recouvrement des clés (uniquement pour le service de confidentialité) ;
les références des moyens de cryptologie mis en œuvre par les utilisateurs de la prestation lorsque ces moyens sont spécifiquement conçus pour fonctionner avec les clés ou les certificats délivrés par ce prestataire.
La DCSSI enregistre et donne un numéro au dossier. S’il est complet, elle peut délivrer une attestation confirmant au prestataire déclarant qu’il s’est acquitté de son obligation de déclaration. A défaut, le silence de la DCSSI durant deux mois (articles 5 et 8, alinéa 1 du décret du 2 mai 2007) délivre le prestataire déclarant de son obligation déclarative. Si le dossier est incomplet, la DCSSI dispose d’un délai de deux mois (article 8, alinéa 1 du décret) pour inviter le déclarant à fournir les pièces complémentaires. Tant que le dossier de déclaration est incomplet, le déclarant ne peut pas commencer à fournir sa prestation. Une fois la réponse reçue par la DCSSI, celle-ci peut faire une nouvelle demande dans un délai de deux mois, délivrer l’attestation, ou bien conserver le silence pendant deux mois. Dans ces deux derniers cas, la déclaration est considérée comme complète et la fourniture de la prestation peut commencer.
Sanctions
L’article 13 du décret du 2 mai 2007 prévoit que la fourniture de prestation sans déclaration préalable est punie d’une contravention de cinquième classe, soit 1 500 euros d’amende. Ces infractions peuvent se cumuler, ainsi le fait de fournir plusieurs prestations multipliera l’infraction. En revanche, seule la jurisprudence pourra dire si le fait de fournir la même prestation à plusieurs clients est susceptible de multiplier la contravention. Enfin, seule la fourniture de prestation est soumise a déclaration. L’importation, les transferts intracommunautaires et les exportations de prestations de cryptologie ne sont pas réglementés.
Nicolas Magnin, Juriste spécialiste de la Sécurité des Systèmes d’Informations
Pour aller plus loin
[1] Cf lettre Réseaux sans fil n° 12, Editions Techniques de l’Ingénieur, (Mars-avril 2008)
[2] http://www.ssi.gouv.fr
[3] MAGNIN N. – Réglementation en matière de cryptologie, Editions Techniques de l’Ingénieur, base documentaire Sécurité des systèmes d’information, H 5060 traité (2008).
[4] http://www.legifrance.gouv.fr pour consulter les textes de la LCEN, du décret n° 2007-663 et de l’arrêté du 25 mai 2007.
[5] http://www.ssi.gouv.fr/fr/reglementation/dossier.html
La première journée était consacrée à la problématique et aux enjeux de la confiance. Les orateurs ont souligné que la confiance n’est pas la sécurité. Elle doit être définie en fonction des contextes d’application particuliers et des usages (J.M. Seigneur – Université de Genève) avec toutes les précautions contre les abus connus des systèmes de réputation. Les orateurs ont montré que la confiance est une variable critique dans des domaines extrêmement variés : certification de la sécurité, respect de la vie privée, vote électronique, gestion des droits numériques, composants cryptographiques embarqués, et même interopérabilité des systèmes OTAN. Dès cette première journée, plusieurs problèmes concrets directement liés à la confiance ont été décrits. Concernant les données personnelles de santé (G. Trouessin – OPPIDA SUD) les personnes n’ont en pratique pas le choix de refuser la collecte et le traitement ; dès lors, la question de la qualité de l’anonymisation est critique. Concernant la sécurité multiniveaux (D. Boucart – CELAR), la séparation physique complète des niveaux de sécurité est de moins en moins pratique avec des appareils de plus en plus communicants ; mais quelle confiance accorder aux composants permettant un multiniveau mutualisé ? Quid des canaux cachés par exemple dans un simple boîtier KVM ?À l’issue de cette première journée, l’informatique de confiance apparaissait clairement comme une condition nécessaire à la continuation de toute activité informatique sensée. Citons M. Sadler : Should we trust trusted computing ? There doesn’t seem to be an alternative…La deuxième journée et le début de la troisième étaient consacrés aux technologies en lien avec la confiance. C’est la question de la confiance dans le matériel qui a été la plus abondamment traitée. Diverses présentations ont montré la portée des protections matérielles actuelles et à venir (M. Sadler – HP Labs, V. Kolesnikov – Bell Labs). Plusieurs panoramas et retours d’expérience ont souligné les interactions possibles entre plusieurs technologies liées au matériel : virtualisation (S. Gay – CELAR), composants cryptographiques en particulier le TPM (F. Remi, G. Guiheux – AMOSSYS), architectures sécurisées (G. Duc, R. Keryell – Télécom Bretagne). L’espoir est toujours d’élaborer une plate-forme informatique complète, dite de confiance. Quelques présentations ont évoqué les limites de la sécurité matérielle : citons notamment un retour sur des possibilités de piégeage des processeurs (L. Duflot – DCSSI) et l’insertion d’un cheval de Troie dans certaines cartes à puce (J.L. Lanet – XLIM). Sur ce dernier point, il est à noter que ce travail a été réalisé par des étudiants, avec toute la mise en pratique d’une attaque évoquée mais non réalisée par K. Hyppönen. L’attaque ne concerne pas les cartes les plus récentes et nécessite la possession de clés de chargement ce qui n’est heureusement pas une situation courante. Néanmoins, elle montre bien comment certains mécanismes internes de protection peuvent être contournés, en particulier le firewall entre applications et dans certains cas la vérification de bytecode.Si la confiance dans le matériel était un point essentiel, d’autres aspects importants ont également été traités. Citons en particulier la confiance dans les transactions (J.C. Paillès – Orange Labs), dans les protocoles distribués (C. Burgod – XLIM) dans les communications sans contact (F. Vacherand – CEA-LETI) et dans le logiciel avec la question des preuves formelles de propriétés de sécurité (F. Pessaux – UPMC).Cette deuxième journée n’a bien évidemment pas épuisé tous les aspects techniques d’un domaine aussi vaste. Un point a été évoqué par plusieurs orateurs et reste aujourd’hui sans réponse : comment satisfaire le besoin de confiance dans les systèmes tout en faisant face à l’augmentation de leur complexité (par exemple un milliard de portes pour un microprocesseur).Le troisième et dernier jour était consacré aux applications nécessitant de la confiance. Le cas de la gestion des droits numériques a été abordé (E. Diehl – Thomson). Ici, la question de la confiance est économique avant même d’être technique : comment faire confiance à une solution de sécurité dont le concepteur n’est pas pénalisé en cas de défaillance ? Puis les machines à voter et le vote automatisé ont été intensément traités avec deux points de vue complémentaires : tout d’abord le constat extrêmement factuel de l’insuffisance des solutions en place (C. Enguehard – Université de Nantes LINA, en photo), puis l’affirmation pragmatique que la sécurité doit prévaloir sur toute autre raison de déployer une solution de vote automatisée (F. Chabaud – DCSSI). De nouvelles règles de conception des machines à voter ont été présentées, avec notamment pour objectif une meilleure transparence des opérations de vote et de dépouillement. Le nombre des questions et le niveau des réponses ont montré l’intérêt du public et le caractère non-négociable de la confiance dans ce domaine.La conférence CESAR est organisée annuellement sous l’impulsion de la Délégation Générale pour l’Armement, avec un comité de programme indépendant et en fonction du thème retenu. Le thème de CESAR 2009 sera annoncé prochainement sur le site de la conférence : http://www.cesar-conference.frOlivier Heen, INRIA Rennes – Bretagne Atlantique
Face au nombre croissant d’e-mails reçus chaque jour par les entreprises, l’archivage des courriers électroniques s’impose. Mais combien d’organisations le font réllement en France et comment ? L’enquête réalisée entre janvier et février 2009 par Markess International auprès de 210 responsables d’organisations privées et publiques livre quelques éléments de réponse.Premier constat : finalement, encore très peu d’entreprises et d’administrations françaises ont mis en place de telles procédures. En effet, seules 14% d’entre elles archivent déjà tout ou partie de leurs courriers électroniques, les meilleurs élèves étant les banques, les assurances et les organisations ayant déjà archivé d’autres contenus électroniques. Un chiffre auquel vient s’ajouter quelques 8% de sociétés qui déclarent être en cours de déploiement de telles solutions.Toutefois, si ce chiffre peut paraître faible, la prise de conscience est bien réelle. Près d’un tiers des responsables d’organisations interrogées par Markess International, en particulier dans l’industrie et les administrations publiques, déclarent avoir des projets en ce sens. Pour 22% d’entre elles, ils se concrétiseront d’ici 2011, les 10% restant, prévoyant des délais plus longs.Cet archivage répond pour plus de la moitié des organisations à trois types de motivations.La première est d’ordre économique. Il s’agit pour l’essentiel de réduire les coûts de stockage induits par l’augmentation du nombre d’e-mails et d’augmenter la productivité d’une recherche. Ces projets sont souvent initiés par les directions informatiques.La deuxième répond à des contraintes réglementaires (telles que SOX – loi Sarbanes-Oxley -, Bâle 2, etc.). Ces textes obligent en effet certaines entreprises à conserver des e-mails et leurs pièces jointes (factures, etc.) en cas de contrôle externe. Ce sont alors les directions des ressources humaines ou la direction des affaires financières qui sont à l’origine de ces projets.Enfin, la troisième est d’ordre probatoire. L’archivage est alors utilisé de manière préventive pour se protéger en cas de litige.
La méthode OSSTMM a pour objectif de mettre en place un ensemble de tests systématiques, cadré dans une démarche automatisable. Attention toutefois… car elle ne doit pas s‘apparenter à un simple test de vulnérabilités. Elle doit prendre en compte le contexte de l’entreprise et un maximum de biens dans un périmètre de test homogène et cohérent. Elle donnera en résultat une tendance et un indicateur récurrent quant à la dérive éventuelle de la sécurité du périmètre audité. C’est cette approche que promeut l’Institute for Security and Open Methodologies (ISECOM), qui est l’institut développant la méthode OSSTMM (Open Source Security Testing Methodology Manual).
Cette méthode visait à l’origine, (notamment en version 2.2 apparue en 2001) à définir une approche formelle plus scientifique et structurée du test technique de sécurité. Toutefois cette version 2.2 était insuffisamment cadrée. Elle ne permettait pas d’avoir une vision claire de la surface d’attaque, mais proposait déjà des indicateurs de niveau de risques : les RAV (Risk Assessment values). La version 2.2 définit des métriques de sécurité basés sur une quantification du risque. Cela introduit une polémique sur la capacité à appliquer des valeurs empiriques à un risque sans prendre en considération la probabilité de réalisation ni valoriser l’impact sur le bien.
OSSTMM version 3 : un recadrage nécessaire
OSSTMM 3 revient sur la définition des RAV ainsi que sur l’exhaustivité des métriques qui doivent pouvoir couvrir tous les biens d’un périmètre et quantifier aussi bien les évènements de faible importance que les évènements les plus connus. Les RAV sont à présent des mesures de la surface d’attaque plutôt que des mesures de risques. L’affectation de poids est considérée comme facteur de biais de l’analyse ; tout comme la quantification arbitraire de vulnérabilités découvertes par des outils automatiques ne tenant pas compte du contexte de la machine ou du système testé. Le RAV ne correspond pas à un une photo instantanée du système audité mais prend son sens par la récurrence avec laquelle les tests sont menés. Afin de limiter le biais introduit par la technicité et l’expertise du testeur, la méthodologie permet de guider le testeur et d’éviter une dérive trop « imaginative » et pouvant donc biaiser la tendance.
Enfin, le rapport est constitué de métriques indiquant une mesure de l’écart avec une sécurité jugée parfaite et mesurée selon les critères OSSTMM. Pour ISECOM, un rapport doit être simple, concis et pertinent afin d’assurer qu’il sera lu. Ce dernier, une fois « anonymisé », peut être soumis à ISECOM, qui vérifie que la démarche a été respectée et alors apposer sa certification.
La démarche commence par la méthode de vente, l’entreprise prestataire doit respecter une certaine éthique, ne pas avoir un discours alarmiste ni survendre le consultant… Un mandat précis est établi entre l’entreprise et le testeur et une procédure est en place pour informer le client en cas de test pouvant causer des dégâts sur le système audité. Enfin, le rapport est dépourvu de passion et doit se contenter d’être factuel. Ces points ne sont pas réservés à la vente d’un audit OSSTMM. Un spécialiste des tests de sécurité et des tests d’intrusion proposera la même approche.
Le principe est de tester la sécurité par un processus itératif et discret dans un environnement stochastique. L’auditeur devra choisir des techniques de tests homogènes (boîte blanche, grise, test en aveugle…) et garder ces techniques à chaque itération afin de pouvoir comparer les résultats et les éventuelles déviations.
Une démarche structurée et pragmatique
L’analyse du périmètre regroupe les cibles à auditer ainsi que la définition de la posture qui constitue le cadre légal, normatif, réglementaire régissant la cible.
Les cibles seront testées par des canaux, c’est-à-dire des types de tests regroupés en modules. Un vecteur est le sens avec lequel le test sera effectué. Depuis l’extérieur vers l’intérieur de la zone cible par exemple. Ensuite, la réalisation de l’audit est ordonnée par canal.
Ces canaux sont regroupés en trois catégories : la sécurité des communications (COMSEC), la sécurité physique (PHYSEC) la sécurité spectrale (SPECSEC). Ces trois canaux d’interaction sont adressés sur cinq domaines logiques qui représentent les technologies ou ressources disponibles : la sécurité physique, les réseaux de données, les réseaux de télécommunication, les facteurs personnels et humains, les communications sans fils.
Pour chaque canal on va distinguer 17 modules de tests regroupés en quatre phases d’audit qui reprennent le contexte, la vérification des contrôles en place, la gestion des informations et le déroulement des contrôles interactifs.
En sortie des tests techniques, certains résultats peuvent être quantifiés, d’autres non. On définit donc un condensat basé sur les calculs de la sécurité opérationnelle, des contrôles, des limitations.
Le calcul des RAV
Le calcul des RAV se base en premier lieu sur le calcul du OPSEC (Operational security). Ce métrique mesure la visibilité du périmètre cible, les possibles émanations voulues ou non. Il détermine également la confiance, les interactions non authentifiées entre les éléments du périmètre (par exemple l’accès aux interfaces de paramétrage d’un serveur d’application sans authentification). Enfin la mesure des accès évalue la capacité à accéder à ces cibles, par exemple les ports ouverts sur une machine. Les calculs de « visibilité », « accès » et « confiance » définissent la quantité d’exposition dans le périmètre audité.
Le calcul des contrôles
Ces contrôles protègent le périmètre dont l’exposition a été mesurée par le calcul de l’OPSEC.
La méthode identifie 10 types de contrôles. Certains sont classiques tels que les contrôles de l’authentification, de la confidentialité, de la non répudiation, ou encore de l’intégrité et de la continuité du service. D’autres contrôles sont formalisés tels que :
« Privacy » : visant à garantir la protection d’une donnée relative à la vie privée d’un client par exemple ;
Dédommagement « indemnification » : mise en place de protection visant à garantir une indemnisation en cas d’intrusion ou d’activité malveillante sur les systèmes ;
Sûreté : comportement des mécanismes de sécurité en cas de défaillance pour continuer à protéger les interactions avec le périmètre ;
Continuité : capacité du processus à continuer ses interactions même en cas de défaillance d’un composant ;
Alarme : notification efficace en cas de dysfonctionnement d’un contrôle.
Le calcul des contrôles consiste à mesurer le nombre d’opérations couvertes par des contrôles. À noter qu’OSSTMM définit le postulat que « dix contrôles permettent d’annuler un OPSEC » ;
Le pourcentage restant non couvert sera soumis au calcul des limitations
Les limitations sont regroupées en vulnérabilités, faiblesses, expositions et anomalies. Une faiblesse est un défaut qui va diminuer ou anéantir l’efficacité d’un contrôle. Elle peut ne pas être quantifiable. Une exposition est une faille augmentant la visibilité, comme la divulgation d’information dans un forum par exemple. Enfin, la notion d’anomalie décrit un comportement d’un système ou d’un élément audité qui est inattendue mais qui ne remet pas en cause la sécurité de la cible testée.
La synthèse de ces trois indicateurs fournit l’indice de « sécurité actuelle ». Dans ce calcul, le logarithme décimal est utilisé pour réduire les nombres manipulés. Les concepteurs partent du principe que l’humain préfère travailler avec des pourcentages et des nombres de taille raisonnable. L’indicateur est un pourcentage décrivant l’équilibre entre les opérations et les contrôles en tenant compte de leur limitation. Il indique donc un état actuel de la protection du périmètre audité. Il permet de donner une grande tendance, une vision macroscopique de sa sécurité en focalisant sur les ensembles présentant le plus grand nombre de trous de sécurité (porosité) ainsi que les contrôles les plus faibles.
En conclusion, OSSTMM semble être un outil intéressant de mesure récurrente de la tendance de la sécurité d’un périmètre. Pragmatique, la méthode permet avec un peu d’entraînement de rationaliser les coûts des tests de sécurité. Toutefois, idéalement, la démarche devrait être complétée par des tests d’intrusion pratiqués ponctuellement par un professionnel reconnu. Il mettra en œuvre une démarche imaginative, à l’état de l’art des chemins d’attaques connus, exploitera le contexte, les erreurs trouvées à un instant donné pour s’engouffrer dans le système. Enfin, les résultats de tels tests pourront contribuer à un rajustement de la démarche systématique OSSTMM.
Michael Chochois, ALMERYS, Orange Business Service
L’Union européenne veut, d’ici 2020, porter à 10% la part des énergies renouvelables dans le transport. Aujourd’hui, en France, les carburants sont déjà constitués à hauteur de 5,75 % de biocarburants. En doublant cette proportion pour le SP95-E10, la France prend une longueur d’avance sur l’UE.Dès le mois d’avril donc, ce nouveau carburant sera disponible à la pompe. Il sera composé de sans plomb additionné d’éthanol, pour un mélange proche du SP 95 actuellement disponible. Issu de la distillation de betteraves ou de céréales, l’éthanol constitue une énergie totalement renouvelable. Pour des raisons techniques, seules les voitures immatriculées après 2000, soit environ 60% du parc automobile, pourront consommer ce nouveau carburant. L’objectif est donc double.Il s’agit d’une part pour la France d’accroître son indépendance énergétique, tout en se conformant à la ligne de conduite fixée par Bruxelles. En effet, le secteur du transport, principal utilisateur du pétrole, est le premier émetteur de gaz carbonique. Avions, voitures, camions rejettent un tiers du CO2 émis en Europe. Pis, leur part de pollution devrait augmenter beaucoup plus que pour les autres activités si rien n’est fait d’ici à une dizaine d’années.
Le SP95-E10 proposé à un prix compétitifConfronté à cette problématique, l’UE a pris le parti de miser sur les biocarburants, bien que ces derniers ne fassent pas encore l’unanimité, même chez les écologistes. En effet, les défenseurs de l’environnement accusent les biocarburants de bien des maux, mais le principal grief réside dans le fait que les surfaces cultivées sont immenses en rapport avec la quantité de biocarburant produit. Quoi qu’il en soit, selon les experts, les émissions de gaz carbonique des biocarburants sont inférieures de 60% à celles de l’essence. Toutefois, le coût de revient de l’éthanol est bien supérieur à celui de l’essence depuis que le pétrole a retrouvé un prix raisonnable.Pour rendre le SP95-E10 plus attractif, le gouvernement a donc décidé d’exonérer partiellement de la taxe intérieure de consommation, l’éthanol contenu dans le carburant. Cette défiscalisation qui s’élève à 21 centimes par litre, devrait aboutir à un coup à la pompe compris entre 1,13 et 1,15 euro, alors que le prix du SP 95 est actuellement d’environ 1,16 euro.
La pression sur les distributeursDe l’autre côté, une pénalité dissuasive, mise en place pour les distributeurs n’atteignant pas les seuils fixés pour les biocarburants, accompagne la démarche du gouvernement. Ainsi, si en 2010, la part de biocarburant contenue dans le total des carburants vendus est loin des 7% exigés, une amende de plusieurs centimes d’euros par litre leur sera infligée au titre de la taxe sur les activités polluantes (TGAP). Ce montant est loin d’être négligeable : très peu de distributeurs affichent une marge nette supérieure à 1 centime d’euro par litre de carburant vendu.Selon les responsables de l’Union Française des Industries Pétrolières (UFIP), 75% des stations-service seront équipées d’ici la fin de l’année. Un des obstacles à la mise en place du SP95-E10 à la pompe demeure l’alimentation des dépôts. Le processus est rendu difficile, la transition de l’éthanol par les pipelines étant interdite.Reste à savoir désormais si ce nouveau carburant aura la faveur des consommateurs, qui malgré une volonté croissante de se tourner vers des produits de plus en plus écologiques, restent avant tout attachés au prix de vente des carburants. Un prix de vente qui, selon Thierry Forien, directeur adjoint de Siplec, filiale du groupe Leclerc gérant la distribution du fuel, pourrait se stabiliser à une valeur inférieure de 1 à 3 centimes par rapport au prix du SP95.
La recherche se structure en France autour des technologies pour le calcul haute performance. Début mars, le CEA, le Grand Equipement National de Calcul Intensif (GENCI), Intel et l’Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) ont annoncé la création d’un laboratoire commun autour des futures technologies pour le calcul haute performance.Baptisé Ex@tec, ce projet nourrit plusieurs ambitions. La première est de constituer un lieu de collaboration pluridisciplinaires pendant cinq ans sur le modèle d’un partenariat public-privé entre des grands industriels, des agences publiques, des organismes de recherche et des universités. Ceci afin de prendre en compte les besoins et les contraintes des applications industrielles dans la conception des futurs composants des systèmes exaflopiques.La seconde a trait à sa mission. Il s’agit d’identifier et de relever les défis logiciels et matériels des technologies du calcul Exascale, à savoir les futurs systèmes qui permettront de produire un milliard de milliard d’opérations par seconde. L’objectif étant, in fine, de développer les super calculateurs de l’après TERA (programme du CEA qui aboutira en 2010 à la première machine pétaflopique européenne) qui permettront de résoudre des problèmes de recherche, industriels et sociétaux dans des domaines aussi variés que les nouvelles énergies, les nanotechnologies, la conception de véhicules du futur, la prédiction de risques naturels ou encore, les évolutions du climat.Enfin, ce projet s’inscrit dans une perspective de coopération européenne non seulement avec des instituts de recherche mais aussi avec de grandes entreprises européennes.
La nécessité du développement et du soutien des écotechnologies avait été plébiscitée lors du Grenelle de l’Environnement. L’appel à projet, doté par le fond de compétitivité des entreprises d’une enveloppe de 30 millions d’euros, soutiendra des projets pilotes et de démonstration concernant les écotechnologies et des services innovants dont la mise sur le marché oscille entre 2 et 5 ans. La démarche associe la délégation générale de la compétitivité, de l’industrie et des services (DGCIS), l’OSEO et l’ADEME, qui instruiront les projets éligibles dans le cadre de leurs procédures habituelles.Dans le détail, les projets industriels expérimentaux de développement et d’innovation concernés seront d’ordre collaboratif (grandes entreprises, PME, entreprises de taille intermédiaire, centres de recherche et laboratoires publics) et individuel (PME ou entreprises de moins de 2.000 salariés).
Un soutien appuyé aux PMEEn cohérence avec les résultats de l’étude portant sur les éco-industries, financée par le ministère de l’Economie, de l’Industrie et de l’Emploi, 5 axes thématiques ont été retenus :
surveiller et tracer, pour assurer une surveillance de l’environnement et une meilleure traçabilité dans la chaîne environnementale ;
réagir, pour mieux traiter les environnements pollués ;
transformer, pour à terme passer d’une économie des déchets à une économie des matières premières réutilisées ;
prévenir, pour assurer une production industrielle plus durable ;
préserver les milieux naturels et la biodiversité.
Enfin, cet appel à projet est destiné plus particulièrement aux industries qui développent et conçoivent des produits, des procédés et des services innovants. Il est à noter qu’une attention plus particulière sera accordée aux projets proposés par les PME.En savoir plus sur les projets Eco-industriesOutre la DGCIS, l’OSEO et l’ADEME, l’appel à projets concernant les écotechnologies lancé par le gouvernement sera coordonné avec le nouvel appel à projets du programme Ecotech de l’Agence Nationale pour la Recherche. Lancé concomitamment, il cible les mêmes thématiques que l’appel à projet Eco-industries, mais accompagnera des projets à des stades de recherche situés plus en amont.
Réalisé par le Conseil général des technologies de l’information et le Conseil général de l’environnement et du développement durable, ce rapport a été remis aux ministres concernés le mercredi 11 mars 2009. Et là, surprise : l’utilisation des TIC diminuerait « la facture écologique ».Mais de quoi parle-t-on lorsque l’on évoque les TIC ? Elles concernent des objet aussi divers que la téléphonie mobile, l’Internet, les satellites, le GPS ou encore la télévision. Ses applications vont du simple coup de fil, jusqu’à l’agriculture de précision.
GPS contre GES ?Dans la bataille livrée contre l’effet de serre, les TIC font pencher la balance, selon le ministre de l’Écologie Jean-Louis Borloo. « Elles ont un apport positif pour la réduction des émissions de gaz à effet de serre, en permettant d’économiser 1 à 4 fois leurs propres émissions sur le reste de l’économie », lit-on dans Actualité News Environnement, qui relaie les propos du ministre. Le site indique également que des secteurs impulsés par les TIC présentent des atouts pour l’environnement : « le télétravail et la réunion à distance, l’optimisation des transports et des déplacements, l’e-commerce, la dématérialisation des procédures administratives et la minimisation des consommations énergétiques des bâtiments ». Le rapport préconise d’ailleurs de les développer. Mais attention toutefois à la facture d’électricité ! Si les TIC atteignent 13% de la consommation française, dans les années à venir, elles devraient représenter 20 % du total. Les deux ministères sont donc invités à travailler ensemble sur quelques points : diminuer la consommation des équipements, allonger la durée de vie des téléphones mobiles, réutiliser la chaleur des centres de données…
L’Europe n’est pas en resteLa France et l’Union Européenne sont d’ailleurs sur la même longueur d’onde puisque la Commission européenne a annoncé qu’elle prendrait des mesures pour favoriser l’emploi des TIC. Selon elle, leur généralisation devrait permettre « une réduction allant jusqu’à 15% des émissions totales de carbone en Europe d’ici à 2020 », selon ITR Manager. Au vu des habitudes de la Commission européenne, cela devrait passer sous la forme classique d’une directive contraignante, c’est-à-dire avec application obligatoire par les États membres sur une certaine période. Pour l’environnement, technologisons-nous ? La Commission n’a pour l’instant publié qu’un communiqué encourageant les États membres et les entreprises à intensifier leurs collaborations dans ce secteur.
Et le recyclage dans tout ça ?Reste à savoir si ces mesures concerneront l’ensemble du cycle de vie des TIC. Car, si l’on en croit le magazine Géo, il y a encore quelques lacunes sur le recyclage des composants des TIC. « Seulement un quart des 8,7 millions de tonnes de déchets électroniques produits annuellement en Europe ( dont 1,7 million en France ) sont recyclés sur place », et ce, malgré l’adoption il y a 6 ans d’une directive européenne Déchets Électriques et Équipements Électroniques (DEEE), qui impose le recyclage aux professionnels « de façon aussi écologique que possible » et prévoit des campagnes de communication pour les consommateurs. Aujourd’hui, entre 14 et 16 kg de déchets électroniques et électroménagers sont produits par un citoyen français chaque année, mais seulement 4 kg sont recyclés, conformément aux objectifs européens en la matière. Des mesures qui risquent peut-être d’être modifiées avec le développement des TIC. Sources :Technologies de l’information et de la communication : impact sur l’environnement, Pierre Melchiot, Actualité News Environnement, 11 mars 2009.La Commission Européenne encourage l’utilisation des TIC pour une Europe plus verte, ITR Manager, jeudi 12 mars.Comment faire recycler ses déchets électroniques?, Blaise Mao, Géo, 5 mars 2009.Revue de presse de la Mission d’animation des agrobiosciences du 17 mars 2009.
Il y a plusieurs années que Toyota et EDF travaillaient en France et en Grande-Bretagne sur l’expérimentation de véhicules hybrides rechargeables (VHR). Les nouveaux tests seront conduits pendant trois ans sur une centaine de VHR de nouvelle génération, en l’occurrence des modèles Prius « à brancher », équipés de batteries lithium-ion, qui seront proposés en location à des entreprises et des partenaires institutionnels de la région de Strasbourg.
Un VHR (en anglais PHEV – plug-in hybrid electric vehicle) est un véhicule hybride avec des batteries qui peuvent être rechargées en les connectant par l’intermédiaire d’une prise à une source d’électricité. Il a donc les caractéristiques à la fois des hybrides classiques (double motorisation carburant + électricité) et des véhicules tout électriques qui se connectent à une source extérieure. La plupart des modèles existants sont des voitures particulières, mais il y a quelques modèles de véhicules utilitaires.
D’autre part, se développe progressivement le concept de V2G (vehicle-to-grid). La connection d’un véhicule à un réseau électrique était traditionnellement considérée comme le moyen d’alimenter le véhicule. Le V2G est vu comme la possibilité d’un échange dans les deux sens. Le véhicule alimenté par du carburant pétrolier ou une pile à combustible peut à son tour alimenter le réseau électrique. L’université du Delaware a figuré de façon graphique cette interaction d’un nouveau type : voir le schéma
Cette alliance du véhicule VHR et du concept V2G a été étudiée de près par Benjamin Sovacool. Voici son analyse :
« Un VHR utilise la technologie des véhicules électriques hybrides mais il dispose d’une plus grosse batterie et d’un chargeur enfichable. La plupart des prototypes de VHR contiennent une batterie capable d’alimenter en électricité seule le véhicule pour un trajet compris entre 30 et 100 km. Une voiture dotée de la technologie V2G, parfois appelée énergie mobile, se branche avec le système public d’électricité existant.
Une communication à double sens
Un VHR doit posséder trois éléments pour opérer dans une configuration de V2G : une connexion au réseau électrique, un outil de contrôle et/ou de communication qui permette aux opérateurs du réseau d’accéder à la batterie et un compteur de précision à bord du véhicule pour détecter les flux d’énergie. Ce système intelligent de communication à double-sens entre le réseau électrique et le véhicule permet une meilleure gestion des ressources électriques par le service public et donne aux propriétaires la possibilité de gagner de l’argent en revendant de l’énergie au réseau.
Le concept de V2G suscite un large soutien car il offre des avantages aussi bien pour le système de transport que pour le système d’électricité. Il pourrait aider le premier en réduisant la consommation de pétrole, en soutenant l’économie, en renforçant la sécurité nationale et en améliorant l’environnement naturel. Et le second, en créant une nouvelle opportunité pour l’électricité, idéalement aux moments dans la journée où la demande reste faible. De plus, il pourrait augmenter les capacités du réseau électrique aux heures de pointe sans que l’industrie publique ait besoin de construire de nouvelles centrales électriques ».
Des bénéfices majeurs pour l’environnement
Benjamin Sovacool fournit également dans son étude une série de chiffres relatifs au marché américain, avec leurs sources. Il apparaît ainsi que le Département américain des transports estime qu’environ 60 % des véhicules roulent moins de 50 km par jour. Un VHR doté d’une batterie d’une capacité de 50 km réduirait à zéro la consommation de pétrole pour ces courts trajets et d’autant la consommation globale de carburant.
Les chiffres s’additionnent rapidement : une transition au V2G pourrait potentiellement se substituer à l’équivalent de 6,5 millions de barils de pétrole par jour, soit plus de 50% des importations totales de pétrole du pays.
Une transition aux VHR/V2G pourrait également offrir des bénéfices majeurs pour l’environnement. Selon une étude du Pacific Northwest National Laboratory, une transition de la moitié des véhicules en circulation en 2007 aux VHR aurait réduit de 27% les émissions globales de gaz à effet de serre. En utilisant un compteur dit de « well-to-wheels » (« du puits à la roue »), qui inclue l’énergie et les gaz à effet de serre correspondant à la fabrication du véhicule ainsi que son cycle de carburant, l’Electric Power Research Institute (EPRI) estime qu’un véhicule électrique hybride émet en moyenne 22% de dioxyde de carbone de moins qu’un véhicule conventionnel.
Des économies d’énergie et d’argent
Les consommateurs peuvent aussi tirer avantage de l’utilisation de VHR car, sur une même distance, l’électricité est moins chère que l’essence. Sur la base des prix américains, l’EPRI conclut que les VHR économiseraient 600 dollars par an à un conducteur américain moyen.
Benjamin Sovacool ajoute que les VHR ont également l’opportunité de ne pas être seulement des véhicules, mais également des ressources mobiles et indépendantes capables de réguler le flux énergétique et de pallier aux besoins de l’infrastructure publique d’électricité. Etant donné que les véhicules ne circulent en moyenne aux Etats-Unis que 4 à 5% de la journée, et qu’au moins 90% des véhicules personnels sont immobilisés (dans des parkings ou des garages) même aux heures de pointe, les ressources potentielles des VHR V2G sont considérables : en plaçant simplement une batterie de 15 kW dans chacune des 191 millions de voitures qui existent dans le pays, la capacité équivalente en électricité serait de 2.865 GW si tous les véhicules se mettaient à fournir simultanément le réseau.
Ceci représente plus du double de la capacité totale des générateurs électriques aux Etats-Unis. Le système public d’électricité tirerait profit de l’application du V2G, pas seulement en fournissant de l’électricité aux nouveaux véhicules, mais également en se fournissant en électricité auprès d’eux. Le premier bénéfice provient du fait que de nombreuses ressources publiques sont sous-utilisées. La raison en est que les responsables ont traditionnellement (et de façon logique) conçu les infrastructures de façon à répondre à la plus forte demande. En dehors de ces pics, le système est capable de générer et de délivrer une partie substantielle de l’énergie nécessaire à l’alimentation des véhicules, pour un prix bien plus faible que l’essence.
Environ 8 à 12% du pic de la demande en électricité se produit entre seulement 80 et 100 heures par an. Etant donné que la majeure partie des capacités de production restent inutilisées, l’alimentation de 84% des voitures, camions légers et 4×4 électriques aux Etats-Unis pourrait être supportée par les infrastructures électriques existantes, si elle avait lieu pendant les heures creuses.
Des obstacles persistent
Benjamin Sovacool conclut son étude en relevant toutefois les obstacles à une transition aux VHR/V2G : les réticences des clients face aux nouvelles technologies, le coût initial important et la difficulté à percevoir les économies à long terme, et les réticences de ceux qui sont partie prenante dans les infrastructures existantes. « Des résistances plus sérieuses peuvent provenir des fabricants d’automobiles, des compagnies pétrolières et des entreprises de réparation qui ont englouti des milliards de dollars dans des infrastructures adaptées aux véhicules conventionnels. On peut s’attendre à un lobbying de la part de ces puissantes industries auprès des politiques et du public pour maintenir le statu quo », écrit-il.
Sur le Web:
Duvall, M. 2002. «Comparing the Benefits and Impacts of Hybrid Electric Vehicle Options for Compact Sedan and Sport Utility Vehicles,» Electric Power Research Institute Final Report 1006892, July, – Cliquez icipuis aller sur comparing the benefits…
Kintner-Meyer, Michael, Kevin Schneider, and Robert Pratt. 2007. «Impacts Assessment of Plug-In Hybrid Vehicles on Electric Utilities and Regional U.S. Power Grids Part 1: Technical Analysis,» Pacific Northwest National Laboratory Report
Scott, Michael J., Michael Kintner-Meyer, Douglas B. Elliott, William M. Warwick. 2007. «Impacts Assessment of Plug-In Hybrid Vehicles on Electric Utilities and Regional U.S. Power Grids Part 2: Economic Assessment,» Pacific Northwest National Laboratory Report – Voir le site de Pacific Northwest National Laboratory
Sovacool, Benjamin K. and Richard F. Hirsh. 2009. «Beyond Batteries: An Examination of the Benefits and Barriers to Plug-in Hybrid Electric Vehicles (PHEVs) and a Vehicle-to-Grid (V2G) Transition,» Energy Policy 37(3) (March, 2009), pp. 1095-1103 – Cliquez ici
Tomic, Jasna and Willet Kempton. 2007. «Using Fleets of Electric-Drive Vehicles for Grid Support.» Journal of Power Sources 168, pp. 459-468 – Cliquez ici .
En savoir plus
Le Docteur Benjamin Sovacool travaille actuellement au « Centre on Asia and Globalization » à l’Université nationale de Singapour. Assistant à l’Institut polytechnique de Virginie, il a conduit de nombreuses missions pour des institutions américaines sur les technologies renouvelables et a publié « Energy and American Society-Thirteen Myths ».
L’introduction obligatoire des lampes, ou plutôt des ampoules, à basse consommation pose au moins deux questions. Est-ce une bonne affaire pour le consommateur ? Est-ce une bonne affaire pour l’environnement ? Oui, disent en choeur l’ADEME, les écologistes, les associations de consommateurs, et le Ministère du développement durable, au double motif qu’une lampe à basse consommation consomme 5 fois moins d’électricité (à éclairage égal) et dure 8 fois plus longtemps (en heures d’éclairage) qu’une lampe à filament, ce qui compenserait largement un prix environ 5 fois plus élevé. Mais est-ce bien sûr ?
Changements introduits Tout cela peut et doit se mesurer. Il faut préalablement faire deux détours. Le premier concerne la durée de vie en années des deux types d’ampoules. La consommation d’électricité pour l’éclairage est de 5,5 milliards de kWh. Il y a, selon l’ADEME, en moyenne 22 ampoules par résidence, ce qui, en comptant 30 millions de résidences, fait environ 700 millions de lampes. Chacune consomme donc 8 kWh par an. Les ampoules à filament d’une puissance moyenne de 50 W sont donc en moyenne allumées 160 heures par an. Comme elles ont une durée de fonctionnement estimée, selon l’ADEME, à 1.000 heures, elles sont changées en moyenne tous les 6,2 ans. Les ampoules à basse consommation qui ont une durée de fonctionnement de 8.000 heures seront changées tous les 50 ans. Le second détour – qui est le point crucial de l’analyse – concerne la chaleur qui accompagne l’éclairage. Même l’ADEME reconnait que 95% de l’électricité consommée par une lampe à filament sert à produire de la chaleur (5% seulement de l’éclairage) ; pour une lampe à basse consommation, les proportions sont inversées. C’est 30% de l’électricité qui produit de la chaleur (70% de l’éclairage). En divisant la consommation d’électricité par cinq – de 5,5 à 1,1 milliards de kWh par an – les lampes à basse consommation réduisent donc aussi la chaleur produite par les lampes.C’est parfait l’été (ou pour l’éclairage des rues qui ne nous intéresse pas ici). Mais fâcheux l’hiver, lorsqu’on se chauffe en même temps que l’on s’éclaire. Faisons l’hypothèse prudente que l’éclairage a pour les deux tiers lieu en hiver. Il faut, pour garder constante la température des résidences, compenser cette perte de chauffage. Supposons que ce chauffage compensatoire est obtenu pour 32% par du chauffage électrique, pour 20% par du chauffage au fioul et pour 48% par du chauffage au gaz : ces proportions reflètent la distribution des résidences française par source de chauffage. On calcule aisément les changements entraînés par le remplacement des ampoules dans les consommations d’électricité (- 3,3 milliards de kWh, ou GkWh), de fioul (+ 0,65 GkWh) et de gaz (+ 1,56 GkWh). Le tableau 1 précise le calcul.Tableau 1 – Changements introduits par le remplacement des lampes à filaments par des lampes à basse consommation ( (en milliards de kWh par an) hghg
Filament
LBCa
Différence
Consommation électricité
5,5
1,1
– 4,4
dont éclairage
0,275
0,77
+ 0,495
dont chauffage
5,225
0,33
– 4,895
Compensation chauffage perdu (3,26b)
consommation électricité (32 %)
–
– 1,04
+ 1,04
consommation fioul (20 %)
–
– 0,65
+ 0,65
consommation gaz (48 %)
– 1,56
+ 1,56
Consommation totale (éclairage + chauffage compensatoire)
électricité
5,5
2,14
– 3,36
fioul
–
– 0,65
+ 0,65
gaz
–
– 1,56
+ 1,56
Notes : a = Lampes à Basse Consommation ; b 4,895*2/3
Impact sur les consommateursEn août 2008, les prix pour 100 kWh (en pouvoir calorifique inférieur), étaient de 8,9 euros pour le fioul, de 8,5 euros pour le gaz, et de 6,7-11,1 euros pour l’électricité double tarif [1]. En retenant 9 euros pour l’électricité, on voit que le changement d’ampoules engendre chaque année une diminution des factures d’électricité de 300 millions d’euros ainsi qu’une augmentation des factures de gaz et de fioul de 190 millions d’euros. Au total, les consommateurs réalisent une économie de 110 millions d’euros par an.Pour réaliser cette économie, les consommateurs vont acheter 700 millions d’ampoules à basse consommation, à un prix unitaire d’environ 10 euros, soit débourser en 2009 environ 7 milliards d’euros. Chaque année, ils économiseront 110 millions d’euros. En outre, tous les sept ans, ils économiseront le remplacement de 700 millions de lampes à filament au prix unitaire de 2 euros, soit 1.400 millions d’euros. Font-ils une bonne affaire ? Hélas non. La valeur actualisée à 4% des gains annuels sur 30 ans s’élève à 5 milliards. C’est 2 milliards de moins que leur investissement initial.On peut s’interroger sur la valeur de certains des paramètres de cette analyse. Les prix du fioul et du gaz en août 2008 (les prix actuellement disponibles sur le site de la DGEMP) étaient élevés, plus élevés que les prix d’aujourd’hui. Mais qui peut garantir que nous ne connaîtrons pas des prix aussi élevés ou plus élevés dans vingt ans ? Des prix plus élevés augmenteraient la perte des consommateurs. Le taux d’actualisation utilisé, 4%, est-il le bon ? Il est plutôt bas : avec un taux de 6%, la perte des consommateurs passe à 3 milliards d’euros.Il semble difficile d’imaginer des valeurs des paramètres qui égaliseraient la somme actualisée des gains pour les consommateurs au coût de l’investissement qui a leur être demandé. De plus, le calcul est fait avec des ampoules à basse consommation qui durent 50 ans : c’est ignorer une obsolescence possible, pour ne pas dire probable. Déjà, les LED, cette troisième génération de lampes, encore plus économes en électricité, commencent à apparaître sur le marché. Si les lampes à basse consommation devaient être remplacées au bout de 15 ou 20 ans, la perte pour le consommateur du changement obligatoire d’aujourd’hui serait plus considérable encore.
Impacts sur l’environnementLe changement d’ampoules imposé par l’Union européenne, et repris en fanfare dans le Grenelle de l’Environnement, est donc une mauvaise affaire pour le pouvoir d’achat des consommateurs. Est-il au moins une bonne affaire pour l’environnement ? Certains s’inquiètent des radiations nocives que pourraient émettre les ampoules à basse consommation durant leur vie, et du mercure qu’elles pourraient rejeter après leur mort. Passant outre le principe de précaution, ignorons ces dangers mal établis, et concentrons-nous sur les rejets de CO2. Vont-ils diminuer du fait du changement de lampes ?Le tableau 2 apporte une réponse négative. La consommation énergétique va bien diminuer du fait du changement de lampes (de 21%), mais cette diminution s’accompagne d’un changement de structure : d’un glissement des sources peu polluantes en CO2 (électricité nucléaire et hydraulique) vers des sources beaucoup plus polluantes (gaz et fioul). Au total, les rejets de CO2 vont plus que doubler, passant de trois à six millions de tonnes par an. Il faudrait sans doute aussi prendre en compte le fait que la production des lampes à basse consommation, plus complexe et plus coûteuse que celle des lampes ordinaires, rejette à peu près certainement davantage de CO2.Tableau 2 – Rejets de CO2 avec lampes à filament et avec lampes à basse consommation
Electricité
Gaz
Fioul
Total
Rejets de CO2/kWha (g)
55
206
271
–
Lampes à filament
Consommation (GkWh) (b)
5,50
–
–
5,50
Rejets CO2 (MT)
3,02
–
–
3,02
Lampes à basse consommation
Consommation (GkWh) (b)
2,14
1,56
0,65
4,35
Rejets CO2 (MT)
1,18
3,21
1,76
6,36
Sources: ADEME. 2007. Guide des facteurs d’émissions. Annexe 3, tableau 189 ; (b)Tableau 1 ci-dessus.On peut combiner l’impact sur les consommateurs et l’impact sur le CO2. A 30 euros la tonne de CO2, le coût de l’augmentation des rejets de CO2 est de 100 millions d’euros par an, voisin du bénéfice de 110 millions estimé plus haut. Le prix de la tonne de CO2 doit croître rapidement. Il dépassera bientôt 33 euros par tonne. A ce prix là, le coût en CO2 est plus élevé que l’économie de consommation, et un coût net annuel s’ajoute à l’investissement initial de 7 milliards.
ConclusionLe changement obligatoire d’ampoules est donc une fausse bonne idée. Les activistes qui l’ont imposé, et qui en sont fiers, ont ignoré ou caché ce que tous ceux qui ont approché leur main d’une lampe allumée savent bien : que l’éclairage électrique produit aussi de la chaleur. Lorsque l’on prend ce phénomène en compte, le changement de lampes n’est pas favorable aux consommateurs : les économies annuelles qu’il engendre ne compensent pas l’investissement initial de 7 milliards d’euros qu’il nécessite. Le changement est franchement défavorable à l’environnement. Il implique 3 milliards de kWh d’électricité en moins, et 2 milliards de kWh de fioul et de gaz brûlés en plus. Mais comme le kWh de carburant fossile rejette quatre ou cinq fois plus de CO2 que le kWh électrique français principalement nucléaire, cela signifie un doublement des rejets de CO2. Protéger le pouvoir d’achat des consommateurs et limiter les rejets de CO2, c’est bien ; faire plaisir aux idéologues, c’est mieux.Notes : [1] Selon le « dépliant sur les prix de l’énergie » de la DGEMP (Direction Générale de l’Energie et des Matières Premières) à la rubrique « habitat ». En savoir plusAprès des études à HEC et à Harvard, Rémy Prud’homme est devenu Professeur d’économie. Il a longtemps enseigné à l’Institut d’Urbanisme de Paris, à l’Université Paris XII (où il est maintenant professeur émérite), et à de nombreuses reprises au MIT. Il a aussi été directeur-adjoint de l’environnement à l’OCDE. Par Rémy Prud’homme. Lire son blog
Les piles à combustibles sont aujourd’hui souvent à l’étude pour les applications commerciales grand public, comme l’automobile. Cependant, même après plusieurs décennies, elles n’ont pas encore percé, à part pour les applications spatiales. La raison principale de ceci est le prix de fabrication, si l’on veut une pile suffisamment efficace pour être utilisée en remplacement du pétrole dans les voitures. En effet, le meilleur catalyseur connu aujourd’hui pour les réactions chimiques entre l’oxygène et l’hydrogène, à la base du fonctionnement de la plupart des piles à combustible, est le platine. Or son prix reste un obstacle majeur.Les nanofils produits par James Li et son étudiant en doctorat Jianglan Shui sont suffisamment longs pour se maintenir ensemble sans support particulier et peuvent facilement être utilisés pour les électrodes des piles à combustible. Grâce à un procédé d’électro-rotation (procédé utilisé pour créer des fibres longues et très fines), Li et Shui ont été capables de créer les nanofils de platine qui sont des milliers de fois plus longs que n’importe quels nanofils créés jusqu’à maintenant.Dans de nombreuses recherches, on utilise des nanoparticules de platine comme catalyseur sur les électrodes des piles, l’idée étant que la surface de catalyseur active sur les électrodes de carbone soit significativement augmentée, permettant ainsi une efficacité plus importante. Le professeur Li met toutefois en évidence deux problèmes liés à l’utilisation des nanoparticules de platine. D’abord, lors du procédé de dépôt des nanoparticules, par diffusion de surface sur les électrodes, elles peuvent former des amas ce qui réduit la surface active. Le deuxième problème est que les nanoparticules ne peuvent pas se maintenir en place par elles mêmes, et donc elles doivent être accrochées aux électrodes, ce qui est difficile avec les électrodes de carbone. Certaines nanoparticules sont alors perdues car elles ne sont pas suffisamment bien accrochées. Ces deux problèmes sont résolus grâce à l’utilisation de ces très longs nanofils. Alors pourquoi ne pas les avoir utilisés plus tôt ? Car les nanofils de platine sont très durs à fabriquer. Les paramètres affectant la morphologie des fils est complexe. Et lorsqu’ils ne sont pas suffisamment longs, ils se comportent comme les nanoparticules. Un des challenges clés que les chercheurs ont réussi à surmonter est de réduire la formation de grains le long des nanofils. Si les nanofils ne sont pas bien finis, ils ressemblent plus à une enfilade de perles qu’à un fil lisse et peuvent se casser facilement. De plus, considérant le prix du platine, il est important de ne pas perdre des nanofils lors de la fabrication de la pile. L’objectif de l’équipe est de fabriquer des nanofils avec encore moins de défauts et encore plus longs. Alors, les chercheurs pourront fabriquer une pile à combustible pour prouver l’efficacité de ce nouveau type de catalyseur.Par Alban de Lassus,rédacteur du bulletin électronique de l’ambassade de France aux Etats-Unis.Origine: BE Etats-Unis numéro 157 (13/03/2009) – Ambassadede France aux Etats-Unis / ADIT
Pour gérer les risques auxquels une entreprise est confronté, des systèmes de management normalisés existent dans les domaines de la qualité (ISO 9001), de l’environnement (ISO 14001), de la santé et de la sécurité au travail (OHSAS 18001) ou encore de la responsabilité sociétale (SA 8000). Pourtant, si ce sont des outils méthodologiques éprouvés pour maîtriser les risques propres à ces domaines, le liant nécessaire au management global des risques n’est pas abordé.
Comment une entreprise peut-elle structurer son management des risques au sens large ? Faut-il superposer un système de management des risques aux autres systèmes de management en place ? Comment gérer l’aléa et l’incertitude propres à l’évaluation des risques ? Comment définir et mettre en place un processus de management des risques ?
Ces questions, et bien d’autres, seront abordées sous forme d’exposés et de retours d’expérience lors du colloque organisé par le Centre National des Risques Industriels le 9 avril prochain.
Date et lieu
Le jeudi 9 avril 2009 au CNRI, 88, boulevard Lahitolle, 18020 Bourges
Information
Manifestation gratuite, mais inscription obligatoire au 02 48 48 40 28 ou cnri@cnri.fr Pour télécharger le programme cliquez ici.