Body Area Networks : les réseaux à la conquête du corps humain

Après la frénésie dont les réseaux « ad-hoc » (ou sans infrastructure) ont fait l’objet ces dernières années, il est désormais temps de passer aux applications concrètes. Profitant de la miniaturisation des équipements, les réseaux de capteurs ont ouvert la voie. Les applications sont nombreuses, dans des domaines allant de l’embarqué au militaire ou à la domotique. D’un point de vue technique, Zigbee semble être le grand gagnant, fort de ses couches basses IEEE 802.15.4.Un nouveau domaine applicatif s’est fait jour récemment introduisant de nouveaux enjeux : le domaine médical. Les « Body Area Networks » (BAN, terme apparu en 2006) ont montré les limites de la généricité de Zigbee et suscité la création du groupe IEEE 802.15.6, berceau d’une réflexion de standardisation.

Les applications

Ce groupe a défini une classification des besoins selon deux axes : le type d’application et le débit. Le contrôle du diabète ou la délivrance de médicament sont des applications médicales à bas débit. Celles nécessitant l’envoi de signaux de type audio, électro-encéphalogramme, suivi de grossesse sont à débit moyen alors que le haut débit correspond à l’envoi de vidéo (endoscopie). Dans le domaine non médical, citons le fitness, l’utilisation de casques audio ou vidéo.Mais au delà du débit, ce sont également des besoins en fiabilité, sécurité et confidentialité qui distinguent ces applications.Les communications médicalesGrâce à une standardisation des protocoles, les BAN devraient permettre des économies d’échelle sur les capteurs, prothèses et autres équipements miniaturisés ; ils en faciliteront l’intéropérabilité. Le suivi de diverses constantes vitales (températures, fréquence cardiaque, taux d’insuline, …) pourrait être centralisé afin d’assurer un suivi efficace de pathologies diverses (alzheimer, diabète, suivi post-opératoire). Au delà du suivi, la communication avec des équipements actifs (pacemaker, pompe à insuline, …) peut permettre de maintenir l’état du patient.Les communications intra-corporelles ne sont pas les seules à prendre en compte, car un tel suivi médical ne saurait être longtemps autonome. Une passerelle (de type Smartphone) permettra de relayer les informations vers/depuis d’autres réseaux tels des services d’urgence. Ces communications n’entrent pas dans le cadre des BAN mais en conditionnent l’organisation.

Les communications non médicales

Le groupe 802.15.6 s’est également intéressé à des applications moins dramatiques, voire plus farfelues.Un premier exemple est le suivi d’activités sportives, par le biais de capteurs de rythme cardiaque, de température, … dont les informations seraient centralisées sur un lecteur MP3 pour une analyse en temps réel ou en différé.Le marché des jeux vidéo est un autre domaine dans lequel l’utilisation de casques audio ou vidéo, de capteurs de mouvements et autres dispositifs profitera pleinement de la standardisation des BAN. De nombreux jeux pourraient être développés autour du fitness, des arts martiaux, de la chorégraphie, …De façon plus anecdotique, des services de partage d’émotion, fondés sur des capteurs (de conductivité de la peau, d’ECG, …) pourraient permettre aux réseaux sociaux de s’enrichir d’informations personnelles collectées en temps réel (humeur). Ils permettraient également la mise en place de « mood based messaging » pour envoyer automatiquement à des proches des messages liées à l’humeur, la joie, la déprime.

Les besoins applicatifs

Comme nous venons de le voir, l’éventail applicatif est vaste. Il en est de même du spectre des besoins en qualité de service. Si un débit de 1 Kbit/s peut suffire à un suivi de taux d’oxygène, un électrocardiogramme nécessitera jusqu’à 500 Kbit/s et une endoscopie 1 Mbit/s. L’échelle des délais est large également, de 20 à 200 ms pour des applications de suivi médical jusqu’à quelques minutes pour les réseaux sociaux.La fiabilité doit être élevée pour presque toutes les applications hormis celles de confort. De la même façon, des taux d’erreur binaire très faibles sont nécessaires aux applications médicales. Des études doivent donc être mises en œuvre pour caractériser ce canal de transmission particulier qu’est le corps humain et proposer des techniques de codage adaptées.La sécurité et la confidentialité, enfin, doivent faire l’objet d’une attention particulière étant donnés les enjeux. De récents travaux montrant la fragilité d’équipements de type pacemakers face à des attaques, le sujet n’est pas à prendre à la légère.

L’heure des premiers choix

Des solutions techniques existent déjà : Bluetooth pour les jeux, les réseaux sociaux, et Zigbee pour le médical.L’intérêt des BAN sera d’améliorer les applications dans le premier cas et dans le second de dépasser les faiblesses de Zigbee. Ce dernier n’a pas convaincu le groupe 802.15.6 du fait de sa faible qualité de service (couche MAC faible, délai fort et variable), et de l’absence de différenciation de services. De plus, le cahier des charges des BAN est plus contraignant ; il introduit la nécessité de coexister avec les réseaux existants, ainsi que des considérations de type reprogrammation, ergonomie et calibrage à distance. En conclusion, le standard Zigbee est incomplet.Des premiers choix technologiques se dessinent d’ores et déjà :

  • Bande de fréquences médicales (402-405 MHz) pour les communications intracorporelles et bande ISM pour les communications extracorporelles ;
  • Antennes électriques pour les communications extracorporelles et antennes magnétiques pour les communications intracorporelles ;
  • Utilisation de la technique Ultra Wide Band (faible puissance sur un large spectre, donc faible portée et peu d’interférences) pour les communications extracorporelles.

Le travail du groupe IEEE 802.15.6 n’en est qu’à ses balbutiements en terme de choix technologiques. Les solutions apportées devront être particulièrement ambitieuses en raison de la diversité des besoins applicatifs.Trouver des protocoles fiables et peu consommateurs d’énergie reste un défi largement ouvert. L’enjeu est important car les besoins sont forts et le domaine vital. De plus, les débouchés commerciaux réels et le spectre des applications ne pourront que s’étoffer au fur et à mesure des développements technologiques.Par Nazim Agoulmine, professeur à l’Université d’Evry Val de Seine, laboratoire Lip6-CNRS

Routage dynamique dans les réseaux de capteurs : on progresse !

Après avoir consolidé les besoins et contraintes caractéristiques du déploiement de réseaux de capteurs sans fil dans des environnements domestiques, urbains et industriels, les travaux du groupe ROLL (routing over low power and lossy networks) de l’Internet Engineering Task Force (IETF) portent désormais sur la spécification d’un protocole de routage dynamique capable de prendre en compte ces besoins et contraintes exprimés sous forme de métriques qui font également l’objet d’un travail de caractérisation.

Vers l’établissement dynamique d’arbres de collecte
Les arbres de collecte [1] sont l’une des composantes fondamentales des applications exploitant les ressources de réseaux de capteurs. Ces arbres sont utilisés pour acheminer les données collectées par des capteurs vers un ensemble de contrôleurs qui vont ensuite les traiter et, le cas échéant, transmettre de nouvelles informations (commande, configuration) vers les capteurs en exploitant les mêmes structures arborescentes.Les discussions engagées au sein du groupe ROLL portent en particulier sur une contribution [2] qui propose un protocole capable d’établir et de maintenir dynamiquement de telles structures. L’algorithme utilisé est de type « distance vectorielle » et utilise un mécanisme de balisage pour transmettre de proche en proche les informations topologiques caractéristiques des arbres de collecte.La figure 1 ci-dessous décrit la manière dont un nœud N se raccorde à un arbre en fonction des balises qu’il a reçues de ses voisins.Le tableau suivant décrit le contenu des balises reçues par le noeud N et envoyées par ses voisins A, B et C :
Emetteur Contenu de la balise (extraits)
A  Arbre flottant Profondeur de l’arbre = 2
B  Arbre non flottant Profondeur de l’arbre = 2
C  Arbre non flottant Profondeur de l’arbre = 3
Tableau 1 : Exemples de contenus de balises.
La formation d’arbres de collecte s’appuie sur les principes suivants :
  • Le protocole localise le point de sortie le plus proche (e.g. le point d’accès au réseau Internet) sur la base des informations véhiculées dans des balises, dont le format correspond à une extension des messages RA (Router Advertisement) et RS (Router Solicitation) utilisés par le protocole de découverte de voisins pour IPv6 (« Neighbor Discovery for IPv6« , [3]). Cette extension permet de minimiser l’overhead introduit par la volumétrie du trafic caractéristique du protocole de routage.
  • Le protocole de routage permet en outre à chaque routeur de décider à quel arbre il va se rattacher selon les informations consignées dans les balises.
Un arbre est dit « non flottant » lorsqu’il est connecté à un backbone (e.g. l’un des routeurs du réseau de capteurs est raccordé au réseau Internet). La profondeur d’un arbre se définit par le nombre maximal de nœuds qui doivent être traversés pour atteindre la racine de l’arbre depuis n’importe quel nœud rattaché à l’arbre. Chaque nœud va donc déterminer la valeur de sa profondeur en fonction de la valeur de la profondeur du nœud parent auquel il est connecté (le nœud parent étant le nœud par lequel il peut atteindre la racine de l’arbre). Dans l’exemple de la figure 1, N va se raccorder sur le nœud B parce que (1) l’arbre est non flottant et (2) le niveau de profondeur est plus faible que celui du nœud C.Le principe de formation des arbres de collecte répond ainsi à trois lois fondamentales :
  1. Un nœud qui n’est pas rattaché à un arbre non flottant est la racine de son propre arbre (flottant), et la profondeur d’un tel arbre est de 1.
  2. Un nœud rattaché à un arbre peut se déplacer à n’importe quel moment pour se rapprocher de la racine de l’arbre, de façon à réduire la valeur de sa profondeur. Par contre, un nœud ne doit pas se déplacer de telle sorte que la valeur de sa profondeur augmente (i.e. qu’un nœud ne doit pas s’éloigner de la racine de l’arbre auquel il est rattaché).
  3. Un nœud peut se détacher de l’arbre de collecte auquel il est rattaché à n’importe quel moment pour se raccorder à un autre arbre de collecte. Une nouvelle greffe n’a de sens que lorsqu’elle améliore un ou plusieurs paramètres de connectivité (plus grande bande passante, plus faible profondeur, etc.), qui constituent donc autant de métriques susceptibles d’être prises en compte par le protocole de routage.

Quelles métriques de routage ?
Les réseaux de capteurs sans fil se distinguent en particulier par un nombre de composants pouvant atteindre plusieurs milliers d’unités qui disposent de faibles ressources énergétiques. Le calcul et la sélection de routes au sein de tels environnements doivent donc prendre en compte de telles contraintes. Celles-ci devront être exprimées sous la forme de métriques qui peuvent être classées en deux catégories :
  • Les métriques caractéristiques de l’état des nœuds du réseau ;
  • Les métriques caractéristiques de l’état des liens du réseau.
Le tableau 2 ci-dessous présente un résumé de l’inventaire actuel [4].
Métriques noeud
Ressource mémoire L’une des principales contraintes de nature à affecter la stabilité du routage dans un réseau de capteurs sans fil.
Ressource CPU Les applications actuelles des réseaux de capteurs indiquent une sollicitation moyenne du CPU de l’ordre de 10 %, tandis que la technologie embarquée est de plus en plus performante.
Energie résiduelle Lorsque la valeur de cette métrique est faible, le nœud ne devrait pas être pris en compte comme élément de routage, d’où la nécessité d’un routage à contraintes de nature à sélectionner des routes traversant des éléments capables de récupérer de l’énergie (alimentation par batterie solaire, par exemple) plutôt que des éléments qui ne fonctionnent que sur accus. Quitte à ce que les routes sélectionnées soient plus longues (en termes de nœuds traversés).
Etat de surcharge La surcharge d’un nœud est de nature à affecter le temps de convergence, ce qui peut se révéler incompatible avec certains trafics. La métrique correspondante pourrait être équivalente à l’utilisation du bit « overload » dans le protocole IS-IS [5].
Agrégat de données Lorsque les données d’une application donnée peuvent être agrégées afin de réduire le volume de trafic acheminé dans le réseau de capteurs, la durée de vie de certains éléments du réseau (ceux alimentés par accus, typiquement) peut ainsi être prolongée. De telles applications sont souvent caractérisées par des flux majoritairement unidirectionnels et prédictibles, tels que la collecte de données mesurant la pollution atmosphérique à heures fixes.
Métriques liens
Bande passante Exprimée en bits ou paquets par seconde, cette métrique doit refléter la bande passante effectivement disponible.
Latence Cette métrique va de pair avec la métrique « bande passante ».
Fiabilité Dans les réseaux de capteurs, la fiabilité des liens est souvent affectée par des phénomènes d’interférences. L’échelle de temps peut varier de quelques millisecondes à plusieurs jours selon la nature de l’interférence (e.g. intervention humaine) et la métrique peut être exprimée en termes de taux d’erreur paquet ou bit.
Couleur Métrique affectée de manière statique et susceptible de refléter une politique de routage différente selon le type de trafic, par exemple.
Tableau 2 : Métriques de routage pour les réseaux de capteurs.
Compte tenu de leur nature, la plupart des métriques décrites dans ce tableau nécessitent d’être mises à jour d’une manière dynamique, de façon à ce que les décisions de routage soient toujours adaptées.De façon à maîtriser l’impact de ces mises à jour sur la stabilité du routage (fréquence de diffusion des messages de mise à jour, notamment), le protocole de routage devra s’appuyer sur des algorithmes de calcul déclenchés selon des seuils multiples (reflétant la diversité des échelles de temps associées à chacune de ces métriques). En outre, la manipulation de plusieurs métriques impose de s’assurer de la cohérence des mécanismes de calcul de leurs valeurs.

Prochaines étapes
Le meeting IETF de juillet prochain sera l’occasion pour le groupe ROLL de soumettre une version consolidée de la spécification des métriques (avec publication du RFC dans la foulée), tandis que la spécification du protocole de routage devrait conduire à la publication du RFC correspondant dans le courant du premier semestre de l’année prochaine. Le chemin vers la standardisation est encore long, mais le travail bénéficie d’une collaboration active et efficace des principaux acteurs du marché (industriels, fournisseurs de services et opérateurs) !Par Christian Jacquenet, France Télécom ITNPS/NAD

Notes
[1] Levis, P., et al., « Collection Tree Protocol », http://www.tinyos.net/tinyos-2.x/doc/html/tep123.html, Février 2007.[2] Thubert P, et al., “LLN Routing Fundamentals”, draft-thubert-roll-fundamentals-01.txt, Work in Progress, Avril 2009.[3] Narten, T. et al., “Neighbor Discovery Protocol for IPv6”, RFC 4861, Septembre 2007.[4] Kim, M., et al. “Routing Metrics used for Path Calculation in Low Power and Lossy Networks”, draft-mjkim-roll-routing-metrics-03.txt, Work in Progress, Mars 2009.[5] Oran, D., et al., “OSI IS-IS Intra-Domain Routing Protocol”, RFC 1142, Février 1990.

La LTE prend de l’avance sur le Wimax mobile

Le nombre d’abonnés à un réseau mobile via la LTE (long term evolution) va connaître un véritable boom dans les prochaines années. Le cabinet d’études et de conseil Pyramid Research prévoit un taux annuel moyen de croissance de 404 % entre 2010 et 2014, pour atteindre les 136 millions d’abonnés fin 2014. Les autres normes de téléphonie mobile n’ont pas connu un tel essor, y compris la norme UMTS/HSPA (100 millions d’abonnés en six ans).La LTE est un projet mené par l’organisme de standardisation 3GPP visant à rédiger les normes techniques de la future quatrième génération en téléphonie mobile. Elle permet le transfert de données à très haut débit, avec une portée plus importante, un nombre d’appels par cellule supérieur (zone dans laquelle un émetteur de téléphonie mobile peut entrer en relation avec des terminaux) et une latence plus faible. En théorie, elle permet d’atteindre des débits de l’ordre de 50 Mbps en lien ascendant et de 100 Mbps en lien descendant, à partager entre les utilisateurs mobiles d’une même cellule.La LTE s’inscrit dans la continuité des réseaux 3G actuels et exploite principalement deux techniques :

  • l’OFDM (Orthogonal frequency division multiplexing), procédé de codage de signaux numériques déjà utilisé notamment pour l’ADSL et le Wi-Fi ;
  • le Mimo (Multiple inputs multiple outputs, littéralement « entrées multiples sorties multiples »), une technologie qui utilise plusieurs antennes au niveau de l’émetteur et du récepteur, alors que le Wi-Fi n’en utilise qu’une.
Pour les opérateurs, la LTE implique de modifier le cœur du réseau et les émetteurs radio. Il faut également développer des terminaux mobiles adaptés.

Aux Etats-Unis et en Suède
Dans la compétition avec le Wimax mobile pour la 4G, la LTE semble prendre l’avantage. Dans le monde, 27 opérateurs de téléphonie mobile se sont publiquement engagés à déployer la LTE, dont 12 comptent lancer une offre commerciale en 2010. Aux Etats-Unis, Verizon Wireless a déjà annoncé une mise en place d’une offre en 2010. La Suède vient de se doter d’un site commercial LTE installé par le constructeur Ericsson et l’opérateur TeliaSonera, dont la mise en service est prévue pour l’année prochaine. En France, l’Arcep (Autorité de régulation des communications électroniques et des postes) a lancé une consultation publique en mars dernier au sujet de l’attribution de deux fréquences :
  • la bande 2,6 GHz actuellement utilisée par le ministère de la Défense sera libérée être 2010 et 2012 ;
  • la bande 800 MHz utilisée par l’audiovisuel et l’armée sera libérée en décembre 2011.
Selon le calendrier de l’Arcep, les licences seront attribuées en 2010 pour une commercialisation en 2011.

Attention aux failles des protocoles de communication !

Revenons tout d’abord sur ces protocoles. La syntaxe et la sémantique des commandes permettant l’accès aux données sont généralement définies par une norme reconnue : l’ANSI SQL. Toutefois, d’autres aspects importants des interactions client/serveur ne sont pas définis, parmi lesquels la méthode de création d’une session client, la transmission des commandes d’un client à un serveur, la méthode de renvoi des données et des états au client, la structure des données renvoyées, la mise en œuvre de mécanismes tels que les curseurs, ou encore les déclarations préconfigurées et les transactions. Ces détails sont comblés par les technologies propres à chaque constructeur. Ces derniers intègrent généralement ces fonctions via une couche logicielle indépendante, dédiée au traitement des messages et pouvant être transportée par différents protocoles réseau, tels que SQL*NET (Oracle), TDS (Sybase), une version alternative de TDS (Microsoft), ou encore DRDA (IBM).

Quelles vulnérabilités pour quels risques ?

Récemment, certains chercheurs étudiant la sécurité des protocoles de communication de bases de données propriétaires ont mis en évidence certains types de vulnérabilités qui nécessitent des altérations (d’autres n’en ont pas besoin).

Le centre de recherche ADC d’Imperva a classé ces vulnérabilités en fonction du type de manipulation permettant de les exploiter :

  • Altération de la structure des messages ;
  • Altération de la taille des champs ;
  • Manipulation du contenu des champs ;
  • Altération de la séquence des messages.

Intéressons nous à chacune d’entre elles.

Vulnérabilités par altération de la structure des messages

La structure d’un message de protocole peut être décrite comme une liste de champs dans laquelle chaque champ se voit attribuer un rôle et un format spécifique. Les vulnérabilités par altération de la structure des messages attaquent le mécanisme d’analyse des messages et modifient généralement le contenu de la mémoire.

Les principales techniques d’altération classées dans cette catégorie agissent par suppression, ajout ou duplication des champs d’un message ou en combinant ces messages d’une manière inattendue. La vulnérabilité IBM DB2 rendue publique en septembre 2006 [1] constitue un exemple de ce type de vulnérabilité. Un des messages d’établissement de connexion contient un champ optionnel indiquant le nom de la base de données. Toutefois, lorsqu’un message est envoyé sans ce nom de base de données « optionnel », une exception « non gérée » est générée sur le serveur, ce qui rend la base de données inaccessible à tous les clients.

Manipulation de la taille des champs

Parfois, la taille des champs d’un message est déclarée de façon explicite à l’aide d’un autre champ dédié. La manipulation de la taille des champs peut être utilisée pour provoquer des attaques par débordement de tampon permettant l’exécution de code arbitraire. C’est ce qui se produit lorsque l’indicateur de longueur est capable d’indiquer des tailles plus importantes que celles réellement prises en charge par le logiciel serveur. Plusieurs exemples connus de ce type de vulnérabilité sont présentés sur les figures [2] et [3].

Un autre type de risque existe si le message comporte des indications de taille de champs redondantes et si la cohérence entre les tailles indiquées et les champs correspondants n’est pas contrôlée. Le message TDS « Hello » en donne un exemple (cf. figure 1). Dans ce cas, l’indicateur de taille d’un champ spécifique peut indiquer une taille supérieure à la taille totale du message. Cela vide le contenu des tampons mémoire vers la connexion réseau, exposant ainsi des informations confidentielles, voire des mots de passe (cf. figure 2).

original

Figure 1 : message TDS « Hello » (taille de champ plus importante que la taille totale du message)

original

Figure 2 : exemple de données de tampon vidées par le serveur et montrant les noms des utilisateurs connectés.

Manipulation du contenu des champs

La manipulation de contenu autorise différents types d’attaques, y compris les élévations de droits d’accès et les échappements d’audit. Une vulnérabilité Oracle SQL*NET révélée en janvier 2006 [4] fonctionnait par exploitation des messages d’authentification. Ce message inclut un certain nombre de champs, et notamment un champ AUTH_ALTER_SESSION. Ce champ est interprété comme une commande SQL par la base de données, une fois la connexion réussie dans le même contexte de sécurité que le processus d’authentification (plutôt que dans le contexte de sécurité de l’utilisateur). Cette faille permet l’exécution de pratiquement n’importe quelle commande sans aucun suivi d’audit. Un attaquant peut ainsi changer le contenu de cette commande à sa guise (par exemple, pour s’attribuer des droits d’accès administrateur).

Altération de la séquence des messages

Un « attaquant » peut émettre une séquence irrégulière de messages de protocole correctement constitués et rendre ainsi le serveur inaccessible. L’exploitation des vulnérabilités de ce type nécessite parfois des capacités élémentaires pour la création de scripts, mais elles peuvent parfois être exploitées sans aucune automatisation.

Nouveaux types d’attaques nécessitant de nouvelles solutions de protection

Il est impossible de garantir à 100 % l’efficacité des mesures de sécurité proactives, intégrées au niveau du serveur, car les failles de programmation existent et continueront d’exister. Les éditeurs de solutions de bases de données conseillent d’utiliser une protection réactive (application de correctifs). Toutefois, l’application de correctifs dans un environnement de bases de données est généralement lente. Les dispositifs classiques de détection et de prévention des intrusions (IDS/IPS) n’offrent qu’une protection partielle : ils ne permettent pas d’avoir une vision d’ensemble des protocoles utilisés par les serveurs de bases de données.

Une bonne solution de sécurité devrait être couplée avec d’autres méthodes de protection des bases de données. Une solution IDS/IPS dédiée aux bases de données doit connaître très précisément les protocoles de communication utilisés par le serveur de bases de données. Avantage associé : proposer une validation proactive des messages de protocole et tout message ou séquence de messages ne correspondant pas au comportement attendu peut être signalé ou supprimé. Une telle solution offre une protection réactive, basée sur les signatures, à même de détecter avec précision et de bloquer efficacement les attaques connues. Cette combinaison de solutions proactives et réactives offre le meilleur dispositif de sécurité contre ces nouveaux types d’attaques ciblant les bases de données.

Par Noa Bar Yosef, Security Researcher à l’ADC (Application Defense Center) d’Imperva et Amichai Shulman, co-founder & CTO Head of the Imperva ADC

Notes

[1] Détails de l’attaque DDOS BID 19586
[2] Vulnérabilité de débordement de tampon par écoute TNS sur Oracle 8i
[3] Vulnérabilité de débordement de tampon lors de l’authentification distante sur Microsoft SQL Server
[4] Note US CERT sur les vulnérabilités (VU#871756)

L’autre menace : les attaques par injections SQL

Une grande majorité des sites Web a recours à une base de données pour y stocker la structure du site, le contenu des pages et les informations confidentielles des utilisateurs. Les codes des pages Web se contentent d’interroger les bases de données et de mettre en forme les informations retournées pour les présenter aux internautes. Les bases contiennent à l’évidence des informations sensibles que personne ne laisserait consciemment en libre accès sur Internet. Le fait que les accès se fassent par l’intermédiaire de fichiers donne un faux sentiment de cloisonnement et de sécurité. Or, il est en fait relativement facile d’interagir plus ou moins directement à distance avec les bases de données, en exploitant des faiblesses de développement des pages servant d’interfaces avec Internet.

Revenons dans un premier temps sur le fonctionnement global de serveurs Web reposant sur une base de données.

Mode de fonctionnement normal

Dans le cas d’un fonctionnement courant, la visualisation d’une page Web, sur un site utilisant une base de données, se fait en quatre étapes :

  1. Les paramètres qualifiant la requête HTTP sont envoyés à une page du serveur. Ces paramètres peuvent être explicitement demandés à l’internaute par l’intermédiaire de formulaires ou être implicites dans des liens. Par exemple, un lien direct pour accéder à la section information d’un site pourrait être :
    « <a href= »index.php?page=info »>Page d’informations </a> » . Dans ce cas, le paramètre et sa valeur sont implicites (paramètre= « page », valeur= « info»).
  2. Les paramètres reçus sont utilisés pour construire une requête SQL (Structured Query Language ou langage de requête structuré) interprétée par la base. Par exemple, la valeur du paramètre page est utilisée dans la requête SQL suivante [1] : 
    « SELECT titre_page,contenu_page FROM table_page WHERE nom=page ». Ici, la variable page  vaut info ».
  3. La base de données traite la requête SQL et retourne les données trouvées. A ce niveau là, dans la majorité des cas, aucun traitement ni vérification ne sont faits, si ce n’est ceux liés à la structure de la base et gérés automatiquement par le moteur interne. Exemple : l’utilisateur (le serveur Web) doit avoir le droit d’accéder aux données.
  4. Le code du site qui est à l’origine de la requête récupère les données pour la mise en page et les envoie en réponse (HTTP). Par exemple, la page index.php récupère les informations titre_page et contenu_page et retourne le tout.

original

Dans ces conditions, comment opère une attaque par injection SQL ?

Attaque par injection

Au cours d’une tentative d’intrusion par injection SQL, le déroulement suit les même quatre étapes. Mais l’attaquant va influer sur le comportement de la base en modifiant les paramètres envoyés au serveur. Dans l’exemple suivant, le contenu de la page d’information est modifié en insérant un cadre HTML (iframe) pointant vers www.google.fr.

  1. La première étape consiste à tester des valeurs du paramètre page, le but étant in fine de faire exécuter des commandes illégitimes à la base de données. Il peut s’agir de :
    ‘info; update table_page set contenu_page= »<iframe src=<</i>www.google.fr<i>> » where nom=info’
  2. Le code de la page récupérant cette valeur construit la requête en remplaçant le paramètre par sa valeur. Cela donne : «  SELECT titre_page,contenu_page FROM table_page WHERE nom=info; UPDATE table_page SET contenu_page= »<iframe src=<</i>www.google.fr<i>> » WHERE nom=info ». Elle est ensuite envoyée dans son intégralité à la base.
  3. La base reçoit une commande contenant deux requêtes séparées par un point virgule. Elle les exécute donc l’une après l’autre. La première est normale. La seconde « UPDATE» le champ page_contenu dans la table table_page pour la ligne identifiée par le nom info. Le champ est remplacé par le texte « &nbs<iframe src=<</i>www.google.fr<i>>»
  4. La réponse envoyée au navigateur reste la même.

À ce niveau le contenu des informations de la base de données a été compromis. Le page d’information a été changée et les navigateurs des internautes chargeront un cadre contenant la page de www.google.fr en lieu et place des informations légitimes. Ce cadre aurait tout aussi bien pu pointer vers une page contenant du code malveillant.

original

Les injections SQL massives : un phénomène en recrudescence

Depuis le début de l’année 2008, on assiste à une recrudescence d’attaques massives par injection SQL, dont la presse spécialisée s’est faite l’écho. Ces attaques reposent sur deux processus permettant de compromettre la quasi intégralité des données au sein de nombreux sites. La première passe par l’utilisation d’outils qui interrogent les moteurs de recherche populaires pour trouver des adresses de pages indexées contenant une chaîne de caractères caractéristique d’une vulnérabilité. (exemple pour un composant Joomla! en juillet 2008 : index.php?option=com_n-forms&form_id=). L’attaquant n’a qu’à préciser la faille à utiliser et le texte à insérer pour que l’outil compromette un maximum de sites.

L’autre est au niveau de la requête SQL. Plutôt que de viser nominativement des champs d’une table, ce qui nécessite de connaître la structure de la base, il est possible de cibler un type de données. Au niveau de la requête, l’attaquant va modifier tous les champs texte de toutes les tables de toutes les bases auxquelles il a accès via le serveur Web, et cela en une seule commande.

Comment les détecter ?

Les injections se faisant via des requêtes HTTP, elles sont identifiables dans les journaux du serveur Web bien qu’elles soient le plus souvent obscurcies. Par exemple, nous retrouvons dans les journaux le code MsSQL cité plus haut sous la forme (les données « castées » ont été tronquées) :

2008-12-24 23:59:59 192.168.0.2 POST
/site/page_vulnerable.asp?section=acces;DECLARE%20@S%20NVARCHAR(4000);SET%20@S=CAST(0x4400450043004C00410052004500[…]7200%20AS%20NVARCHAR(4000));EXEC(@S);– 80 – 192.168.0.3 Mozilla/3.0+(compatible;+Indy+Library) 200 0 0 40126 2476

Nous voyons qu’un tableau de 4.000 caractères est créé (DECLARE @S NVARCHAR(4000)) sur lequel la requête est castée (SET @S=CAST(0x4400[…]7200 ). Ce tableau est ensuite exécuté (EXEC(@S)). La commande qui nous intéresse apparaît sous la forme d’une suite de nombres et n’est donc pas directement lisible, cependant la présence de « CAST » et « EXEC » est souvent synonyme de tentative d’injection.

Les actions sur les bases de données peuvent être journalisées. Un grand nombre de modifications en un temps très court peut laisser présager une injection SQL de ce type.

Ces attaques modifient les pages lues par les internautes. En surveiller quelques unes peut permettre de détecter une compromission. Cette surveillance peut être faite sur les pages retournées par le serveur Web ou directement sur les champs de « contenu » de la base.

Des tests d’intégrité peuvent être mis en place localement sur le serveur afin de déceler toute modification des configurations d’applications ou toute modification de certaines tables de données. Ces mêmes tests peuvent également être effectués à distance par le biais de requêtes automatisées (utilitaire wget par exemple).

Comment s’en protéger

S’il est bon de détecter les compromissions, il vaut bien mieux les prévenir. Nous avons vu dans les exemples précédents que les attaques reposaient majoritairement sur des faiblesses liées à la façon dont sont traités les paramètres entrants. Pour éviter cela, les valeurs autorisées en entrée doivent être strictement limitées au nécessaire et il faut contrôler la présence de caractères interdits.

Il faut s’assurer que des contrôles sémantiques et syntaxiques sont effectués sur chaque variable échangée. Ces contrôles doivent être faits sur le serveur et compléter éventuellement par des codes dynamiques interprétés sur les navigateurs des visiteurs. Des outils existent pour contrôler partiellement ces points de développement. Ainsi un champ « âge » ne doit accepter que des entiers compris entre 1 et 130 dans un encodage défini.

Avant de transmettre la requête à la base, il faut vérifier qu’elle ne contient pas de caractères spéciaux qui permettraient l’exécution des commandes supplémentaires, comme par exemple « ; », guillements ou autres apostrophes

Pour pouvoir modifier la base, l’utilisateur « serveur Web » doit avoir les droits adéquats. Ils doivent donc être le plus restrictifs possibles. Dans le cas d’un annuaire consultable en ligne, mais mis à jour via une procédure interne, il n’y a aucune raison que l’utilisateur «serveur » puisse modifier la base. Les droits accordés aux utilisateurs de la base doivent être cohérents.

Enfin, la mise en place d’une passerelle applicative – serveur mandataire inverse (reverse proxy) – peut compléter cette architecture de protection. Elle contrôlerait les requêtes HTTP à la recherche de chaînes de caractères pouvant caractériser une tentative d’injection. Par exemple la présence de CAST et EXEC dans la même requête.

Par Fabien Pouget et Benoit Moreau (CERTA)

Note

[1] Les exemples sont basés sur les SGBDR MySQL ou MsSQL et le langage PHP mais les principes restent valables et sont facilement transposables aux autres logiciels.

Pour aller plus loin

– Le bloc-notes de Microsoft sur les incidents constatés en mars et juin 2008 et notamment :

http://blogs.technet.com/neilcar/archive/2008/03/14/anatomy-of-sql-injection-incident.aspx

http://blogs.technet.com/neilcar/archive/2008/03/15/anatomy-of-sql-injection-incident-part-2-meat.aspx

http://blogs.technet.com/msdn/msrc/archive/2008/06/24/rise-in-sql-injection-attacks-exploiting-unverified-user-data-input.aspx

– Le bulletins d’actualité du CERTA traitant le sujet :

http://www.certa.ssi.gouv.fr/site/CERTA-2008-ACT-003.pdf

http://www.certa.ssi.gouv.fr/site/CERTA-2008-ACT-012.pdf

 http://www.certa.ssi.gouv.fr/site/CERTA-2008-ACT-016.pdf

 http://www.certa.ssi.gouv.fr/site/CERTA-2008-ACT-019.pdf

http://www.certa.ssi.gouv.fr/site/CERTA-2008-ACT-027.pdf

 http://www.certa.ssi.gouv.fr/site/CERTA-2008-ACT-030.pdf

– Le bloc-notes de Internet Storm Center ISC SANS du 16 avril 2008 :

http://isc.sans.org/diary.html?storyid=4294

– Les bases de connaissances Microsoft publiées le 24 juin 2008 :

http://support.microsoft.com/?kbid=954476

http://www.microsoft.com/technet/security/advisory/954462.mspx

– Article de Microsoft, << prévenir les injections SQL en ASP >> :

http://msdn.microsoft.com/en-us/library/cc676512.aspx

http://technet.microsoft.com/en-us/security/cc242650.aspx

Protection des bases de données et responsabilités civiles et délictuelles de l’entreprise

En droit français, les bases de données bénéficient d’un régime de protection spécifique introduit par la loi du 1er juillet 1998 portant transposition dans le code de la propriété intellectuelle de la directive européenne EC/96/9 concernant la protection des bases de données. Ce mécanisme législatif a conduit à définir un régime de protection supplétif et complémentaire ; toute opération informatique sur une base de données requiert l’attention et le soin nécessaire pour éviter de qualifier une contrefaçon, un acte de concurrence déloyale ou un acte parasitaire.

Le risque de contrefaçon ou l’atteinte à un droit de propriété intellectuelle

La décision de transférer, céder ou modifier une base de données peut être vectrice de risques juridiques, si les moyens de protection juridique de cette base n’ont pas été étudiés préalablement. Il s’agit de vérifier en fonction des besoins du projet si un droit d’auteur a été reconnu au créateur de la base et si ce projet ne cause pas un préjudice au regard des investissements réalisés par le producteur de la base.

Le code de la propriété intellectuelle protège deux types d’acteurs : le créateur de la base qui a un droit moral eu égard au travail intellectuel fourni et le producteur de la base qui a pris le risque d’investir dans ce travail intellectuel. Ces deux types de protections sont complémentaires et cumulatives. Le droit d’auteur protège un travail intellectuel original et cette protection est acquise indépendamment de tout dépôt ou formalité préalable. Tandis que le droit de production protège les investissements financiers, soit la valeur marchande de la base. Ce dernier régime de protection peut également se substituer au droit d’auteur lorsque le critère d’originalité est difficilement caractérisable. Il s’apprécie au regard des investissements engagés lors de la collecte des informations et de la constitution de la base.

Ainsi, toute modification, adaptation ou transformation de la base sans autorisation de l’auteur ou de ses ayant-droits fait courir à l’entreprise un risque de contrefaçon sanctionnée pénalement par trois ans d’emprisonnement et 300.000 euros d’amendes. Il est également possible pour l’auteur ou ses ayant-droits d’utiliser une procédure d’urgence auprès du Tribunal de Grande Instance pour faire saisir la base de données litigieuse. La saisie-contrefaçon peut porter aussi bien sur la base qui contrefait un droit de propriété intellectuelle mais également sur tous les outils utilisés pour produire ou distribuer cette base ainsi que les documents afférents.

Pour l’entreprise, il s’agit de remonter dans le temps pour vérifier la qualité de l’agent « créateur ». S’il s’agit d’un employé de l’entreprise, il faudra vérifier les dispositions de son contrat de travail pour étudier si des modalités spécifiques ont été prévues lors de la création d’œuvres originales. S’il s’agit d’une tierce partie, il convient d’étudier le contrat de prestations informatiques pour déterminer si la base est un apport original et surtout si l’entreprise possède, sous forme de licence ou de contrat de cession, les droits nécessaires et suffisants pour mener son projet. A défaut, le délit de contrefaçon serait caractérisé pour non respect des conditions contractuelles, à savoir un manquement aux droits concédés par la licence.

Le risque de concurrence déloyale et/ou d’acte parasitaire

Si le risque de contrefaçon peut être évité par la négociation de droits nécessaires et suffisants, il reste possible pour le créateur de la base de fonder une action en réparation s’il parvient à prouver que ce projet impacte son activité économique. Il s’agit dans ce cas d’invoquer les mécanismes de droit commun de la responsabilité civile des articles 1382, 1383 et 1384 du code civil. L’idée est de qualifier des agissements fautifs ou contraires à la morale des affaires en caractérisant l’entreprise comme un agent concurrent du créateur de la base.

En droit français, il n’existe pas de définition légale d’un acte de concurrence déloyale. Le détournement de clientèle, par exemple, ne sera pas sanctionné en lui-même, mais les moyens pour y parvenir seront « punissables ». Le risque pour l’entreprise poursuivie est finalement l’appréciation in concreto des juges. En l’absence de définition, le juge apprécie le dommage en fonction des faits soumis, d’où une jurisprudence abondante et parfois contradictoire, source d’insécurité juridique.

La doctrine a pour coutume de distinguer entre un acte de concurrence déloyale qui est le fait d’un concurrent et impacte ce concurrent, et les agissements parasitaires qui, « profitant de l’avantage d’autrui, (…) en dépit de l’absence de situation de concurrence » [1], désorganisent un marché. Dès lors, l’acte parasitaire se définit comme le détournement au profit d’un agent économique de l’image, du travail ou des investissements d’autrui constituant une valeur économique.

Cette recherche de responsabilité quasi-délictuelle sera invoquée par le créateur de la base si les conditions de l’action en contrefaçon sont difficilement caractérisables ou lorsque l’intérêt du plaignant est de rechercher la sanction des agissements fautifs plutôt que les faits constitutifs du délit de contrefaçon. Dans ce cas, l’entreprise peut être condamnée au paiement de dommages et intérêts et dans le pire des scénarii être empêchée d’exercer son activité ou être limitée dans son activité tant que les agissements appréciés comme fautifs n’auront pas cessé.

Le réel enjeu pour l’entreprise est de savoir organiser sa mémoire « juridique » en réalisant dès l’origine la cartographie de ces bases de données en fonction des éléments contractuels pertinents. Le créateur de la base a-t-il cédé ses droits et sur quel périmètre ? Le créateur de la base a-t-il accordé une licence pour quelle unité de valeur et pour combien de temps ? Cette cartographie doit également s’accompagner d’une forte sensibilisation des équipes informatiques pour comprendre le mécanisme des droits concédés au travers d’une licence.

Le risque de concurrence déloyale et l’acte parasitaire sont plus difficile à tempérer eu égard à l’appréciation souveraine des juges de fond. S’agissant de morale des affaires mais également d’opportunisme économique de l’entrepreneur, le seul moyen pour limiter ce risque est de parvenir à anticiper l’évolution du système d’information en informant en amont le créateur de la base des potentialités d’usages de son œuvre au regard des objectifs de développements poursuivis par l’entreprise. Cette solution viserait à caractériser la loyauté de l’entreprise, élément qui sera apprécié dans le cadre du recours pour concurrence déloyale. A défaut, l’entreprise sera conduite à invoquer l’action judicaire abusive ou dilatatoire du plaignant ; agissements non conformes à la morale des affaires et source de chronophagie et de pertes financières.

Par Elise Bruillon, Juriste systèmes d’information

Note

[1] Olivier Reisch, http://encyclo.erid.net/document.php?id=155, citant Ph. Le Tourneau, Le parasitisme, Litec, 1998.

Les biocarburants misent sur la deuxième génération pour se relancer

L’entreprise Verenium (VRNM) produit 5,3 millions de litres par an d’éthanol cellulosique à Jennings en Louisiane. Le carburant peut être mélangé à 10 % d’essence, ce qui évite aux Etats-Unis d’importer près de 5,9 millions de litres de pétrole par an. Certains sont disponibles à la pompe comme l’E85.A la place du maïs, qui nécessite de grandes quantités d’énergie, de nitrogène, de fertilisant et d’eau, Veranium utilise une culture qui produit huit fois l’énergie nécessaire à son processus de transformation : il s’agit de la « canne énergie », un hybride de la canne à sucre optimisé pour être utilisé comme carburant et non comme denrée alimentaire.La canne à sucre et son hybride la canne énergie jouent un rôle important dans l’indépendance énergétique du Brésil. Elles comptent pour 40 % de son carburant. Aujourd’hui, la canne énergie est cultivée dans les zones les plus tropicales des Etats-Unis. Alors qu’il est difficile à l’heure actuelle de monter un financement de projet, Verenium prévoit de construire une usine d’une capacité de 136 millions de litres par an en Floride, dans le cadre d’une joint-venture avec BP.

L’éthanol bientôt abandonné ?
Autre intervention remarquée à San Francisco, le Dr Stuart Thomas avec DuPont Danisco Cellulosic Ethanol, qui a pour projet d’exploiter une usine d’une capacité de 75,7 millions de litres par an d’ici 2012. L’entreprise est en train d’évaluer la possibilité d’utiliser des matières premières non alimentaires telles que le panic érigé (switchgrass) ou le sorgho dont la rentabilité par hectare est plus importante que le maïs. DuPont Danisco prévoit de faire jeu égal avec un baril de pétrole compris entre 60 et 100 dollars d’ici 2015. L’usine pilote sera dans le Tennessee, qui finance à hauteur de 70 millions de dollars l’éthanol tiré du panic érigé.Le potentiel des biocarburants à long terme pourrait ne pas être l’éthanol mais le gazoline renouvelable, le biodiésel, le bio-kérosène et le biocrude. Tous ont une valeur énergétique supérieure à l’éthanol, qui ne produit que 22.192 BTU/L contre 30.118 pour le gazoline et 31.704 pour le biodiésel.Avec un processus de fabrication moins long, le Dr Steve del Cardayre avec le LS9 a présenté un projet de production de biodiésel à partir de la canne énergie selon les standards industriels. L’usine devrait être en mesure de concurrencer le pétrole au cours actuel et produira également des produits chimiques pouvant être utilisés pour des détergents. Leur concurrent dans le domaine de la biologie synthétique, Amyris, a pris de l’avance avec la construction d’usines qui permettent de transformer la canne énergie en hydrocarbones renouvelables et en bio-kérosène.

Créer plusieurs produits dans une même usine
En effet, la possibilité de créer plusieurs produits dans une même usine semble être la clé d’une industrie prospère. Le raffinage du pétrole est florissant car la distillation permet de créer plusieurs produits : de la naphtha, utilisée dans les produits chimiques et les plastiques, de l’essence, du kérosène, du diésel et des huiles lourdes utilisées comme lubrifiant et asphalte.Gevo va construire des usines qui produiront notamment du bio-kérosène, du biodiésel et de l’isobutanol. Gevo a pour stratégie d’acheter et de moderniser pour 30 millions de dollars des usines à éthanol qui ne sont plus exploitées en construisant en leur sein une usine cellulosique. Le processus de fermentation de la levure de Gevo produit de la chaleur et de la vapeur qui deviendraient profitables s’il cohabitait avec un processus industriel nécessitant de la chaleur et de la vapeur combinées.En convertissant les déchets du bois en biocarburants de la prochaine génération, Mascoma possède un fort potentiel dans le cadre d’une cohabitation avec les usines à papier existantes et les activités liées au bois. La même chose est vraie pour Range fuels.Enerkem transforme les déchets solides municipaux en carburant et prévoit d’exploiter en 2011 une usine d’une capacité de 36,3 millions de litres par an à Edmonton au Canada et une autre d’une capacité de 75,7 millions de litres par an à Pontotoc, au Mississippi.

Créer les conditions de l’indépendance énergétique
Les dirigeants du monde entier se réuniront en décembre à Copenhague pour parler de l’avenir de la planète. Au Danemark, ils pourront visiter une nouvelle usine d’éthanol cellulosique développée par Inbicon. La matière première proviendra de déchets agricoles : la paille de blé. L’usine traitera chaque jour 24 tonnes de paille de blé, soit dix fois plus que dans l’usine de démonstration construite par Inbicon il y a seulement quelques années. L’usine sera plus efficace et plus à même de concurrencer le pétrole raffiné car elle aura 3 sources de revenus :
  • 5,4 millions de litres d’éthanol par an
  • 8.250 tonnes de biocarburant
  • 11.250 tonnes de mélasse qui seront utilisés pour nourrir le bétail
Ce genre d’activité peut-il suffire à réduire nos besoins pétroliers ? Non, mais dans cinq ans, la prochaine génération de biocarburants sera disponible à l’échelle commerciale. Si le pétrole se vend 100 dollars le baril, les biocarburants cellulosiques pourraient bien faire diminuer notre facture de carburant. Dans 10 ans, ils pourraient supprimer 20 % de nos besoins pétroliers actuels et marquer une étape importante vers l’indépendance énergétique.L’éthanol cellulosique n’est pas la seule solution durable que les dirigeants du monde constateront à Copenhague : ils verront près de 40 % de la population danoise circulant à vélo, soit un moyen immédiat et très efficace en terme de coût de réduire nos besoins pétroliers. Certains délégués partiront de l’aéroport en train électrique et remarqueront les fermes à éoliennes qui produisent l’électricité. D’autres rouleront en voiture électrique. Par John Addison, auteur du Clean Fleet Report. Son dernier livre est Save Gas, Save the Planet. Lire son blog. 

Un Cloud pour booster les smartphones

Jouer, filmer, télécharger, gérer ses finances… Le smartphone va offrir de plus en plus d’applications. Mais cette tendance se heurte à deux obstacles : une mémoire limitée et une batterie trop faible. Deux paramètres dont les capacités sont très éloignées de celles d’un ordinateur : par exemple 528 MHz de CPU et 512 MB de mémoire vive pour un téléphone Androïd HTC G1, contre 2,5 GHz et 4 GB pour un ordinateur portable MacBook Pro. Deux chercheurs du centre de recherche d’Intel à Berkeley proposent de contourner le problème en appliquant le principe du cloud computing ou informatique en nuages (lire l’encadré). Ils viennent de publier un papier à ce sujet qu’ils ont présenté lors de la conférence HotOS XII (Workshop on hot topics in operating systems) courant mai. Un prototype de ce service fonctionne actuellement sur l’Androïd de Google. Le principe du Clone Cloud consiste à utiliser des logiciels « clones », répliques de ceux du smartphone, qui tournent sur le cloud (un serveur propre ou un ensemble de serveurs propres) grâce à la connexion haut débit du smartphone. Lorsque le téléphone a besoin d’effectuer une tâche lourde, il utilise sa connexion pour envoyer les données au Clone Cloud, qui exécute l’application et renvoie ensuite le résultat au smartphone. Selon la complexité de la tâche à opérer, le téléphone s’appuie ainsi sur le service Clone Cloud, permettant d’augmenter la capacité du téléphone et d’augmenter la durée d’utilisation de la batterie. Pour illustrer les bénéfices d’un tel service, les chercheurs ont développé une application de reconnaissance faciale à partir d’une photo prise par un mobile. Cette application dure 100 secondes sur un mobile standard et seulement une seconde avec le service Clone Cloud.

Débit et stockage de données
Autre avantage, ce service permet de recourir plus facilement à des logiciels antivirus, et cela même lorsque le téléphone est éteint. Clone Cloud constitue également un pas de plus vers la convergence des appareils (ordinateur, mobile, etc.) puisqu’ils pourraient tous utiliser les mêmes logiciels « clones ». Cependant, s’appuyant sur la connexion à Internet du smartphone, Clone Cloud reste dépendant du débit qui peut varier fortement d’une zone à l’autre. Par ailleurs, comme tous les clouds, ce système suppose de confier des données privées sur des serveurs, ce qui peut constituer un risque pour l’utilisateur.Le cloud computing, ou l’informatique dans les nuagesLe cloud computing consiste à mutualiser la mémoire et la capacité de calcul des ordinateurs et des serveurs dans le monde entier, ces derniers étant reliés par Internet. Concrètement, les applications et les données ne sont plus en local sur l’ordinateur mais dans le « nuage », constitué de serveurs interconnectés. Les entreprises n’ont plus de serveur propre. Elles ont recours à la puissance et la capacité des serveurs que lorsqu’elles en ont besoin, comme dans le cas de la distribution de l’électricité. Ce système suppose donc de confier ses applications et ses données à un fournisseur, ce qui peut présenter des risques aussi bien pour les individus que pour les entreprises.En savoir plus sur le cloud computingUne analyse du Journal du NetL’article de WikipediaEn savoir plus sur le Clone CloudLe papier de Gon Chun et Petros Maniatis (pdf)Une vidéo sur le site d’IntelLe site de la conférence HotOS XIIUn article de Bulletins-electroniques.com

Dominique Collard (LIMMS) : « La nanopincette rendra possible des tests systématiques »

Une nanopincette en silicium permettra prochainement d’effectuer des tests biologiques au niveau moléculaire, avec des applications possibles pour la santé ou l’environnement. Elle a été conçue et élaborée par le LIMMS (Laboratory for integrated micro mechatronics systems, intégré à l’équipe du professeur Hiroyuki Fujita), un laboratoire commun au CNRS et à l’Université de Tokyo. Dominique Collard, qui codirige le laboratoire avec le professeur Teruo Fujii, fait le point sur ce nouveau procédé.

Techniques de l’ingénieur : Quelles sont les caractéristiques de la nanopincette en silicium ?

Dominique Collard : La nanopincette en silicium est constituée de deux bras se terminant par deux pointes en vis-à-vis avec un écartement de l’ordre de 10 microns. Sa première fonction, la plus importante, est d’attraper les molécules dans une solution. On trempe l’extrémité de la pincette dans une solution qui contient de l’ADN et on applique une différence de potentiel au niveau des deux pointes. On parvient ainsi à attirer un faisceau de molécules entre les deux extrémités. Ensuite, un actionneur tire sur l’ADN et écarte les molécules. Enfin, dernière fonction, un capteur de déplacement permet de savoir dans quelle mesure l’ADN se déforme. On peut utiliser la nanopincette soit dans l’air, soit en solution.

Quelles sont les applications ?

La nanopincette est un outil de caractérisation biomécanique de l’ADN ou d’autres types de molécules. C’est aussi un moyen de caractériser les interactions moléculaires. Elle peut permettre d’étudier de manière plus spécifique un gène dans l’ADN. On peut aussi étudier les interactions d’une protéine avec un gène ou encore faire du screening de médicament. On fait réagir l’ADN du patient avec une molécule pour voir s’il sera réactif à cette protéine. Cela se fait pour l’instant avec des pipettes, ce qui induit un important bruit de fond. Au niveau environnemental, on pourrait détecter des molécules polluantes particulières.

Qu’apporte-t-elle de plus que les systèmes déjà existants ?

Les systèmes déjà existants comme les pinces optiques concernent surtout la physique expérimentale. La nanopincette devrait servir pour des tests systématiques. Le test ne demande qu’une dizaine de minutes, contre une journée à une semaine pour d’autres tests, qui demandent par ailleurs des équipements très chers.

Quel est l’état d’avancement du projet ?

Nous en sommes encore au niveau de la R&D. Nous commençons à travailler sur quelques protocoles biologiques et nous continuons à développer cet outil. Si cela débouche sur une ou deux applications, nous mettrons en œuvre un procédé de fabrication, soit par l’intermédiaire d’une entreprise existante, soit en créant une start-up.

Quelles difficultés avez-vous rencontrées ?

La nanopincette résulte d’un savoir-faire développé au laboratoire depuis plus de dix ans. Il s’agit avant tout d’ingénierie avancée. En tant que procédé MEMS (microsystème électromécanique), cela nécessite de rassembler un savoir-faire conséquent.

Historiquement, pourquoi le LIMMS a-t-il été créé ?

Il s’agit d’une initiative du CNRS qui date de 1992. Cela répondait à une politique plus générale pour développer les micro et nanosystèmes. Le laboratoire accueille une vingtaine de Français pour des missions de deux à quatre ans. Cette coopération donne ainsi la possibilité à des chercheurs de se détacher des préoccupations nationales pour se lancer sur de nouveaux sujets ou se ressourcer. Cela a abouti à cinq ou six transferts de technologie lors du retour de chercheurs en France. Pour les Japonais, cela permet de mettre en avant une politique de collaboration internationale active et de stimuler les chercheurs. Le laboratoire LIMMS travaille principalement dans le domaine des MEMS avancés, des nanotechnologies et dans des BioMEMS.

Comment gérez-vous les différences culturelles ?

Les deux cultures mènent à des approches très complémentaires. Les Japonais ont une culture orientée vers la technologie, ils n’ont pas peur de développer des dispositifs, de faire des expériences. Les Français se situent plus au niveau de l’optimisation.

Au Japon, les nanotechnologies suscitent-elles autant de peurs qu’en France ?

Le niveau de préoccupation me semble moindre au Japon. Il existe une ouverture par rapport au risque. En France, il serait impossible de coupler un laboratoire MEMS avec un laboratoire de biologie dans un même lieu.ParcoursLillois d’origine, Dominique Collard est ingénieur ISEN (Institut supérieur d’électronique du Nord) diplômé en 1980. Il a ensuite effectué une thèse en physique des matériaux (1984). Il est parti au Japon en post-doc chez Toshiba avant d’intégrer le CNRS en France, à l’IEMN (Institut d’électronique, de microélectronique et de nanotechnologie) à Lille. Il a ouvert et dirigé le LIMMS au Japon (1995-1997). Après un transfert de technologie MEMS au retour à l’IEMN, il est passé au grade de directeur de recherche. Depuis 2005, il a de nouveau rejoint le LIMMS d’abord en tant que chercheur, puis directeur à compter de septembre 2007.Auteur de plus de 200 publications et de quatre brevets, Dominique Collard a reçu la médaille de bronze au CNRS, le titre de professeur de l’Université de Tokyo et celui de Chevalier de l’ordre des palmes académiques (juillet 2004).

Un réacteur biologique pour traiter le sulfate des effluents industriels

Les ions sulfates, tout comme d’autres composés de souffre, portent préjudice à l’environnement en polluant les sources d’eau. Ils sont présents dans les effluents des fabricants de papier et de cellulose, des raffineries d’huiles comestibles, des tanneries et de toutes les productions qui utilisent l’acide sulfurique comme matière première.Selon Sarti, les résultats, en termes de réduction de sulfate, ont été très significatifs et ont permis de conclure que ce traitement en réacteur biologique, appliqué aux effluents industriels contenant du sulfate, pouvait être utilisé à grande échelle dans le futur. Il est même envisageable de traiter d’autres types de résidus ou d’eaux usées contenant du sulfate.Le procédé utilisé par Sarti repose sur le déplacement de l’ion sulfate par l’action de micro-organismes anaérobies disposés dans un réacteur rempli de charbon, le charbon étant un support inerte qui garantit la maintien des microorganismes par simple adhérence physique. « Le déplacement biologique du sulfate est la solution qui présente le meilleure rapport coût-bénéfice », en comparaison avec d’autres processus chimiques ou physiques, explique Sarti.

Privilégier le déplacement biologique du sulfate
Le réacteur anaérobie fonctionne en batch, et chaque traitement biologique est réalisé dans une séquence opérationnelle de 48 heures qui comprend quatre étapes successives:
  • alimentation (le liquide est introduit dans le réacteur) ;
  • agitation (le liquide est agité avec les microorganismes) ;
  • réaction (le liquide décante et la biomasse sédimente) ;
  • évacuation (le liquide est évacué).
Il est important de noter qu’avant de recevoir les eaux sulfatées, le réacteur est alimenté avec une biomasse de micro-organismes provenant des égouts. Les micro-organismes colonisent alors le support du réacteur et forment ce que l’on appelle un biofilm. Le processus est complété par addition d’éthanol, qui permet la formation d’acide acétique après réduction du sulfate. Le souci majeur avec ce type de réacteur est de pouvoir maintenir une quantité suffisamment élevée de biomasse, mais ceci a été résolu en utilisant des supports inertes à l’intérieur du réacteur.Le réacteur a été construit en fibre de verre, avec un volume de 1,2 mètre cube, et avec du charbon minéral comme support. Plus de 500 kg de charbon ont été requis pour la composition de la couche intérieure du réacteur. « L’option du charbon minéral a été choisie pour sa facilité de maniement : en effet, il n’exige pas de dispositif spécial pour sa fixation ou son maintien à l’intérieur de l’unité », explique Sarti.

Traiter les quantités d’effluents à grande échelle
Le sulfate introduit dans le réacteur pendant les tests provenait d’eaux résiduelles d’une industrie d’huiles végétales, qui utilisait l’acide sulfurique comme matière première. Ces huiles sont spécifiquement utilisées dans la finition des cuirs animaux. Sarti raconte que « toute l’idée est partie d’un problème réel posé par une industrie de la région, qui générait une quantité importante de sulfate, près de 120.000 mg/l ».Le réacteur développé par Sarti n’a pas été conçu pour répondre au problème spécifique de cette entreprise, mais il a été pensé avec la perspective de traiter des quantités d’effluents à grande échelle.Par Faustine Fourdinier, rédactrice pour la chaîne environnement des Bulletins électroniques à l’ambassade de France au Brésil BE Brésil numéro 124 (18/05/2009) – CenDoTeC / Ambassade de France au Brésil / ADIT – http://www.bulletins-electroniques.com/actualites/59113.htm

Indices au vert pour le marché européen du solaire

L’Europe et le Japon, pionniers de l’énergie solaire, demeurent, au niveau mondial, les places fortes de ce secteur. C’est en substance ce que révèle une étude réalisée par le cabinet d’études Frost&Sullivan.En Europe, leader historique du secteur avec le Japon, l’Allemagne reste de loin le plus grand acteur et centre de production du marché mondial. Cependant, l’émergence de nouveaux marchés change progressivement la donne. Désormais, l’Europe doit faire face à deux principaux concurrents. Le premier d’entre eux est la Chine, pays qui cherche à tous prix à réduire les coûts de fabrication et à s’installer petit à petit sur le marché européen. Ainsi, par exemple, la baisse du prix du polysilicium, couplée à celle des modules solaires, renforce la montée en puissance chinoise et fait de ce pays une plaque tournante dans la production solaire, comme le confirme Alina Bakhareva, directrice de recherche pour Frost&Sullivan. « Lorsqu’il est question de cellules et de modules solaires, on remarque que les producteurs asiatiques suivent une courbe de développement agressif, car ils grignotent les parts de marchés des fabricants japonais et européens. Leurs coûts peu élevés et leur perspicacité en matière technologique les aideront à étendre davantage leur présence sur les marchés solaires du monde entier. »

La pression sur les coûts de fabrication
Le second concurrent sérieux de l’Europe est les Etats-Unis. Aujourd’hui, ils présentent un potentiel solaire démesuré par rapport à l’exploitation qui en est faite. « Les Etats-Unis, ayant seulement exploité une fraction de leur incalculable potentiel solaire, ont tous les éléments nécessaires à la création d’un marché solaire fort et bien diversifié », affirme Alina Bakhareva. Décidée à aller petit à petit vers l’indépendance énergétique, la plus grande puissance du monde met en place des systèmes incitatifs et augmente son soutien envers les énergies renouvelables.Quoi qu’il en soit, l’Europe reste une place forte dans le paysage du solaire, et l’arrivée de ces nouveaux concurrents ne remet pas la situation en cause, en tout cas pour l’instant. L’Europe devrait conserver son leadership pour les années qui viennent. L’étude explique cette position favorable en raison de trois composantes principales : la mise en place et le maintien de la recherche, une base de fabrication solide et un soutien gouvernemental. L’étude publiée par Frost&Sullivan se penche également sur le cas des petites entreprises impliquées sur le marché du solaire, et qui devraient souffrir de la mondialisation. En effet, la concurrence, de plus en plus vive, va toucher en premier lieu les petites entreprises qui ne parviendront pas à baisser leurs prix de façon suffisante. Au delà, le cas de l’Allemagne révèle un facteur plutôt surprenant. Alors que les installations individuelles ont tendance à se multiplier, le segment des particuliers traverse une situation difficile, alors que les projets à l’échelle industrielle se portent bien.

L’Italie et la Grèce, géants en sommeil
Au final, de nombreux acteurs du solaires ont annoncé ces derniers mois une augmentation de leur activité et la construction de nouvelles usines, en particulier en Allemagne. Enfin, cette étude revient sur le cas français. Dans l’Hexagone, l’Etat soutient traditionnellement les technologies photovoltaïques intégrées au bâtiment, en proposant un tarif maximum de 0,55 kW/h. Une pratique que critique Alina Bakhareva. « Bien que la France ait affiché des taux de croissance tout à fait raisonnables ces cinq dernières années, le sentiment général est que le marché du solaire se serait davantage développé si sa politique avait été identique à celle d’autres types d’installation. » L’Italie et la Grèce, quant à eux, sont qualifiées dans l’étude de « géants qui sommeillent ». En effet, les barrières administratives existantes s’opposent à une multiplication des projets, alors que les tarifications mises en place sont parmi les plus intéressantes au niveau européen. 

La bioélectricité offre un meilleur ratio de « kilomètres par hectare » que l’éthanol

Parmi les nouvelles voies étudiées pour trouver une alternative au pétrole, la biomasse et l’éthanol sont deux pistes très sérieuses. Elliott Campbell, chercheur à l’Université de Californie, affirme qu’il est plus efficace de convertir la biomasse en électricité plutôt qu’en éthanol. Il nous explique pourquoi. 

Vous prenez tout à la fois en compte l’énergie produite par chacune des technologies et l’énergie consommée au cours du processus de production des véhicules et du carburant. Quel a été le facteur décisif pour départager la bioélectricité du moteur à combustion interne ?
L’option de l’électricité est difficile à battre car l’efficacité des véhicules électriques est bien plus importante que celle d’un véhicule à moteur à combustion interne. La bioélectricité utilisée par les véhicules à batterie permet en moyenne de parcourir 80 % de km de plus, tout en évitant l’émission de deux fois plus de gaz à effet de serre par hectare de biomasse cultivé par rapport à un véhicule à essence. 

Diriez-vous que la bioélectricité est sans nul doute l’énergie du futur dans les transports ?
Le moteur à combustion interne n’est pas très efficace, notamment comparé aux véhicules électriques. L’avenir du transport sera certainement un mélange des technologies renouvelables au lieu des seuls carburants liquides. 

Vous ne prenez en compte ni la pollution atmosphérique, ni la consommation d’eau ou encore le recyclage des batteries. Selon vous, quel impact peuvent avoir ces facteurs sur les conclusions de l’étude ?
Les résultats de notre étude montrent que les objectifs en matière de transport et de réduction des gaz à effet de serre peuvent être atteints plus facilement avec l’électricité qu’avec l’éthanol. Nous ne disons pas quelle est la voie énergétique à suivre car d’autres critères comme les coûts économiques ou la pollution de l’air doivent encore être évalués. 

La tendance générale actuelle semble plus favorable à l’éthanol. Avez-vous confiance dans la capacité des pays à renverser leur stratégie énergétique ?
Dans le domaine des biocarburants, alors que l’accent est mis aujourd’hui sur les carburants liquides, on prend peu à peu conscience du fait que convertir la biomasse en électricité peut être plus efficace. Les Etats-Unis et d’autres pays se trouvent à la croisée des chemins. Deux stratégies s’offrent ainsi à eux : encourager le développement de véhicules qui roulent à l’éthanol ou des véhicules qui roulent à l’électricité. Des études comme la nôtre peuvent servir à déterminer quelle voie des énergies alternatives procurera un maximum d’énergie pour un impact climatique minimum. En savoir plusElliott Cambel est chercheur dans le département d’ingénierie de l’Université de Californie. Il s’intéresse à l’intéraction entre les systèmes énergétiques écologique et humain.  

Sources :
Greater Transportation Energy and GHG Offsets from Bioelectricity Than Ethanol, J. E. Campbell, D. B. Lobell, and C. B. Field. Originally published in Science Express on 7 May 2009. Science 22 May 2009: Vol. 324. no. 5930, pp. 1055 – 1057 DOI: 10.1126/science.1168885 

La France encore trop faible dans les greentech

Paris Mouratoglou, le patron d’EDF Energies Nouvelles, connu pour son franc-parler, a tout de suite mis les pieds dans le plat : « on est nus devant la concurrence. Nous manquons complètement de capacités à produire et nous n’avons pas grand-chose à exporter. Il y a urgence à créer une industrie française. Et c’est assez simple à faire ».Un constat abrupt, que justifie le patron d’EDF EN : « Les énergies renouvelables vont devenir un marché gigantesque, et nous sommes absents des éoliennes et des panneaux : demain, la France importera des panneaux de chez nos voisins. Moi, pour EDF Energies Nouvelles, j’achète du matériel partout, mais je ne peux pas acheter français puisqu’il n’y pas d’offre française. Avec des exceptions, comme Vergnet (l’un des rares fabricants français d’éoliennes, ndlr), qui occupe une niche avec des éoliennes légères qui se couchent en cas de cyclones, destinées aux départements d’Outre-mer, ou encore Schneider qui fait des onduleurs que nous lui achetons. Le seul moyen pour créer une industrie français est de créer un marché domestique. Il faut un tarif d’achat suffisant et une visibilité à moyen terme, sinon nous n’aurons pas assez de recherche ni d’investissement. Et des facilités administratives : en France, pour faire une ferme solaire, il faut des années alors qu’ailleurs il ne faut que quelques mois ».Un peu plus nuancé que Mouratoglou mais guère plus indulgent, le Directeur Général de Suez Environnement, Jean-Louis Chaussade, a relevé quelques initiatives : « Total et GdF fabriquent du silicium et ouvrent un nouveau site dans l’est, les filières sont en train de se constituer. Il faut aussi soutenir la filière du recyclage ».

« La Chine va créer des géants de l’environnement »
Il est optimiste sur le secteur (« La culture de la green économie est lancée, je ne pense pas qu’on remettre en cause la nécessité absolue du développement durable, d’une nouvelle croissance »), mais craint la Chine : « La Chine va créer des géants mondiaux dans l’environnement, il faut s’y préparer. Il faut des efforts de R&D maintenant, sinon nous serons dépassés par de grands concurrents dans 10 ans, et la concurrence internationale va s’exacerber. La Chine veut des champions, et va les pousser avec son plan de relance vert ».Pourtant, au colloque figuraient quelques « success stories » comme Environnement SA (capteurs et compteurs de CO2), une PME de 100 personnes qui exporte largement.Autre manque identifié par Philippe Delorme, secrétaire exécutif de Schneider Electric, la formation : « il y a un vide en ce qui concerne les filières de formation, et il est très difficile de trouver des spécialistes de l’énergie. Il faut investir dans les universités. En Europe, l’un des principaux freins est le manque de brain power ».

La nécessité d’investir dans la formation
Tous les participants ont aussi jugé difficile pour les entreprises françaises de profiter des plans de relance « verts », notamment en Chine ou aux Etats-Unis, qui sont surtout destinés aux acteurs nationaux.Les deux ministres présentes, Mmes Idrac et Jouanno, avec Dominique Campana, responsable de l’action internationale de l’Ademe, ont plutôt souligné les enjeux du secteur (400.000 emplois en France déjà, 440 milliards de dollars de marché mondial d’ici 2020, 550.000 emplois en France d’ici 2020 selon une étude du Boston Consulting Group), et les points forts français (les secteurs des déchets et de l’eau, des économies d’énergie et du BTP) qui font de la France, selon elles, le quatrième exportateur d’écotechnologies, avec des géants comme Veolia ou Suez.Les deux ministres ont aussi annoncé plusieurs initiatives : une bannière commune, intitulée France Greentech, qui permettra par exemple aux industriels français de se regrouper pour des salons ou des missions à l’étranger, un guichet unique pour les services et aides à l’export avec un Green Pass créé par UbiFrance, et une convention entre UbiFrance et l’Ademe pour mettre en commun leur réseau pour aider les éco-industries françaises à l’international. 

Sources :
Green Univers

Le Grenelle des Ondes déjà court-circuité ?

Placée sous la tutelle du Ministère de la Santé, mais également de deux Sous-secrétariats d’État (Écologie et Développement de l’économie numérique), la première table ronde de ce Grenelle n’a pour l’instant pas satisfait ses participants. Si les associations et le monde politique sont représentés, il reste des absents comme le souligne Philippe Goirand, porte-parole toulousain du parti des Verts, dans la Dépêche du Midi : « Ces discussions ne sont pas alimentées par des éléments scientifiques, puisqu’aucun n’a été invité à ces débats ».En tout cas, toute procédure de ce type pose, semble-t-il, la question de la légitimité et de la représentativité des personnes qui y sont conviées, comme de celles qui restent sur le pas de la porte. 20 Minutes relève que les associations Agir pour l’Environnement et Priartem estiment que l’organisation du Grenelle s’est faite « dans la précipitation et l’improvisation », tandis que pour Philippe Goirand, « Tout cela ne semble pas très préparé et relève plus du coup marketing ». Le Grenelle serait-il déjà court-circuité ? En tout cas, il ne freine pas les débats autour de l’impact sanitaire des antennes-relais.L’association Robin des Toits s’est ainsi érigée en porte-drapeau de mesures visant à réduire le taux d’exposition maximal aux ondes. Actuellement, et selon un décret datant de 2002, les antennes françaises peuvent émettre jusqu’à un niveau compris entre 41 et 61 Volts/mètre, « conformément aux recommandations de l’Organisation Mondiale de la Santé et de la Commission Européenne », rappelle 20 Minutes.

« La question du seuil d’exposition est une fausse question »
Un seuil beaucoup trop élevé et qui devrait être ramené à 0,6 V/m, « ce qui correspond à la position consensuelle de tous les scientifiques indépendants » selon Robin des Toits. 20 Minutes note également que Nathalie Kosciusko-Morizet, actuelle sous-secrétaire d’État à l’Economie numérique et donc impliquée dans le Grenelle, avait déjà proposé en 2005 « une proposition de loi relative à la réduction des risques pour la santé publique des installations et des appareils de téléphonie mobile dont le premier article fixait cette même limite ». Des tests grandeur nature de ce nouveau seuil d’exposition seront par ailleurs réalisés dans quatre communes française, rurales et urbaines, qui se sont portées volontaires.Pour autant, la question est-elle réglée ? Dans une interview au Journal de l’Environnement, Danielle Salomon, chercheur associé au Centre de sociologie des organisations et fondatrice du bureau d’études Risques&Intelligence, explique que « la question du seuil d’exposition est une fausse question qui ne résoudra probablement pas la controverse ». Elle explique ainsi que le seuil d’exposition de 0,6 V/m est déjà en vigueur dans certains pays de l’Union Européenne, ce qui n’apaise pas la contestation pour autant.A l’origine, c’est un « besoin d’information non satisfait qui a nourri la contestation », explique Mme Salomon. Le succès du Grenelle dépendrait ainsi en premier lieu de la capacité à informer sur le sujet afin de rassurer les personnes préoccupées de l’impact de ces ondes. Implantation en lieux scolaires, effets selon l’âge, distance par rapport à l’antenne, nocivité du téléphone portable… Autant de questions sur lesquelles sont attendues des explications, préalables à une législation, et sur lesquelles le Grenelle des ondes devrait se pencher dans les jours à venir. Et puis, plus fondamentalement, n’est-ce pas le lien entre évaluation du risque et gestion du risque qu’il faut réinterroger ?

Source :
Mission d’Animation des Agrobiosciences 

Chiffre clé : moins de 20% des sites Wimax prévus effectivement déployés

Depuis juillet 2006 et l’attribution de 46 licences régionales par l’Arcep (Autorité de régulation des télécoms), 675 sites Wimax ont été déployés au 31 décembre 2008, contre 3.562 prévus. Le Wimax (Worldwide interoperability for microwave access) assure un accès sans fil à Internet par voie hertzienne avec des débits plus élevées et une portée plus grande que le Wi-Fi (limite théorique de 75 Mbps sur des rayons de couverture de quelques dizaines de kilomètres). Les pouvoirs publics ont cherché à soutenir le développement d’un tel réseau pour couvrir les zones oubliées de l’ADSL et pour les lieux publics.Détenteur de 20 licences régionales, Bolloré Télécom n’a déployé que 13,4 % des installations théoriquement exigées par l’Arcep. Altitude Telecom, qui dispose de 13 licences, n’a mis en place que 15 % des sites. Iliad, qui possède une licence nationale rachetée à Altitude Telecom, respecte ses obligations qui restent cependant limitées.

Le LTE prend l’avantage
Les deux plus grands détenteurs de licences justifient la lenteur du déploiement par un retard technologique sur les équipements de réseaux et sur les terminaux. Dans le même temps, le LTE (Long term evolution) semble de plus en plus prometteur pour le réseau mobile. Cette technologie présente de nombreux avantages comme la rétrocompatibilité avec les équipements GPRS et UMTS, ou encore une meilleure bande passante. On ne s’attend cependant pas à un déploiement massif immédiat en France. Aux Etats-Unis, Verizon Wireless a déjà annoncé une mise en place en 2010.Au niveau international, le Wimax continue à susciter de l’intérêt. Dans quelques jours, les grands du secteur se réuniront à Amsterdam pour le Congrès mondial Wimax forum 2009. D’après l’organisateur de ce rassemblement, 430 millions d’utilisateurs bénéficient d’un accès Wimax dans le monde et ce chiffre pourrait doubler d’ici à la fin 2010.Congrès mondial Wimax forum 2009Du 1er au 4 juin à AmsterdamLes professionnels du Wimax feront le point sur le déploiement et profiteront de retours d’expérience.Site : global.wimax-vision.comTableau récapitulatif et cartes des déploiements par titulaire (31 décembre 2008, en France, source : Arcep)Document pdf

Ces budgets informatiques qui résistent à la crise

Le secteur informatique n’échappe pas à la crise, mais certains segments s’en sortent mieux. D’après une enquête réalisée par Markess international, les entreprises et administrations investissent toujours dans les applications en ligne en mode SaaS. 52 % des organisations interrogées (378 entreprises et administrations) estiment qu’il existe un impact favorable de la crise économique sur les budgets alloués à ces applications. Le SaaS (Voir encadré) consiste à considérer le logiciel non comme un produit mais comme un service accessible sur Internet, avec un paiement en fonction de la consommation. Ce système permet de réduire les coûts et d’éviter d’effectuer un investissement de départ. Les entreprises peuvent donc recourir à de nouvelles technologies sans supporter de coût d’investissement, les dépenses étant associées à des coûts de fonctionnement. A noter toutefois que les applications SaaS présentent certains inconvénients comme des problèmes de confidentialité (si les données de l’entreprise se trouvent sur les serveurs d’un prestataire), des migrations informatiques compliquées ou encore une disponibilité dépendante du réseau. Le paiement à la consommation peut s’avérer moins intéressant à long terme puisque le client d’une licence traditionnelle peut par exemple retarder un nouvel achat en période de crise.Comparaison de l’impact de la crise sur les budgets pour différentes solutions intégrant les technologies de l’information

 (en pourcentage d’organisations interrogées)
Impact de la crise économique sir les budgets alloués à : Défavorable Neutre Favorable
Des applications en ligne en mode SaaS / On demand 14% 34% 52%
Aux projets d’optimisation de gestion des interactions clients via Internet et le mobile 40% 45% 15%
A la relation client dans son ensemble 44% 39% 17%
Des solutions de gestion des talents 50% 30% 20%
Des solutions d’archivage de courrier électroniques 59% 39% 2%
Source : Markess International, France, 2009, base : 378 entreprises et administrations
Dématérialisation des échanges
Dans un contexte difficile, la relation client reste un thème majeur, tant le coût d’acquisition d’un nouveau client s’avère élevé. Ainsi, plus de la moitié des sondés considèrent que la crise à un impact positif ou neutre sur le financement des projets d’optimisation de la relation clients, principalement grâce à Internet et au mobile. En revanche, les projets qui n’impliquent pas de retombées immédiates obtiennent majoritairement des avis neutres ou défavorables. C’est en particulier le cas des solutions de gestion des talents et des solutions d’archivage de courriers électroniques. Cependant, ce dernier thème devra être pris en considération compte tenu de l’accélération de la dématérialisation des échanges. L’étude met en avant des opportunités dans la dématérialisation des factures, qui assure des réductions de coûts. Dans le secteur public, le cabinet d’études et de conseil relève des réservoirs de croissance comme la numérisation et la dématérialisation, les téléprocédures, le stockage et l’archivage électronique ou encore l’externalisation (avec notamment le SaaS).ASP et SaaSASP (application service provider ou fournisseur d’applications hébergées) : l’ASP consiste à fournir sur Internet des logiciels initialement basés sur une architecture client/serveur SaaS (software as a service) : les applications SaaS sont également disponibles grâce à Internet mais elles sont construites d’emblée en mode Web. Elles sont hébergées et gérées pas les éditeurs. Par ailleurs, le SaaS n’implique pas la signature d’un contrat sur une certaine durée avec un paiement mensuel mais le paiement en fonction de la consommation.

Quels problèmes et solutions cryptographiques ?

Ces dernières années, les scandales impliquant le vol ou la perte de données confidentielles se sont multipliés. En novembre 2007, au Royaume-Uni, deux cédéroms contenant les données fiscales de 25 millions de Britanniques ont été égarés. Même chose au Chili, où les données personnelles de 6 millions de citoyens se sont retrouvées diffusées sur Internet après le piratage de plusieurs systèmes d’informations de l’Etat chilien. Deux exemples qui montrent bien que les protections classiques des systèmes d’informations risquent souvent de s’avérer trop faibles contre un pirate fortement motivé par les données détenues. Pourtant, il n’y a pas de fatalité. La plupart de ces événements fâcheux auraient pu être évités si les bases de données avaient été stockées sous forme chiffrée. Mais comment ?

Manipuler des bases de données chiffrées… sans déchiffrer

L’administrateur d’une base de données sensible est souvent réticent à son chiffrement intégral pour des raisons pratiques. En effet cela signifie une sécurité accrue mais au prix d’un sacrifice de fonctionnalité.

Le problème d’une base de données protégée par chiffrement est qu’il est délicat d’effectuer des recherches ou des opérations mathématiques sur son contenu. Il faut alors déchiffrer les éléments en jeu, effectuer l’opération, puis chiffrer à nouveau le résultat. Ceci pose à la fois des problèmes de performances, en raison des étapes de chiffrement et déchiffrement, mais également de sécurité car les données sont manipulées en clair pendant un certain laps de temps. Afin de remédier à cet inconvénient, les cryptographes se sont penchés sur ce que l’on nomme le « cryptocomputing », l’art de calculer avec des données chiffrées. Les opérations que l’on peut souhaiter effectuer sont nombreuses : recherche d’un élément ou d’un mot clé, comparaison d’éléments, opérations mathématiques comme l’addition ou la multiplication…

Le cas des opérations mathématiques est sans doute l’un des plus intéressants, et les exemples d’applications où l’on doit pouvoir calculer sur des éléments chiffrés sont légions. C’est le cas notamment du vote électronique : il faut pouvoir ajouter les votes de chaque individu qui ont été collectés sous forme chiffrée, sans les déchiffrer et déchiffrer seulement une fois le total calculé. Autre exemple : le traitement statistique de données personnelles : comment permettre à l’INSEE de calculer la moyenne des revenus d’une classe d’individus sans connaître le revenu de chacun d’eux ?

Prenons le cas simple du cryptosystème à clé publique RSA, dont nous rappelons brièvement le fonctionnement. Chaque utilisateur possède une clé publique connue des autres utilisateurs et une clé privée connue de lui seul. La clé publique est constituée d’un couple (n,e) où n est le produit de deux grands nombres premiers p et q (la taille de n est typiquement de 1.024 ou 2.048 bits), et e est un nombre premier avec (p-1)*(q-1). La clé privée est le couple (n,d) où d a la particularité que pour tout nombre M compris entre 0 et n-1 : (M^e)^d=M mod n.

Ce cryptosystème permet deux fonctionnalités, le chiffrement et la signature. Ainsi, pour chiffrer un message M à destination d’un utilisateur dont la clé publique est (n,e), on calcule : C=M^e mod n, et on lui envoie C.

Le destinataire peut alors retrouver M en calculant : M=C^d mod n.

Le chiffrement RSA permet de multiplier entre eux des éléments chiffrés. En effet, si C est le chiffré correspondant au clair M, et C’ le chiffré correspondant au clair M’, alors le chiffré correspondant au clair M*M’ est : (M*M’)^e mod n = M^e * M’^e mod n = C*C’ mod n.

On peut donc calculer le chiffré correspondant à M*M’ sans connaître M ni M’, mais seulement à partir de leurs chiffrés. On dit que RSA est homomorphique par rapport à la multiplication.

Aujourd’hui, de nombreux systèmes de chiffrement à clé publique sont homomorphiques par rapport à la multiplication (le cryptosystème d’El Gamal par exemple) ou à l’addition (comme le cryptosystème de Paillier). En revanche on ne connaît pas à l’heure actuelle de système de chiffrement qui soit homomorphique à la fois par rapport à l’addition et la multiplication. La construction d’un tel cryptosystème (ou éventuellement la preuve qu’il est impossible d’en construire un) constitue à l’heure actuelle l’un des sujets les plus importants en cryptographie, car il permettrait de manipuler de façon arbitraire des données chiffrées.

Une autre fonctionnalité fortement désirable est de pouvoir rechercher un élément dans une base de données chiffrée. Considérons le cas d’un serveur d’e-mails dans lequel, pour des raisons de respect de la vie privée de l’utilisateur, les e-mails sont stockés sous forme chiffrée. Lorsque l’utilisateur veut consulter les e-mails contenant un mot-clé, il doit rapatrier l’ensemble de la base de données sur son terminal, la déchiffrer et effectuer la recherche, ce qui est potentiellement problématique pour une plate-forme à faibles capacités comme un téléphone mobile. Existe-t-il un moyen pour permettre au serveur d’effectuer la recherche sans lui apprendre autre chose qu’un certain nombre de mails contiennent ou non le mot-clé ?

Une réponse positive a été apportée par un groupe de chercheurs de Berkeley [1]. Leur schéma, légèrement plus complexe qu’un algorithme de chiffrement classique, est représenté sur la Figure 1. L’astuce consiste à procéder à un masquage du chiffré par un générateur pseudo-aléatoire (ceci évite également qu’un même mot en clair corresponde au même mot chiffré, ce qui donne une information importante à un attaquant).

Chaque mot M est tout d’abord chiffré avec un chiffrement par blocs classique E sous une première clé secrète Kcb pour obtenir le chiffré X. Les n-m premiers bits de X, dénotés L, sont utilisés pour dériver, à l’aide d’une seconde clé secrète Kder, une sous-clé K. Parallèlement un générateur de nombres pseudo-aléatoires est utilisé avec une troisième clé secrète Kg pour donner un bloc de n-m bits S. Ce bloc est ensuite haché avec la sous clé K pour obtenir un bloc T de m bits. La paire (S,T) est alors ajoutée à X pour obtenir le chiffré final C. Pour effectuer la recherche d’un mot M, l’utilisateur envoie au serveur la paire (X,K) correspondante. Le serveur n’a alors qu’à calculer C’ xor X pour chaque chiffré C’ contenu dans la base de données, en déduire S’ et T’ et vérifier que T’=H(K,S’), ce qui indiquera qu’il s’agit bien du mot recherché. Remarquons que le serveur n’apprend rien sinon que le mot recherché par l’utilisateur se trouvait bien aux positions identifiées dans la base de données, et ne connaît pas même le clair recherché.

original

Figure 1. Procédé de chiffrement permettant une recherche de mot-clé sans déchiffrer.

Remarquons que le serveur n’apprend rien sinon que le mot recherché par l’utilisateur se trouvait bien aux positions identifiées dans la base de données.

Et les bases de données respectueuses de la vie privée ?

Une problématique complémentaire est celle du respect de la vie privée de l’utilisateur d’une base de données publiquement accessible. Par exemple, un investisseur peut vouloir consulter le cours d’une action précise sans dévoiler laquelle. Autre exemple : celui de laboratoires qui utilisent une banque de données pharmaceutiques ou de brevets mais ne veulent pas révéler les molécules ou les inventions sur lesquelles ils travaillent. Dans tous ces cas, il est souhaitable que l’utilisateur puisse accéder à l’information contenue dans la base de données sans que le serveur sache quelle donnée précise l’intéressait.

Pour cela, les cryptographes ont construit des schémas dits de « Retrait d’Informations Privé » (abrégé en PIR pour l’anglais « Private Information Retrieval« ). Remarquons que c’est le retrait qui est privé (dans le sens où le serveur de données ne peut savoir à quel élément l’utilisateur a accédé), et non l’information, qui elle est publique. Il ne faut pas confondre ce genre de schéma avec une procédure d’anonymisation, lors de laquelle le serveur sait quelle donnée il a transmis, mais sans connaître l’identité de l’utilisateur. Au contraire, dans un schéma de PIR, le serveur sait que l’utilisateur A a récupéré une information dans la base, mais ne sait pas quelle information.

On peut montrer mathématiquement que si la base de données est unique et que le détenteur de cette base de données possède une puissance de calcul infini, alors la seule façon de procéder de manière parfaitement sûre est que l’utilisateur demande l’intégralité de la base de données. Ceci s’avère totalement impraticable dès que la base de données est grande ou fréquemment mise à jour. Cependant des solutions non triviales et peu coûteuses en communication existent lorsque la base de données est répliquée sur plusieurs serveurs, et que l’on suppose que les serveurs ne vont pas collaborer entre eux pour découvrir la requête de l’utilisateur [2], ce qui est souvent une hypothèse peu vraisemblable si c’est une même entité qui gère tous les serveurs.

Fort heureusement, les cryptographes sont parvenus à mettre au point des protocoles marchant avec un serveur unique [3]. Ces protocoles reposent sur des problèmes calculatoires difficiles. La situation est analogue à celle du chiffrement, où l’on peut montrer que pour obtenir une confidentialité parfaite contre un attaquant possédant une puissance de calcul infini, la clé doit être aussi longue que le message. Alors qu’en faisant l’hypothèse qu’un attaquant ne saura jamais résoudre un problème difficile (typiquement le problème de la factorisation ou du logarithme discret), on peut construire des systèmes de chiffrement au moins aussi sûrs que le problème est difficile à résoudre, comme le système de chiffrement à clé publique d’El Gamal. Toutefois, les protocoles actuellement connus sont encore coûteux en termes de calculs. Mais il s’agit d’un domaine de recherche actif et l’on peut s’attendre à l’obtention de schémas pratiques prochainement.

Par Yannick Seurin, Ingénieur de recherche en cryptographie

Notes

[1] D.X. Song, D. Wagner, et A. Perrig, Practical Techniques for Searches on Encrypted Data, IEEE Symposium on Security and Privacy, p. 44–55, 2000.
[2] B. Chor, O. Goldreich, E. Kushilevitz, et M. Sudan, Private Information Retrieval, FOCS 1995, p. 41–51, 1995.
[3] E. Kushilevitz et R. Ostrovsky, Replication is not needed: Single database, computationally-private information retrieval, FOCS 1997, p. 364–373, 1997.

OpenVibe, un logiciel français pour agir par la pensée

Premier logiciel français pour concevoir et utiliser des interfaces cerveau-ordinateur (ICO), OpenVibe vient d’être présenté par l’Inria et l’Inserm. Résultat d’un projet lancé en 2005 grâce à un financement de l’Agence nationale de la recherche, ce logiciel ouvert et gratuit, écrit en C++, s’adresse non seulement aux chercheurs, mais aussi aux cliniciens et aux entreprises.Les interfaces cerveau-ordinateur [1] permettent de commander un ordinateur sans un geste. Le processus se décompose en six étapes : la mesure de l’activité cérébrale, le prétraitement et le filtrage des signaux cérébraux, l’extraction de caractéristiques des signaux, la classification des signaux, la traduction en une commande et le retour perceptif. Pour la première étape, on peut utiliser l’électro-encéphalographie (EEG). Celle-ci consiste à mesurer des différences de potentiel dues à des activités cérébrales créant des courants intracérébraux qui circulent dans la tête jusqu’à la surface. Ces mesures se font grâce à des électrodes placées sur un casque en tissu. Cette solution pratique et peu couteuse s’avère très intéressante pour des utilisations individuelles. Pour la recherche ou la médecine, la magnétoencéphalographie (MEG) offre une meilleure résolution. Elle revient à mesurer le champ magnétique créé par les neurones grâce à 150 à 300 capteurs disposés sur un casque (sans contact direct).

Une interface plus simple à utiliser

Le projet OpenVibe a généré différentes avancées dans le domaine des ICO. Les techniques élaborées améliorent en effet le taux de reconnaissance des activités mentales. Par ailleurs, le passage d’une approche 2D à une approche 3D aide à reconstruire en temps réel toute l’activité cérébrale. En réalité virtuelle, les chercheurs ont élaboré des techniques pour optimiser l’usage d’un très faible nombre de commandes et pour rendre plus facile l’apprentissage de l’utilisation de l’interface cerveau-ordinateur. Dans la pratique, la navigation avec une ICO peut en effet devenir fastidieuse, d’autant plus que la concentration baisse rapidement. La commande peut se faire de deux manières. Soit la personne imagine un geste qui implique une action (par exemple, dans un jeu vidéo, imaginer que l’on bouge la main droite peut signifier se déplacer vers la droite). Soit l’utilisateur réagit à une stimulation externe (par exemple, pour écrire, il focalise son attention sur une lettre parmi un alphabet affiché à l’écran ; le fait de flasher cette lettre va générer une onde cérébrale particulière).

 

De nombreuses applications possibles

Ces technologies offrent des applications prometteuses, notamment pour les handicapés moteurs (Photo : Application ludique en réalité virtuelle basée sur une séquence du film La Guerre des étoiles – Copyright CNRS/H. Raguet). Les personnes atteintes du syndrome d’enfermement peuvent ainsi écrire par la pensée. Il existe également de nombreuses possibilités dans les domaines du jeu vidéo, de la robotique et de la domotique. En neurologie, OpenVibe permet de se soigner grâce au neurofeedback. Le patient peut voir en temps réel une représentation de sa propre activité cérébrale et trouver ensuite le moyen de la moduler. Des chercheurs de l’Inserm travaillent par exemple sur les troubles de l’attention, les douleurs liées aux membres amputés ou encore le traitement des acouphènes.

Notes
 (1) Interfaces cerveau-ordinateur ou ICO ; en anglais : Brain-computer interface ou BCI

 – Télécharger le logiciel – En savoir plus (avec notamment une vidéo très intéressante de l’Inria)

Le buthanol, un biocarburant ? L’idée semble faire toujours recette

Un lecteur a porté à ma connaissance l’information selon laquelle Diesel Brewing veut fabriquer du buthanol à l’usage des voitures à partir de déchets laitiers.Le buthanol est principalement utilisé comme solvant mais Diesel Brexing veut l’utiliser comme biocarburant. En cas de réussite, il s’agirait de la première compagnie au monde à fabriquer du buthanol selon un procédé de gazéification, d’après Andy Aden, ingénieur en chef au centre pour la biomasse du Laboratoire National des Energies Renouvelables à Golden dans le Colorado.Une fois le procédé vérifié, Raines et son équipe espèrent construire à l’échelle commerciale des usines utilisant 100 tonnes de déchets par jour et produire 7,58 millions de gallons de buthanol par an.Les compagnies chimiques comme Celanese (mon ancien employeur), Dow, BASF, Eastman, les compagnies pétrolières comme BP et Shell et de nombreuses autres à travers le monde, produisent du buthanol. Ils disposent d’un budget de recherche important et aimeraient plus que tout au monde trouver un procédé qui permettrait de fabriquer directement du buthanol par gazéification.

Fabriquer du buthanol par gazéification
Ces compagnies ont probablement testé des milliers de catalyseurs possibles et des gens ont consacré leur carrière entière à ce problème. Le défi vient du fait que le syngas (produit à partir de la gazéification) n’aime pas former du buthanol. On peut en former une petite partie directement mais le monoxyde de carbone (CO) aime former toutes sortes de combinaisons autres qu’un alcool C4 comme le buthanol.Le méthanol n’est pas le problème. On peut aussi fabriquer de l’éthanol, ce que Range Fuels a l’intention de faire (bien qu’il faille presque toujours faire aussi avec le méthanol). Mais le procédé de sélection échoue dramatiquement dès qu’on s’approche des alcools plus élevés. On peut alors s’estimer chanceux si 5 % du produit est du buthanol. Plus généralement, le taux est de 1 à 2 %.Pourquoi suis-je stupéfait ? Toute cette technologie est connue. Cela fait 50 ans que de multiples grosses compagnies dépensent des millions de dollars à cet effet. Mais les rendements très bas contrarient l’idée d’une économie basée dessus. Pourtant, une petite compagnie en Orégon parvient encore à trouver des investisseurs.

Des rendement très bas
La seule façon pour Diesel Brewing de se lancer a été de passer par le programme de crédit d’impôt sur l’énergie de l’Orégon, l’un des plus solides du pays. Le crédit d’impôt compte pour 50 % de leur capital de 1,4 millions de dollars, selon Stapleton.J’ai passé plusieurs années de ma vie à travailler sur le buthanol et j’en connais bien la chimie. La fabrication de l’éthanol passe habituellement par une étape de gazéification. Mais il faut ensuite faire réagir le syngas avec du propylène et hydrogénérer le produit. Cela produit du buthanol normal et de l’iso-buthanol avec un fort taux de sélectivité et de conversion. Je pense qu’il est hautement improbable de produire sur le plan économique du buthanol par gazéification de la biomasse. La chimie ne fonctionne pas.Alors, métanol ou alcools mixtes ? Quoi qu’il en soit, ces deux alternatives semblent meilleures d’un point de vue économique. 

Sources :
Robert Rapier est directeur ingénierie chez Accsys Technologies PLC et anime le blog R-Squared Energy Blog.Pour plus de détails, voir le rapport suivant : Ethanol thermochimique via gazéification indirecte et synthèse d’alcool de biomasse lignocellulosique

Sources d’énergie : dangers et risques

Un des objectifs du progrès est d’essayer de réduire au maximum le risque d’accident, mais cela a un coût. Lorsqu’un accident arrive, malgré toutes les précautions prises, les conséquences sur l’opinion publique sont bien différentes selon la nature de la source d’énergie. Un accident dans une centrale nucléaire, par exemple, n’a pas le même impact que celui qui se produit dans une mine de charbon. Le charbon est une source d’énergie dont l’extraction souterraine est particulièrement dangereuse. Quand la France exploitait ses mines de charbon, de nombreux accidents sont arrivés. Le plus grave d’entre eux s’est produit le 10 mars 1906 à Courrières dans le Pas-de-Calais. Officiellement, 1.099 personnes ont alors péri, sans doute plus car un nombre indéterminé de travailleurs non déclarés travaillaient dans la mine, notamment de jeunes enfants.Les mauvaises conditions de travail et une direction qui ne pensait qu’aux profits ont conduit à ce lourd bilan. Il s’en suivit une grève importante férocement réprimée par les autorités. Malgré tout, ce mouvement social a conduit à l’instauration du repos hebdomadaire dont tout le monde profite aujourd’hui. Si le charbon ne tue plus en France, il le fait encore dans les pays qui l’exploitent.

Risques et conséquences sont très différents d’une source d’énergie à l’autre

Les autres sources d’énergie présentent aussi des dangers et des risques d’accidents. L’ENSAD (energy-related severe accident database) est une base de données élaborée au Paul Scherrer Institute, en Suisse, qui répertorie en particulier le nombre d’accidents ayant causé plus de 5 morts immédiats, entre 1969 et 2000, lors de l’exploitation d’une source d’énergie.

Le tableau ci-dessous montre quelques résultats pour les principales sources d’énergie. La comparaison entre les différentes sources est intéressante car elle montre que les risques et les conséquences sont très différentes d’une source d’énergie à l’autre, et souvent pas en rapport avec la perception que le grand public peut en avoir (la colonne 2 montre le nombre d’accidents ayant causé plus de 5 morts entre 1969 et 2000 lors de l’exploitation des sources d’énergie indiquées dans la colonne 1. La colonne 3 montre le nombre total de morts causés par ces accidents).

Source d’énergie Nombre d’accidents (plus de cinq morts) Nombre de morts
charbon 1 221 25 107
pétrole 397 20 218
gaz naturel 135 2 043
GPL 105 3 921
hydraulique 11 29 938
nucléaire 1 31
TOTAL 1 870 81 258

On observe que les combustibles fossiles dominent largement le nombre d’accidents ainsi que le nombre de morts. On remarquera le grand nombre de victimes dans le secteur de l’hydraulique, alors que le nombre d’accidents est faible. Cela vient de la catastrophe qui a eu lieu en Chine en 1975 : la rupture du barrage de Bangiao et d’autres barrages à Shimatan. On estime qu’il y a eu 26.000 morts lors de cette catastrophe. La France a connu deux catastrophes liées à la rupture de barrages : la première en 1895 au Bouvet (100 morts), et la seconde en 1959 à Malpasset (421 morts). Pour le nucléaire, il s’agit de la catastrophe de Tchernobyl qui a eu lieu le 26 avril 1986. Si l’exploitation des sources d’énergie est dangereuse, le risque n’est pas le même selon les conditions d’exploitation mises en place. La figure ci-dessous montre la répartition du nombre d’accidents et du nombre de morts dans des accidents d’exploitation de sources d’énergie entre 1969 et 2000 pour les pays de l’OCDE et hors OCDE : On constate que les accidents sont moins nombreux (26% du total) dans les pays de l’OCDE et que le nombre de morts est beaucoup plus faible (12% du total) par suite de meilleures conditions de travail et une meilleure prévention des risques.Malheureusement, exploiter l’énergie tue et tuera encore mais on peut réduire le nombre d’accidents et de victimes en améliorant la prévention. Cette énergie a toutefois aussi des effets positifs sur une grande partie de la population mondiale qui, sans elle, n’aurait pas le niveau ni l’espérance de vie qu’elle a aujourd’hui, même si cette ressource est souvent gaspillée.Par Christian Ngô, auteur pour Techniques de l’Ingéneiur En savoir plusAgrégé de l’Université et Docteur es sciences, Christian Ngô a fait de la recherche fondamentale en physique nucléaire pendant presque 20 ans à l’Université d’Orsay et au CEA/Saclay. En mai 2008, il a créé Edmonium Conseil.

Le Gifi au stade du prototype

Des chercheurs du NICTA (National information and communication technology Australia) de Melbourne ont récemment présenté le prototype du Gifi, une technologie qui pourrait bien détrôner le Wi-Fi, en partie au moins. Cette puce minuscule (5 mm de côté) permet de transmettre des données audio et vidéo jusqu’à 5 gigabits par seconde. D’après le NICTA, son débit est dix fois supérieur au débit théorique maximum du Wi-Fi, pour un coût de production dix fois moins élevé et une consommation très faible. Le Gifi présente aussi l’avantage d’exploiter des fréquences autour de 60 GHz, très peu utilisées, contrairement à celles du Wi-Fi (2,4 et 5 GHz), ce qui évite les interférences.
Une portée de 10 mètres
La puce développée par le NICTA peut s’intégrer dans des objets de petite taille comme un téléphone portable ou un appareil photo. On pourra par exemple télécharger très rapidement un film sur son assistant personnel dans un magasin, rentrer chez soi et le regarder sur sa télévision haute définition, sans effectuer de branchement. Cependant, contrepartie liée à l’utilisation d’une fréquence élevée, sa portée reste limitée à 10 mètres, un point faible face au Wi-Fi. Le projet Gifi a mobilisé une équipe de quinze chercheurs (dont le chef de projet Stan Skafidis, voir photo ci-contre, © NICTA) pendant quatre ans. Les recherches ont été effectuées en étroite collaboration avec des industriels tels qu’IBM, Synopsys ou Cadence.

Le secteur photovoltaïque français, en plein essor, doit se structurer au plus vite

Le premier rapport sur l’état du secteur photovoltaïque en France, réalisé par le cabinet d’études et de conseil PricewaterhouseCoopers vient d’être publié. L’étude, réalisée en collaboration avec 32 acteurs clés de la filière en France, révèle un développement du secteur au niveau national. Un essor sur ces deux dernières années, dû en partie à un contexte très favorable. Ainsi, d’une capacité annuelle d’environ 7 MW en 2005, le photovoltaïque attient 100 MW en 2008, et table sur une capacité supplémentaire de 200 à 300 MW pour 2009. Pour 2009, on observerait donc une croissance de 100 à 200 % ! Une dynamique très positive, pour un marché qui bénéficie d’une demande très favorable depuis le début de l’année.Cet essor, qui s’accélère aujourd’hui, dépasse même les prévisions d’objectifs faites lors du Grenelle de l’environnement. Autre observation surprenante, l’impact de la crise financière sur la croissance de la filière est à peine perceptible. Des indices favorables qui expliquent en partie le développement du secteur, même si la France reste relativement loin derrière les deux leaders européens que sont l’Allemagne et l’Espagne.

200 % de croissance en 2009 ?
Mais au-delà du contexte favorable, deux autres éléments expliquent la croissance observée depuis 2007. Le développement de l’industrie, lié depuis 2007 en majeure partie aux installations résidentielles, est aujourd’hui porté par des installations ayant une taille plus substantielle. Par ailleurs, le bilan économique des installations s’avère positif , pour les utilisateurs : les tarifs de rachat pour les installations intégrées au bâtiment restent certes élevés, mais les conditions générales d’ensoleillement sont, en France, bonnes voire excellentes (surtout dans le sud). La baisse du prix des modules, liée à la surproduction au niveau international, et les innovations technologiques constituent aussi des éléments favorables pour l’avenir à court terme du photovoltaïque. Seul bémol : des efforts sont encore à mener pour accompagner cette croissance. A cet égard, il est impératif que les acteurs de la filière, qui est encore très jeune, structurent le secteur. Car si la croissance porte, comme prévu, ce secteur pendant toute l’année à venir et probablement jusqu’en 2010, dès 2012, l’évolution risque d’être beaucoup plus incertaine. En effet, à partir de cette date, le maintien des tarifs de rachat cessera, et des aménagements par segments sont susceptibles de se produire à partir de 2010.

L’enjeu des années à venir : la structuration
De plus, comme le souligne les experts de PricewaterhouseCoopers, il n’est pas exclu que le secteur subisse un développement similaire à celui qu’a subi l’éolien. Benjamin Cros, en charge de l’énergie chez PricewaterhouseCoopers, explique : « l’avenir dépendra de facteurs aussi bien externes qu’internes au marché français. Ainsi, l’amélioration de l’accès au crédit, le développement du marché dans d’autres pays, la consolidation attendue dans l’aval de la filière et le niveau de soutien du gouvernement seront les facteurs clés pour l’avenir du photovoltaïque en France. » Ainsi, la France doit absolument structurer la filière, le plus rapidement possible, si elle veut profiter au mieux de l’essor actuel. En aval, les auteurs de l’étude préconisent pour le secteur une consolidation, aux dépens des sociétés qui n’ont pas bâti une croissance pérenne par manque de fonds, de moyens techniques ou financiers. A l’heure actuelle, ce sont plus de 180 sociétés françaises qui sont regroupées en aval de la production. La pression concurrentielle croissante, et la baisse des tarifs de rachat dès 2012, devraient participer de facto à cette consolidation.

Aborder au mieux l’après 2012
En ce qui concerne l’amont de la filière, le marché est très concentré. Le développement de la filière française profite à l’heure actuelle majoritairement aux fabricants étrangers. Ainsi, comme l’explique Alain Calmé, associé en charge du conseil en stratégie chez PricewaterhouseCoopers : « la France doit se doter d’une stratégie de développement ambitieuse pour que cette industrie attire des capitaux étrangers et soit une pourvoyeuse pérenne d’emplois. De nombreuse opportunités existent en amont, notamment en ce qui concerne la recherche et développement ».Au final, la filière photovoltaïque, portée pour l’instant par une somme de facteurs favorables, devra absolument (et rapidement) se structurer si elle veut continuer son développement et s’imposer sur le marché après 2012. 

Le tournant vert des circuits automobiles

Les chercheurs de l’université de Warwick ont mis au point une voiture de course composée de matériaux durables. James Meredith, le directeur de ce projet, explique que le but est de démontrer que mettre au point un véhicule performant et respectueux de l’environnement n’est pas incompatible. 

Dans quelle mesure cette voiture de course est-elle écologique ?
Nous avons fait de notre mieux pour fabriquer la voiture la plus écologique possible. Les principaux composants sont tous dérivés de fibres végétales mélangées à des résines : la carrosserie provient de pommes de terre, le volant de carottes, le siège de fibres de lin et de mousse d’huile de soja ; la suspension, les freins, les pneus, le châssis sont tous fabriqués à partir de matériaux durables. Quant au carburant, le moteur est conçu pour rouler aux résidus de chocolat et à l’huile végétale.

Pourquoi cet intérêt pour la course automobile ?
Nous avions déjà orienté nos recherches sur une précédente génération de voitures de courses. Notre initiative avait été très bien reçue et nous avions découvert que la voiture de course était un très bon vecteur pour faire passer un message. Elle est plus glamour et ludique qu’une voiture de route et a tendance à davantage attirer l’attention.

Ce procédé peut-il être appliqué à la Formule 1 ?
Un certain nombre de composants utilisés ici conviennent à tout type de course automobile. La législation est l’obstacle principal. Dans la Formule 1, on est tenu d’utiliser le nec plus ultra. Hors, le nec plus ultra n’est en général pas écolo. Mais si la loi le permet, rien n’empêchera dans le futur d’utiliser des composants recyclables.

Peut-on imaginer de commercialiser une voiture qui roule au chocolat ?
Je ne connais pas les quantités de résidus de chocolat disponibles dans le monde… le soucis, c’est qu’aujourd’hui l’offre reste très limitée. Toutefois, on peut envisager dans le futur de faire pousser des cultures spécifiquement dédiées à cet usage. Lorsqu’un produit devient populaire, les prix diminuent proportionnellement à l’augmentation de la demande. Je suis persuadé que cela reste possible, mais pour l’heure, ce ne serait pas rentable.Par James Meredith. L’auteur a conduit divers projets de recherche pour Ford sur les biocarburants, notamment le LPG et le CNG, avant de rejoindre l’Université de Warwick pour mener des recherches sur l’ingénierie tissulaire osseuse. 

Un nouveau béton absorbe le CO2

Le béton traditionnel ou béton Portland est fabriqué en chauffant du calcaire et de l’argile à 1.500 °C dans des fours géants. La quantité considérable d’énergie que nécessite l’action de chauffer la matière première, ainsi que les réactions chimiques qui ont lieu pendant la décomposition du calcaire, produisent, d’après l’Agence internationale de l’énergie, quelque 0,83 tonne de CO2 pour une tonne de ciment.Lorsque le ciment est mélangé à l’eau dans la construction, chaque tonne absorbe 0,4 tonne de CO2. Reste une production nette de 0,4 tonne de CO2 pour chaque tonne de ciment utilisée. Novacem (une société issue de l’Imperial College of London) développe actuellement un ciment basé sur l’oxyde de magnésium, un dérivé de silicates minéraux. Chauffé à la température bien inférieure de 650°C, il émet moins de 0,5 tonne de CO2 par tonne de ciment produite. Mais le point crucial est sa capacité à absorber de grandes quantités de CO2 lorsqu’il durcit.

0,4 tonne de CO2 émis pour une tonne de ciment utilisé
L’équipe de Novacem travaille avec les consultants WSP Group, Laing O’Rourke et Rio Tinto Minerals pour évaluer la faisabilité du matériau et tester son efficacité. Si les tests confirment qu’il peut-être utilisé dans des projets de construction à grande échelle, elle espère le voir sur le marché d’ici cinq ans au plus.MPA Cement (autrefois British Cement Association) juge cette échéance exagérément optimiste. Mike Taylor, responsable en chef des normes, signale qu’il peut être difficile de trouver suffisamment de minéral de silicate de magnésium pour fabriquer du ciment à l’échelle commerciale au Royaume-Uni, bien que le minéral se trouve dans le monde en abondance. Il alerte également contre l’impact environnemental de son transport jusqu’au site de fabrication.Mais c’est la qualité du ciment comme matériau de construction qui sera la clé de son succès. Pour Taylor, à moins d’être capable de remplacer le ciment Portland sur une grande échelle, il n’aura pas d’impact significatif sur le changement climatique.Par Giovanna Dunmall, journaliste indépendante spécialisée dans le voyage, la consommation éthique, l’environnement, l’architecture et le design. Elle écrit entre autres dans Green Futures, un magazine indépendant publié par Forum for the future.  

Chiffre clé : 100 GW d’éolien en Chine en 2020

Deuxième pays consommateur d’énergie au monde derrière les Etats-Unis, La Chine est en passe de devenir le premier émetteur de CO2 au monde. Une performance peu enviée, malgré des efforts dans le sens d’une utilisation plus importante des énergies renouvelables.La Chine avait affiché un double objectif pour l’année 2008 : d’abord, une meilleure maîtrise de sa consommation énergétique. Ensuite, une baisse substantielle des émissions de gaz à effet de serre. Dans les faits, bien que l’effort entrepris par le pays en faveur d’une revalorisation des énergies propres soit perceptible, il ne propose pour l’instant qu’une alternative très limitée au charbon.Ainsi, aujourd’hui, le mix énergétique chinois est composé à 70 % du charbon, et cette ressource sera l’atout énergétique principal chinois pour les décennies à venir. Ceci dit, la Chine a décidé d’accélérer son développement en matière d’énergies renouvelables, et en particulier en ce qui concerne l’éolien. Ainsi, l’objectif initial de 30 GW, planifié pour 2020, a été revu à la hausse. La Chine ambitionne désormais un total de 100 GW en 2020, avec un objectif global de 40 % d’énergies renouvelables dans le mix énergétique pour 2040.

30 % de croissance par an !
L’objectif peut paraître irréalisable, mais l’éolien chinois, dont le potentiel effectif est aujourd’hui de 12 GW, est en pleine croissance. La Chine est devenue l’an dernier le sixième producteur mondial d’énergie éolienne, et le parc éolien chinois connaît une croissance de 30 % par an depuis 2000. Et cette croissance va augmenter dans les années à venir. En effet, les projets de parcs éoliens ne cessent de se multiplier, la Chine étant doté de sites à fort potentiel (les côtes chinoises sont très étendues, et le territoire intérieur abrite des plaines désertiques où les vents sont réputés pour leur violence).Outre les régions du Liaoning, du Xinjiang et du Guangdong, qui ont d’ores et déjà connu un développement rapide en la matière, les provinces du Jiangsu, du Hebei et de la Mongolie intérieure sont sujettes à de grands projets éoliens qui commencent à voir le jour. D’ici 2010, ce sont une trentaine de nouveaux projets qui devraient voir le jour dans ces trois régions, notamment propices à l’implantation d’installations offshore.

Le plus important marché éolien du monde ?
Les Chinois ont décidé de passer la vitesse supérieure, et constituent déjà l’un des plus importants marché au monde pour l’éolien dans les années à venir. Les fabricants de turbines sont d’ailleurs passés de 32 à 58 à la fin de l’année 2006, et la concurrence sur ce secteur s’annonce terrible pour les années qui viennent. Selon les prévisions, les fabricants d’éoliennes chinois devraient bientôt figurer parmi les leaders mondiaux, et la Chine être une locomotive pour le secteur dans son ensemble.Steve Sawyer, membre du conseil mondial de l’énergie éolienne, va même plus loin : « Ils veulent clairement devenir le plus grand marché au monde, et le seront sauf si la situation démarre bientôt aux Etats-Unis. » Une progression à suivre, donc. Pour l’instant, on estime le potentiel chinois total, sur la terre ferme, à près de 300 GW. 

Organisation du marché de l’électricité : que penser des propositions du rapport Champsaur ?

Fortement appuyée par la Commission européenne et acceptée par la France après des combats d’arrière-garde, l’ouverture du marché de l’électricité devait provoquer une baisse des prix. Le bilan de cette ouverture a été désastreux en France [1].Dès 2006, les gros consommateurs français qui avaient choisi de renoncer aux tarifs régulés pour bénéficier l’ouverture du marché ont dû renégocier des contrats en forte hausse. Pour en atténuer les conséquences, le gouvernement a permis à ces consommateurs de revenir à un tarif proche du tarif régulé et a inventé le « tarif réglementé transitoire d’ajustement du marché » ou TARTAM [2].Face à des concurrents qui hurlaient à la mort, EDF a été sommée de leur céder une fraction de sa production nucléaire à des conditions négociées au cas par cas. Le marché européen de l’électricité est devenu de facto la seule référence de prix, avec au moins deux conséquences fâcheuses : d’abord, la fiction d’une « plaque de cuivre » européenne (les lieux où sont produits et consommés les kWh ne comptent pas) [3]. Ensuite, l’électricité intermittente et non garantie (éolienne et solaire), est réputée valoir ce que vaut le prix du marché [4].En ce qui concerne le premier point, la confusion introduite entre les mécanismes d’élaboration des prix de marché et les échanges physiques d’électricité est d’autant moins excusable qu’elle est commise par des organismes réputés compétents (ADEME et RTE).

Respecter les engagements européens
L’ouverture à la concurrence s’est avérée très difficile compte tenu de l’avantage considérable que constitue le parc nucléaire pour EDF. Les palliatifs mis en œuvre par le gouvernement pour limiter la casse ont été fortement contestés par la Commission européenne et même par les organismes français veillant au respect des règles de la concurrence.Face à cette situation, le gouvernement a chargé une commission présidée par Paul Champsaur de lui présenter des propositions d’organisation du marché de l’électricité. Cette organisation devra respecter les engagements européens de la France en matière d’ouverture du marché de l’électricité et de libre concurrence, mais éviter que les consommateurs français ne soient pénalisés. Ces propositions font l’objet d’un rapport publié en avril 2009, dont nous reproduisons les recommandations les plus fondamentales [5].Elles reposent pour l’essentiel sur le partage à un prix régulé de la production du parc nucléaire « historique » (c’est-à-dire les 58 centrales mises en service entre 1978 et 2000) entre EDF et ses concurrents, au prorata de leurs parts de marché intérieur, et sur le maintien des tarifs régulés pour les petits consommateurs.

Des points essentiels laissés de côté
La concurrence est censée garantir que le coût très bas de la production de base sera répercuté sur les gros consommateurs, et que les tarifs réglementés le seront sur les petits consommateurs. Le rapport évoque quelques-unes des précautions à prendre pour qu’un tel système fonctionne. Il précise que sa mise en œuvre permettrait de supprimer le TARTAM, de simplifier, et de rendre lisible, l’ensemble du marché français de l’électricité tout en respectant l’ouverture du marché européen.Maintenant, que faut-il penser de ces propositions ? De toute évidence, il s’agit d’un exercice de haute voltige entre objectifs apparemment contradictoires, à savoir le respect des directives européennes que la France a acceptées, et la valorisation au bénéfice des consommateurs français du parc nucléaire. On ne peut que saluer bas ce travail, et se féliciter que la référence de prix en France redevienne celle des parcs nucléaire et hydraulique, qui assurent 90 % de la production. Mais un certain nombre de points essentiels semblent avoir été laissés de côté.Ainsi, les tarifs de vente proposés pour l’électricité nucléaire « oublient » les remboursements des emprunts contractés pour la construction du parc et écartent toute provision pour le renouvellement du parc (alors que ce renouvellement est explicitement souhaité). Ils oublient même le financement de la recherche préparant l’avenir, comme si une entreprise pouvait vivre sans recherche et sans développement ! Ceci place EDF en position d’infériorité par rapport à ses concurrents, puisque seule EDF prend le risque du développement du nucléaire.

EDF en position d’infériorité ?
La répartition de la production nucléaire étant faite au prorata des parts du marché français, la part actuellement exportée par EDF (près de 10 % de la production) semble ne pas devoir être prise en compte. Si tel était le cas, cela priverait EDF de recettes importantes, au détriment également de la balance commerciale française.EDF étant obligée de vendre la plus grande partie de sa production à un prix régulé largement inférieur au prix de marché, ce prix régulé devrait aussi servir au calcul de la compensation de service public (CSPE) accompagnant l’obligation d’achat des électricités éoliennes et solaires.Le gouvernement ayant annoncé son intention d’ouvrir le débat au Parlement sur l’organisation du marché de l’électricité à l’automne prochain, on ne peut que souhaiter que ces différents points soient pris en considération.Par Pierre Bacher En savoir plusAncien élève de polytechnique, Pierre Bacher est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur. 

Notes :
 [1] Ceci était prévisible : cf. Marcel Boiteux « Les ambiguïtés de la concurrence », Revue Futuribles n° 331 (juin 2007). Comme l’explique le nota 5 du rapport de la commission : « L’influence sur les prix de l’électricité française des prix dans les pays limitrophes de la France, notamment l’Allemagne, peut s’expliquer de la façon suivante : « tant que les capacités d’interconnexion ne sont pas saturées, la « plaque continentale » se comporte plus ou moins comme un marché unique avec un coût marginal qui n’est qu’exceptionnellement le coût variable du nucléaire. La compétitivité de la production française en base ne se reflète donc pas dans les prix français observés du fait des interactions entre le marché français et les autres marchés européens, notamment le marché allemand ».[2] Communiqué Sauvons le Climat : « Vous ignoriez le TARTAM, quelle lacune » (avril 2009 www.sauvonsleclimat.org) [3] P. Bacher -« Le contenu en CO2 du kWh électrique » – Techniques de l’ingénieur, La lettre Energies (novembre / décembre 2008)[4] P. Bacher -« L’impact du Grenelle de l’environnement : la production d’électricité » – tribune dans Techniques de l’Ingénieur du 2 mars 2009[5] Rapport sur l’organisation du marché de l’électricité et synthèse des recommandations : « La commission préconise d’attribuer à tout fournisseur un droit d’accès à l’électricité de base à un prix régulé reflétant les conditions économiques du parc nucléaire historique pour un volume proportionné à son portefeuille de clientèle sur le territoire national. En ce qui concerne l’accès régulé à la production d’électricité en base aux conditions du parc historique :
  • les volumes devraient être attribués, en suivant l’évolution du portefeuille de clients.
  • le prix devrait couvrir l’ensemble des coûts présents et futurs (charges d’exploitation, investissements de maintenance et d’allongement de la durée de vie des centrales) supportés par EDF sur son parc historique, sans augmenter la dette.
  • la forme des contrats devrait prendre en compte l’essentiel de l’avantage compétitif tiré du parc nucléaire actuel et notamment du fait qu’il produit plus en hiver qu’en été.
Pour les petits consommateurs, la commission préconise le maintien des tarifs régulés ».  

La France mise sur les nanotechnologies

Comme l’avait annoncé Nicolas Sarkozy en décembre, Valérie Pécresse a présenté mardi le plan Nano-Innov doté de 70 millions d’euros. Cette somme sera principalement consacrée à la création de centres d’intégration des nanotechnologies à Saclay, Grenoble et Toulouse, dans lesquels la recherche fondamentale travaillera avec les entreprises. 46 millions d’euros permettront la construction de deux bâtiments sur le site de Saclay, pôle qui possède le plus fort potentiel en recherche fondamentale, couplé à un tissu industriel majeur. A Grenoble, il s’agit de consolider le pôle et d’élargir les domaines d’application. Quant à Toulouse, l’objectif est de structurer la recherche autour de l’aéronautique et du spatial, de la pharmacie et des composants pour les transports.

Les centres d’intégration devront mettre en commun leurs équipements, leurs méthodologies et leurs ressources humaines pour concevoir, fabriquer et tester des produits de plus en plus complexes. Les trois centres fonctionneront comme des « hubs » pour d’autres pôles de dimension nationale comme Lille (IEMN – Institut d’électronique, de microélectronique et de nanotechnologie), Besançon (Femto – Franche-Comté électronique mécanique thermique et optique – Sciences et technologies), ou encore Lyon, Marseille, Strasbourg et Bordeaux. Au niveau européen, les trois pôles s’intégreront notamment par l’intermédiaire de l’Institut européen de technologie (EIT), autour de grands thèmes comme la médecine, les transports, l’énergie, le climat et la complexité des technologies.

original

Atelier de nanofabrication au CEA Saclay – © C.Dupont/CEA

Un comité de pilotage

Par ailleurs, 7 millions d’euros seront attribués à des équipements technologiques dans le cadre du programme Recherche technologique de base (RTB) confié à l’Agence nationale de la recherche et 17 millions d’euros seront consacrés aux appels à projet. Pour assurer une bonne répartition des budgets, la ministre de l’Enseignement supérieur et de la recherche a mis en place un comité de pilotage qui représente le monde des nanosciences, celui les nanotechnologies et les industriels. Chargé de la rédaction des appels d’offre et de la coordination des travaux de recherche, ce comité aura d’autres rôles comme le transfert de technologies entre la recherche publique et l’industrie ou encore le développement de formations dans le domaine des nanotechnologies, favorisant l’émergence d’une nouvelle filière industrielle française.

Une révolution industrielle

Comparant la position de la France pour les publications (3.526 en 2006 soit 5,6 % des publications mondiales) à sa position pour les brevets (290 brevets en 2005 soit 2 % des brevets mondiaux), Valérie Pécresse a déploré la faible capacité de la France à transformer les recherches en réussites industrielles. Ce nouveau plan en faveur des nanotechnologies devrait permettre de combler cette faiblesse pour participer au mieux à ce que la ministre qualifie de révolution industrielle. Mais cette révolution à venir commence à susciter bien des inquiétudes. Un débat public sera organisé à l’automne sur l’impact des nanotechnologies sur la santé et l’environnement.

Energies renouvelables : l’UE n’atteindra pas les objectifs fixés pour 2010

Le 24 avril dernier, la Commission européenne publiait les conclusions d’un rapport sur les énergies renouvelables au niveau européen. Et le bilan est plutôt négatif. Ainsi, le rapport de la Commission estime que « l’Europe risque de ne pas atteindre ses objectifs de 2010 en matière d’énergies renouvelables, en dépit de la législation en vigueur, des recommandations, des exhortations et même des procédures d’infraction engagées à l’encontre de certains Etats membres. »Les prévisions sont donc loin d’être optimistes. Certains chiffres permettent de mieux se rendre compte du décalage existant entre les objectifs fixés par la Commission et la réalité du terrain. Ainsi, la directive sur l’électricité renouvelable, adoptée en 2001, fixait à l’UE un objectif de 21 % d’électricité renouvelable en 2010. En 2006, sa contribution était de 15,7 %, et les prévisions tablent, au mieux, sur 19 % en 2010. A l’heure actuelle, seules l’Allemagne et la Hongrie ont atteint l’objectif commun pour 2010.Les autres informations contenues dans les conclusions du rapport révèlent la réalité de la répartition de l’effort des pays européens en matière d’énergies renouvelables. On apprend ainsi que la France, la Suède, l’Allemagne, l’Italie, l’Autriche et l’Espagne sont les pays où l’on produit le plus d’électricité renouvelable.

Les bons élèves : l’Allemagne et la Hongrie
Le problème, note la Commission, est que la croissance des énergies renouvelables, qui doit beaucoup à l’éolien, est le résultat des efforts d’un nombre limité de pays.Plus embêtant, le pouvoir exécutif européen reproche aux pays membres de n’avoir pas échangé entre eux de garanties d’origine d’électricité, ce qu’encourageait la directive pour faciliter l’atteinte des objectifs. Les conclusions apportent d’ailleurs des éléments de compréhension quant aux raisons qui pourraient expliquer tout retard vis-à-vis des objectifs fixés par l’UE. Parmi ces raisons, on trouve l’absence de règles adéquates en matière de connexion au réseau, mais aussi la limitation de la capacité du réseau à accueillir l’électricité renouvelable.

Trop de disparités dans les tarifications
Aussi, la commission insiste sur la multitude des autorités à consulter et la complexité des procédures, qui bloque la mise en place rapide de projets parfois simples à mettre en chantier. Outre les difficultés rencontrées en matière de réseau et de règlementation, le bas blesse au niveau des tarifications : en effet, ces dernières varient de manière incontrôlée et opaque en ce qui concerne les connexions. Enfin, les discriminations observées à l’égard des petits producteurs d’électricité, par rapport aux grands producteurs d’énergie conventionnelle, sont aussi un frein au développement de la production d’électricité renouvelable.Du coup, la Commission européenne a engagé, depuis 2004, plus d’une soixantaine de procédures d’infraction à l’encontre de certains pays européens, dont 16 font toujours l’objet d’investigations. 

Quel est le coût réel de la décarbonisation de l’économie ?

Sir David King, l’ancien conseiller scientifique du gouvernement britannique a, dans une interview accordée à la BBC, mis en doute le chiffre de 2 % évoqué par le gouvernement. Ce chiffre, qui représente le surcoût de la facture moyenne d’électricité censé financer la décarbonisation, apparaît très sous-estimé. Pour lui, le coût réel est bien supérieur aux estimations du gouvernement, de même que le seraient les conséquences financières, si on ne s’occupait pas de la menace du changement climatique.En ce qui me concerne, j’ai la forte intuition que David King a raison. La quasi totalité de notre électricité provient aujourd’hui des énergies fossiles et des centrales nucléaires. Nous nous sommes engagés à multiplier par 10 la contribution des énergies renouvelables avant 2010. Pour suivre les recommandations du Comité sur le Changement Climatique (dont la mesure phare est la décarbonisation des sources d’approvisionnement en électricité d’ici 2030), le Royaume-Uni doit :

  • finaliser la capture du CO2 dans les centrales à charbon et à gaz ;
  • développer fortement les énergies renouvelables ;
  • investir fortement dans les centrales nucléaires ;
  • investir à une échelle sans précédent dans un réseau amélioré et élargi.
Le prix de l’électricité sera bien plus élevé en 2030
Maintenant, la seule question est de savoir quel sera le coût réel de ces opérations. Les données suivantes peuvent aider à y voir plus clair :a) La capture et le stockage du CO2 pour les centrales à énergies fossiles : on estime généralement l’augmentation du coût de production d’un megawatt/heure d’électricité à 30 £. Au prix de gros actuel du megawatt (50£), le coût de la production d’électricité à partir d’énergies fossiles augmentera de 60 %.b) Les énergies renouvelables : l’éolien onshore reviendrait moins cher, mais il semble aujourd’hui que seul le offshore soit politiquement acceptable. Une croissance substantielle des capacités de production est possible. Les coûts peuvent baisser, mais si on y inclut le coût du réseau de redistribution (qui doit prendre en compte l’intermittence de l’énergie), le coût de l’éolien offshore sera supérieur de 30 à 40 £ par megawatt/heure au prix de gros actuel.c) Les centrales nucléaires : contrairement aux estimations très optimistes du Comité sur le Changement Climatique, tout laisse à penser que des centrales nucléaires solides et sûres reviendront à au moins 25 £ de plus par mégawatt/heure que les centrales à énergie fossiles actuelles.d) Le coût d’un nouveau réseau : nous avons besoin d’un nouveau réseau de transmission entre l’Ecosse et l’Angleterre et entre cette dernière et la Scandinavie, les Pays-Bas et la France. L’objectif principal est de faciliter les flux entre les zones où l’énergie est abondante et celles où elle est rare. Quand le vent ne souffle pas, le Royaume-Uni a besoin d’énergie en provenance de Norvège. On peut s’attendre à une augmentation de 5 à 10 £ par megawatt/heure.

Admettre que les problématiques environnementales et énergétiques ont un impact sur le coût de la vie
Ces chiffres suggèrent que les prix de gros du marché de l’électricité vont augmenter de 50 à 80, voire 90 £ par megawatt/heure dans les 20 ans à venir. L’impact pour les entreprises et les particuliers sera probablement autour de 33 % (en hausse) sur la facture d’électricité. Cela coûtera en soi l’équivalent d’1 % du PNB actuel. Il est utile de signaler que l’approvisionnement en électricité ne représente qu’un tiers des émissions totales de CO2 du Royaume-Uni.Mais ce coût élevé pour une industrie électrique à faibles émissions de CO2 est un prix nécessaire à payer. Il ne faut pas comparer le prix de l’électricité fossile aujourd’hui et le prix de l’électricité dans une économie à faibles émissions de CO2. Le bon raisonnement consiste à évaluer le coût probable de l’énergie dans 10 ou 20 ans. Personne ne peut douter que les prix de l’électricité seront bien plus élevés en 2030 qu’aujourd’hui. Le gouvernement ferait mieux de l’admettre une bonne fois pour toutes plutôt que de s’entêter à croire que les problèmes liés au changement climatique et à la sécurité énergétique peuvent être traités avec un impact minimal sur le coût de la vie.En savoir plusChris Goodall est l’auteur, entre autres, de 10 Technologies pour sauver la planète. Il est également éditorialiste pour The Independant on Sunday et le Guardian. Lire son blog.  

Supergrid : un réseau éolien offshore européen

Une bagatelle dans le contexte actuel ! Le projet consiste bel et bien à bâtir un réseau qui s’étendrait sur des milliers de kilomètres carrés et connecterait entre eux des parcs éoliens en mer situés de part et d’autres des rives est et ouest de l’Europe du nord.Seraient reliés entre eux les parcs du Royaume-Uni, d’Allemagne, des Pays-Bas et des États baltes, créant ainsi ce que O’Connor a qualifié, du haut de l’éolienne offshore d’où il donnait sa conférence de presse, de nouvelle ultime frontière. Mainstream prévoit un projet similaire en Méditerranée occidentale.Prêchant pour une sécurité énergétique européenne indépendante des « problématiques d’approvisionnements russo-ukrainiens », il a fait l’apologie d’un développement exponentiel de l’offshore pour atteindre les objectifs de réduction des émissions de carbone dans les 40 années à venir.

Le pari d’un développement exponentiel de l’offshore
La pierre angulaire de la création de Supergrid repose, selon lui, sur une flotte de navires capables de rester en mer par tous les temps, 24 h sur 24 et 365 jours sur 365, de façon à ériger non-stop parcs éoliens sur parc d’éoliens. Le coût de chaque navire est chiffré à 250 millions d’euros. O’Connor a demandé à l’Union Européenne de financer 80 % du montant, évalué à près de €6 milliards d’euros, alors que la Banque Européenne d’Investissement prendrait en charge le reste.A peine redescendu de son éolienne, O’Connor a conclu sa déclaration par ces mots : « Le monde financier n’est pas encore prêt à consentir de tels investissements et ne comprend pas encore vraiment l’urgence de la tâche », invitant les représentants de la Banque Européenne d’Investissement à lancer une consultation entre l’industrie du transport maritime et le monde des affaires pour financer la flotte.L’ampleur des travaux nécessitera aussi la construction de deux nouveaux ports au Royaume-Uni pour gérer le nombre de turbines et autres structures qui devront être envoyées vers les parcs éoliens. Le potentiel existe pour faire de ces deux ports des pôles d’excellence en matière de R&D et de fabrication.Mais Mainstream n’a pas arrêté sa réflexion là et O’ Connor a poursuivi sur ce qu’il appelle les supernodes, volets importants du plan de Supergrid. Les supernodes seraient situés en haute mer, reliés au super réseau et fonctionneraient comme des gares de triage permettant de collecter et de redistribuer l’électricité, selon le principe des multi-flux d’énergie.

Un projet porteur d’emplois
Les supernodes sont prévus aussi bien dans le projet Europe du Nord que dans le projet en Mediterranée. « L’électricité ainsi acheminée d’un système juridique à l’autre fournirait peut-être enfin la réponse à la fragmentation du marché qui mine l’Europe », a expliqué O’Connor. Et d’ajouter : « Il faudra sans doute pour que cela se réalise que l’U.E. se dote d’un opérateur offshore spécifique. Cette vaste entreprise de longue haleine exige un cadre européen. Mais elle nécessite aussi le génie du secteur privé pour innover, prendre des risques, et fournir les solutions techniques à moindre coût ».Le calendrier arrêté à la suite de ces déclarations s’établira sur un premier plan quinquennal de gouvernance, suivi d’une autre période de cinq ans dédiée à la construction des navires installateurs, suivi d’une fenêtre de 30 ans pour achever le super réseau et le relier aux réseaux terrestres. Un des grands mérites de ce gigantesque projet réside aussi dans les milliers d’emplois qu’il prévoit de créer à travers l’Europe du nord comme du sud. Un plan et d’autres explications détaillées sur Supergrid en français sont consultables ICI. 

Sources :
Energies de la merLe Dr Eddie O’’Connor a fondé et dirigé l’Irlandais Airtricity Holdings Ltd.spécialisé dans les énergies renouvelables de1997 à janvier 2008. En février 2008, il a fondé Mainstream RenewablePower. Il est secrétaire de l’Association européenne de l’énergie éolienne.