Les ePassports ne sont pas sans faille

Un ePassport s’appuie sur une puce contenant des fichiers élémentaires EF (Elementary Files) représentant :

  • EF.DG1 : informations personnelles (nécessaire)
  • EF.DG2 : image au format JPEG ou JPEG2000 (nécessaire)
  • EF.DG 3 à 14 : empreintes digitales, rétiniennes ou autres fichiers (optionnel)
  • EF.DG15 : crypto anti-copie (optionnel)
  • EF.SOD : marqueur d’intégrité pour les fichiers EF.DG (nécessaire)
  • EF.COM : index des fichiers disponibles (nécessaire)
Au delà, le standard de l’International Civil Aviation Organization (ICAO) [1] spécifie les mécanismes de sécurité suivants :• Authentification passive (PA) (nécessaire) :– But : l’intégrité des données– Méthode : EF.SOD stocke des hash des fichiers EF.DG ainsi qu’une clé publique. Les hash sont signés par une clé privée.• Authentification basique d’accès (BAC) (optionnelle) :– But : la confidentialité des données– Méthode : l’authentification est nécessaire avant l’accès aux données ; la clé est égale au numéro de document + date de naissance + date d’expiration ; les données d’authentification sont encodées en 3DES et les messages contiennent des MACs (MAC8).• Authentification active (AA) (optionnelle) :– But : empêcher la copie et la duplication– Méthode : EF.DG15 contient une clé publique ; sa contrepartie privée est stockée dans une zone inaccessible de la mémoire de la puce ; l’authenticité de la puce est validée par la signature réussie d’un challenge avec la clé privée.
La méthode d’attaque
Si la puce est protégée par le mécanisme d’authentification active (AA), il faut retirer le DG15 (Active Authentication Data Group) de l’EF.COM, comme l’a démontré Joroen Van Beek pendant le BlackHat 2008 [2], puis placer la valeur du paramètre ‘STRIP_AA’ à True. Ce type d’attaque fonctionnera sur tous les équipements fonctionnant sur l’implémentation définie par l’ICAO.Etant donné que les personnes des contrôles frontaliers n’ont pas de culture informatique et sécurité, qu’ils travaillent à la chaîne et que c’est la machine de contrôle qui fait tout le travail, il deviendrait alors possible, malgré une erreur relevée par l’équipement de contrôle, de passer la frontière. En effet, le logiciel, en cas de non-conformité du ePassport suite à la modification du EF.DG15, se contentera de le signaler par un message d’alerte. Mais le passeport étant malgré tout intègre, le contrôle restera valable.Ca n’est pas la première faille qui est détectée dans les ePassports et sûrement pas la dernière. Le standard défini par l’ICAO est trop laxiste car il laisse en option les mécanismes d’authentification avancée et donc, logiquement, les implémentations sur les appareils de contrôles ne les exigent pas. Avec l’obligation d’utiliser les authentifications les plus poussées sur l’intégralité des passeports de la planète, cette faiblesse disparaîtra. Par Laurent Levier, Expert en sécurité des systèmes et des réseaux, CISSP CISM

Notes :
[1] http://www.icao.int/icao/fr/atb/sgm/MRTD/tagmrtd15/documentation/index_f.html[2] https://www.blackhat.com/presentations/bh-usa-08/van_Beek/bh_us_08_van_Beek_ePassports_Reloaded_Slides.pdf

Au secours les bugs attaquent !

Récemment, trois chercheurs israéliens, dont Adi Shamir, l’un des inventeurs de RSA (Rivest-Shamir-Adleman), ont montré dans un article publié à la conférence CRYPTO 2008, que ces bugs, bien qu’inoffensifs pour la plupart des applications courantes, peuvent se révéler désastreux pour la sécurité de certains cryptosystèmes [1]. Ils ont étudié en particulier les effets d’un bug de multiplication qui n’affecterait qu’une seule paire d’entrées a et b dont le produit serait calculé de façon incorrecte. Remarquons que sur un multiplieur à 64 bits et pour des entrées aléatoires, le produit ab n’a qu’une probabilité égale à 2^(-128) d’être effectivement calculé. Concrètement, il est extrêmement improbable que ces deux entrées soient un jour multipliées sur un ordinateur. Pourtant, un attaquant qui en aurait connaissance pourrait mettre à mal de nombreux algorithmes cryptographiques fonctionnant sur un tel processeur.

Un simple bug de multiplication fatal à RSA
Rappelons comment fonctionne le cryptosystème à clé publique RSA. Chaque utilisateur possède une clé publique connue des autres utilisateurs et une clé privée connue de lui seul. La clé publique est constituée d’un couple (n,e) où n est le produit de deux grands nombres premiers p et q (la taille de n est typiquement de 1.024 ou 2.048 bits), et e est un nombre premier avec (p-1)*(q-1). La clé privée est le couple (n,d) où d a la particularité que pour tout nombre M compris entre 0 et n-1 : (M^e)^d = M mod n.Ce cryptosystème permet deux fonctionnalités, le chiffrement et la signature. Ainsi, pour chiffrer un message M à destination d’un utilisateur dont la clé publique est (n,e), on calcule : C = M^e mod n, et on lui envoie C. Le destinataire peut alors retrouver M en calculant : M = C^d mod n.Pour signer un message M, le signataire utilise sa clé privée (n,d) et calcule tout d’abord l’image h(M) du message par une fonction de hachage cryptographique h telle que SHA1, puis calcule la signature : S = h(M)^d mod n.N’importe quel autre utilisateur peut alors s’assurer de la validité de la signature à partir de la clé publique (n,e) en vérifiant que : S^e = h(M) mod n.Dans tous les cas, le calcul secret consiste en une exponentiation modulaire à la puissance d, l’exposant secret, modulo n. La sécurité de RSA repose sur l’impossibilité de factoriser le module n, c’est-à-dire sur l’impossibilité de retrouver p et q à partir de la clé publique (n,e) et de résultats d’opérations de déchiffrement ou de signature. Toute méthode permettant de factoriser n réduit à néant la sécurité et permet de décrypter des messages ou de contrefaire des signatures.Lorsque le processeur comporte un bug de multiplication, il est possible que certains calculs RSA produisent un résultat faux. Par la suite nous noterons toutes les valeurs erronées avec un astérisque (M*,…). Toutes les attaques par bug consistent à utiliser le résultat erroné d’un calcul impliquant l’exposant secret d, qu’il s’agisse d’un déchiffrement M* = C^d mod n ou d’une signature S* = h(M)^d mod n. Les attaques par bug dépendent de la façon dont est implémentée l’exponentiation à la puissance d lors du calcul secret. La méthode naïve consiste simplement à effectuer une exponentiation rapide (type « Square and Multiply ») modulo n. Cependant il existe une méthode plus efficace utilisant le fameux « théorème des restes chinois ». Cette méthode consiste à calculer C^d modulo p et modulo q séparément, puis à en déduire le résultat modulo n, et permet d’accélérer le calcul d’un facteur 4 par rapport à une implémentation classique. Lorsque cette méthode est utilisée, il est possible de factoriser le module n si l’on obtient le résultat d’un calcul correct modulo p et incorrect modulo q (ou l’inverse). En effet, supposons qu’un attaquant ait accès au résultat faussé M* du déchiffrement d’un chiffré C correspondant à un message M. Comme le calcul était correct modulo p, on a M = M* mod p. Par contre le résultat est incorrect modulo q, si bien que M est différent de M* modulo q. Il résulte de ces deux égalités que le plus grand diviseur commun de ((M*)^e-C) et n est égal à p. Ainsi, on peut factoriser n par un simple calcul de PGCD.Reste à savoir comment l’attaquant peut provoquer une telle erreur lors du déchiffrement ou de la signature. Lorsque le calcul secret se déroule sur un processeur possédant un bug de multiplication affectant le produit ab, ceci est possible en demandant le déchiffrement d’un chiffré bien choisi ou la signature d’un message adéquat. Rappelons que les nombres en jeu ont une taille de 1.024 ou 2.048 bits, et sont donc constitués d’un très grand nombre de mots de 32 ou 64 bits. Lorsque l’on calcule la puissance d’un nombre X de cette taille, tous les mots de 32 ou 64 bits de X sont multipliés entre eux à une certaine étape du calcul. Par conséquent, lorsque X contient à la fois le mot a et le mot b, le produit ab intervient et fausse le résultat final. Supposons que les facteurs p et q de n sont tels que p < q. L'attaque (représentée sur la Figure 1) consiste à choisir pour chiffré C dont on va demander le déchiffrement un nombre compris entre p et q (tout nombre suffisamment proche de la partie entière de la racine carrée de n convient) et contenant les deux mots a et b dont le produit est calculé incorrectement. La première étape du calcul de C^d par le théorème des restes chinois consiste à réduire C modulo p et modulo q. Comme C < q, C n'est pas modifié lors de la réduction modulo q et contient donc toujours les deux mots a et b, et par conséquent le résultat du calcul de C^d modulo q est erroné. En revanche, comme C > p, la réduction modulo p modifie complètement et de façon aléatoire le nombre, si bien que Cp = C mod p n’a qu’une probabilité très faible de contenir a et b. Par conséquent le calcul de C^d mod p est juste. On peut alors factoriser n comme expliqué précédemment.

Les versions plus sophistiquées sont également menacées
L’attaque par bug que nous venons de voir pour le cas particulier de l’implémentation par le théorème des restes chinois peut être généralisée à d’autres implémentations, notamment les algorithmes d’exponentiation classiques de type « Square and Multiply ». Dans ce cas l’attaque devient plus complexe et il faut plus qu’un seul chiffré choisi comme pour l’attaque précédente. Ainsi, pour attaquer RSA avec des clés de 1.024 bits où le déchiffrement est effectué avec l’algorithme d’exponentiation « Left-to-Right », il faut 2^10 chiffrés choisis ou 2^56 clairs connus. L’attaque consiste à déduire chacun des bits de l’exposant secret d un à un en soumettant un chiffré bien choisi pour déchiffrement et en analysant si le résultat est correct ou non.Par ailleurs, même lorsque RSA est utilisé avec la méthode OAEP (Optimal Asymmetric Encryption Padding), qui décrit comment formater un message, en incluant l’aléa qui est censée protéger des attaques à chiffrés choisis, il est encore possible d’effectuer une attaque par bug, mais de complexité nettement supérieure.Remarquons que les attaques décrites peuvent être difficiles à mettre en œuvre car ce sont des attaques à chiffrés choisis. Mais elles ne sont pas impossibles, car de l’information peut tout de même parvenir à l’attaquant (par exemple la plate-forme peut renvoyer un message d’erreur si le résultat du déchiffrement était mal formaté, etc.).Par ailleurs, les attaques par bug peuvent également s’appliquer à d’autres types d’algorithmes cryptographiques, tels que l’algorithme de Pohlig-Hellman (un système de chiffrement algébrique à clé secrète), aux systèmes basés sur les courbes elliptiques, ou encore à certains algorithmes de chiffrement par bloc utilisant la multiplication comme opération élémentaire tels que IDEA, MARS ou RC6.

Les contre-mesures sont possibles
Comment se protéger des attaques par bug ? La protection la plus efficace consiste naturellement à vérifier le résultat du calcul secret. Ainsi pour une signature S, on vérifie que l’on a bien S^e = h(M) mod n. Cependant cette méthode augmente sensiblement le temps de calcul et nécessite la connaissance de la clé publique par le dispositif qui calcule la signature ou qui déchiffre, ce qui n’est pas toujours le cas. Une technique alternative consiste à rendre le calcul secret « aléatoire ». Ainsi, pour déchiffrer un chiffré C correspondant à un message M, on peut par exemple choisir un entier r aléatoire, puis calculer C’ = C.r^e = (M.r)^e mod n. On applique alors la procédure de déchiffrement à C’ (et non C) pour obtenir (C’)^d = ((M.r)^e)^d = M.r. Il ne reste alors plus qu’à diviser le résultat par r pour retrouver le message M. Cette technique (appelée « blinding ») empêche l’attaquant de contrôler la valeur d’entrée de l’algorithme de déchiffrement ou de signature, et contrecarre efficacement les attaques précédemment décrites. Dans tous les cas, les implémenteurs devront avoir ces nouvelles attaques à l’esprit lors des futurs développements de cryptosystèmes.Par Yannick Seurin, Ingénieur de recherche en cryptographie

Notes
[1] E. Biham, Y. Carmeli, et A. Shamir, Bug Attacks, CRYPTO 2008, p. 221–240, 2008.[2] D. Boneh, R.A. DeMillo, et R.J. Lipton, On the Importance of Checking Cryptographic Protocols for Faults, EUROCRYPT 1997, p. 37 – 51, 1997. systèmes d’information,[[

Prestations de cryptologie : quel Etat contrôle quoi ?

Nous utilisons quotidiennement de plus en plus d’appareils mobiles. Il ne s’agit pas seulement de téléphones ou d’ordinateurs portables, mais aussi de téléphones intelligents et d’assistants personnels. Or la plupart utilisent des fonctions cryptographiques, tant pour la transmission de données que pour leur stockage. Certains sont même capables de chiffrer les communications téléphoniques.Or, du fait de leurs fonctions cryptographiques, ces appareils sont considérés comme embarquant des technologies sensibles par beaucoup de pays. Importer de tels appareils peut être réglementé par les Etats. Petit tour du monde des règles à respecter.

Voyager à l’intérieur de l’Union européenne
Les principes généraux de l’Union sont la liberté de circulation des biens et des personnes. Mais les Etats peuvent restreindre l’utilisation de la cryptologie sur leur territoire. Cependant, si certains pays comme la France, la Lettonie ou la Pologne imposent des contrôles sur les importations de produits de cryptographie, aucun Etat ne restreint ni ne contrôle l’usage de la cryptographie. Il en va de même pour la Suisse ou la Norvège.Ainsi, il est possible de voyager librement avec des appareils sans fil contenant des fonctions cryptographiques à l’intérieur de l’Union européenne.

Quitter l’Union européenne
L’exportation de produit de cryptologie est réglementée dans la plupart des pays. L’Union européenne s’est dotée depuis le 22 juin 2000 d’une réglementation commune, le règlement 1334/2000. En vertu de l’annexe 1 catégorie 5 Partie 2 note 2, les produits qui accompagnent leur utilisateur ne sont pas soumis à un contrôle avant la sortie du territoire de l’Union. L’utilisation peut être personnelle ou professionnelle dans la mesure où le règlement ne distingue pas utilisateurs professionnels et non professionnels.Ce règlement et cette exception sont en vigueur dans tous les pays de l’Union européenne.

Importer et utiliser dans un pays en dehors de l’Union européenne
Amérique – Océanie
Les pays de cette zone ne contrôlent pas l’importation de produit de cryptographie. Il est par conséquent possible d’y entrer sans déclarer les appareils sans fil. De même l’utilisation n’est soumise à aucune restriction légale.Enfin, il est possible de ressortir sans difficulté de ces pays car s’ils sont membres de l’arrangement de Wassenaar. Ils appliquent la même exception que les pays de l’Union européenne. Tel est le cas des Etats-Unis, du Canada, de l’Australie, de la nouvelle Zélande ou de l’Argentine. Les autres pays n’appliquent pas de contrôle sur les exportations de produits contenant des fonctions cryptographiques.

Afrique
Certains pays africains surveillent l’importation et l’utilisation d’appareil mobile contenant des fonctions cryptographiques.Le Maroc et le Sénégal pratiquent une politique de contrôle sur l’importation des produits de cryptologie et ne créent pas d’exception pour les produits pouvant accompagner leur utilisateur. Par conséquent, le voyageur d’affaires et le touriste peuvent être considérés comme des importateurs. Dans ces pays, il est donc conseillé de s’adresser aux autorités compétentes avant son départ. L’Agence Nationale de Réglementation des Télécommunications est chargée de ces problèmes au Maroc, l’Agence de l’Informatique de l’Etat (ADIE) au Sénégal. Dans ce dernier pays, les décrets d’application de la loi 2008-41 du 20 août 2008 ne sont pas encore publiés et il est possible que des exceptions pour les voyageurs soient prévues.Le cas de la Libye est différent. L’importation de produit susceptible de constituer une menace à la sécurité nationale nécessite l’approbation de l’administration des armées libyenne et ce, quel que soit le contexte. L’utilisateur individuel ou l’importateur devra présenter une demande d’approbation. Les autorités libyennes considèrent cependant que des produits cryptographiques à faible longueur de clé ou « grand public », installés sur les ordinateurs portables ou d’autre type d’appareil mobiles, ne sont pas assujettis à approbation préalable. La réglementation Angolaise laisse planer un doute car les importations temporaires ne sont pas spécifiquement visées. Il est donc difficile de dire si le visiteur va être contrôlé et ce qu’il risque. En, Algérie, une autorisation de l’Agence de Réglementation des Postes et Télécommunications est exigée afin de s’assurer que le produit ne représente pas une menace pour la sécurité nationale. Cependant, les produits à faible niveau de chiffrement et les produits grand public sont exemptés de ce contrôle.

Asie
Les pays asiatiques de l’ex Union soviétique, à savoir Azerbaïdjan, Ouzbékistan, Turkménistan, Kazakhstan, Tadjikistan n’ont pas une réglementation explicite sur les appareils mobiles contenant de la cryptographie. Ces pays réglementent et contrôlent les importations de produits de cryptologie mais aucune distinction n’est faite entre importation temporaire ou définitive et aucune exception n’est explicitement prévue pour les voyageurs. On peut aviser les douanes, mais cette formalité n’obéie pas à une procédure formelle. Seul le Kirghizistan requiert expressément une licence d’importation sous peine de sanction. Dans la partie moyen-orientale de l’Asie, Israël exerce un contrôle et demande aux voyageurs de justifier une utilisation professionnelle ou personnelle de leurs appareils sans fils. Les autorités israéliennes sont assez rigoureuses sur le contrôle afin d’empêcher l’entrée d’armement sur leur territoire.En Jordanie, la loi ne restreint pas formellement les importations temporaires, mais elle impose aux voyageurs d’obtenir un agrément écrit des autorités jordaniennes. Une circulaire de 2008 exempte les ordinateurs portables, les téléphones mobiles et les modems à raison de deux articles par personne. Cependant cette circulaire interne peut être révoquée à tout moment.En Asie du sud-est, le pays le plus problématique est la Birmanie. Les Etats-Unis et le Canada restreignent les exportations vers ce pays. Ainsi l’exportation de certains produits américains ou canadiens peut être prohibée. Ensuite, l’importation des ordinateurs est soumise à autorisation, et ce même si l’ordinateur n’embarque pas de logiciel de cryptographie. Il importe donc de s’enquérir auprès des autorités birmanes avant tout voyage vers ce pays.Enfin la Chine exige des visiteurs qu’ils déclarent leurs produits de cryptographie au cours de la procédure douanière précédant l’entrée sur le territoire. Certains logiciels système et bureautique très courants ne sont pas forcément contrôlés, mais les autorités chinoises n’ont pas officialisé cette tolérance. Il importe donc de se renseigner avant le départ.

Autres pays d’Europe
La Biélorussie est vraisemblablement le pays le plus sévère. Tous les produits contenant de la cryptologie sont soumis à licence d’importation. Cette règle ne souffre aucune exception. La Russie exige des visiteurs une lettre expliquant l’objet, la durée de la visite, la description du matériel et des logiciels, des informations sur le fabricant du produit et autant que possible de la documentation technique peut être jointe. La lettre est à adresser au Bureau fédéral de sécurité (FSB). Ce dernier examine les demandes dans un délai d’un mois. Ainsi, s’il est possible de sortir de l’Union européenne avec n’importe quel type d’appareil sans fils, la Chine, la Russie, l’Algérie exercent toujours un contrôle sévère.Par Nicolas Magnin, juriste spécialiste de la SSI

Pour aller plus loin
Nicolas Magnin – Réglementation en matière de cryptologie, Editions Techniques de l’Ingénieur, base documentaire Sécurité des systèmes d’information, H 5060 traité (2008).Site de l’Ambassade de Russie en FranceSite de l’Ambassade de Chine en FranceSite de l’Ambassade du Maroc en FranceSite de l’Ambassade du Sénégal en France Site de l’Ambassade d’Algérie en France Site de l’Ambassade d’Israël en France et service commercial de l’Ambassade d’Israël en France

Quel avenir pour TETRA ?

Au milieu des années 90, deux groupes d’utilisateurs se sont penchés sur les communications mobiles numériques : l’un issu du monde des opérateurs de la sécurité et l’autre issu de celui des opérateurs de télécommunications publiques. Leurs contraintes opérationnelles et leur passé technique étaient différents. En Europe, ils ont donné naissance à 2 standards incompatibles, TETRA (TErrestrial Trunked Radio) et GSM. Aujourd’hui, face au besoin de capacités accrues pour le transfert de données mobiles, les industriels de la sécurité civile planchent sur une extension de TETRA vers les données haut débit. Mais est-ce bien opportun face aux solutions opérateurs déjà disponibles ?

Quels atouts opérationnels ?
Les utilisateurs principaux de TETRA sont les services d’urgence (pompiers, ambulances, hôpitaux, médecins), les forces de polices, mais également les gestionnaires d’aéroports, de flottes de véhicules ou encore de grands sites industriels comme les raffineries. Alors que le GSM est structuré pour servir des dizaines de millions d’abonnés, un réseau TETRA sert de quelques dizaines à quelques dizaines de milliers d’abonnés. Mais il présente de sérieux atouts par rapport à l’analogique.Les systèmes analogiques précédents présentaient plusieurs défauts :
  • Les canaux radio de communication, alloués pour tout le temps d’une mission ne pouvaient pas être réutilisés par une autre lors des silences de la première ;
  • Les canaux pouvaient être interceptées grâce à des « scanners ».
Le passage à la radio numérique a permis de corriger ces défauts par :
  • L’amélioration de l’efficacité spectrale (bit/Hz/s) ;
  • Le partage dynamique des canaux entre différentes missions ;
  • Le chiffrement des données sur la base de clefs associées par mission.
TETRA offre des modes opératoires spécifiques des communications critiques :
  • Sûreté de fonctionnement ;
  • Accès rapide au canal radio ;
  • Possibilité de communiquer hors de portée de l’infrastructure (Direct Mode) ;
  • Communications à l’alternat (mode talkie walkie ou Push To Talk – PTT) ;
  • Communications de groupe ;
  • Appels d’urgence ;
  • Ecoute de l’ambiance d’une situation ;
  • Ecoute « discrète » d’une mission ;
  • Gestion avancée des communications : mise en garde d’un appel (call hold), interdiction d’un appel (call barring), transfert d’un appel (call diversion).
Les 5 derniers modes reposent sur « le dispatcher ». Il est à la fois le gestionnaire des ressources du réseau et des personnels sur le terrain. Il définit les groupes, peut s’introduire dans toute communication, déclenche l’écoute d’ambiance, reçoit les appels d’urgences, transmets les ordres.

Quelle architecture ?
TETRA a été défini par l’ETSI [1] (European Telecommunications Standards Institute) pour être utilisé en Europe.Comme en GSM, un réseau TETRA est composé d’un réseau de contrôleurs, les SCN (Switchting Control Node) auquel sont connectées les stations radio (Base Station). Les SCN gèrent l’accès aux canaux radio, et assurent le routage des communications d’une BS à l’autre.L’ETSI a défini plusieurs interfaces afin d’assurer l’inter opérabilité des systèmes de différents manufacturiers (cf. Figure 1).
  • AI : l’Interface Air, pour la voix et la donnée (V+D). En mode trunk (TMO), où le mobile est connecté à une BS, et en mode direct (DMO), où il communique directement avec un autre terminal sans passer par une station de base.
  • TEI : l’interface de l’équipement terminal (TEI) est conçue pour faciliter le développement d’applications.
  • ISI : Interface Inter Systèmes (ISI) permet l’interconnexion des réseaux TETRA des différents constructeurs.).
L’infrastructure TETRA permet la mise en œuvre de réseaux virtuels chiffrés de façon, par exemple, à partager l’infrastructure entre plusieurs organisations comme c’est le cas en France avec le réseau ANTARES de la sécurité civile, appuyé sur le réseau ACROPOLE de la police nationale.

Quelles fréquences sont utilisées ?
Les bandes sous le GHz, offrant une bonne propagation, ont été allouées sans beaucoup de concertation entre les Etats. On retiendra pour mémoire le tableau suivant exprimé en MHz :TETRA utilise 4 canaux entrelacés dans une porteuse de 25KHz accédée en partage de temps (TDMA). Chaque canal offre un débit binaire net de 7.2Kbps. Il est possible, quoique très rarement implémenté, de transmettre des données sur les 4 canaux simultanément pour un débit binaire de 28.8Kbps. TETRA utilise une modulation différentielle par déplacement de phase en quadrature (π/4-DQPSK) et différents mode de codage fournissant par canal :
  • sans codage à 7.2 kbps ;
  • avec un codage 2/3 à 4. 8 kbps (mode protégé) ;
  • avec un codage 1/3 à 2.4 kbps (mode très protégé).
Sachant qu’en TETRA le codex voix utilise un débit binaire de 4,567 Kbits/s, la voix est donc naturellement transportée dans un canal codé 2/3.

La structure des trames radio
Une trame TDMA de TETRA dure 170/3 ms. Elle est formée de 4 trames radio de 85/6 ms transportant 510 bits de donnée chacune. On en déduit donc que le débit binaire brut est de 36 kbps. Du fait des bits de synchronisation et d’apprentissage du canal, le débit utile est bien de 28 kbps. 18 trames sont ensuite regroupées en une super trame. La 18ème (Control Frame ou CF) est réservée à la signalisation en mode circuit. Elle forme le Slow Associated Control Channel (SACCH) toujours disponible.

Quel marché ?
Bien que né en Europe, TETRA acquiert des parts de marché dans les régions Asie-Pacifique et Moyen-Orient. TETRA est présent dans 105 pays, dont 56 en dehors de l’Europe.D’après le TETRA MoU, en 2006 le marché global de TETRA se répartissait ainsi : Une étude rendue publique par l’ARCEP [2] montre que le marché est en croissance faible (5 %) depuis 2003 et probablement jusqu’en 2009. En France, pour l’année 2004, alors que le chiffre de 500 millions d’euros est généralement affiché, l’étude n’a trouvé que 300 millions d’euros dont 170 millions pour les intégrateurs et 130 millions pour les constructeurs. Le succès mitigé de TETRA s’explique par plusieurs facteurs :
  • Les utilisateurs satisfaits de leurs anciens systèmes analogiques amortis, hésitent à passer à un système numérique dont le surcoût n’est pas justifié par les nouveaux services rendus.
  • Le déploiement massif du GSM a fourni une alternative d’un coup attractif à la PMR, même s’il ne fournit pas, loin s’en faut, les services de sécurité avancé de TETRA.
A la demande des utilisateurs, et dans le but d’en attirer d’autres, TETRA a défini 2 nouvelles normes TETRA2 et TEDS offrant des bandes passantes supérieurs. C’est là une véritable avancée par rapport aux anciennes radios analogiques.

Quel avenir ?
Dans le cas d’une première installation d’un réseau PMR, TETRA présente de nombreux avantages par rapport aux technologies analogiques, notamment en ce qui concerne l’efficacité spectrale, la fiabilité et la richesse applicative des systèmes largement éprouvés depuis 10 ans. TETRA va donc continuer encore pour au moins 5 ans, à fournir une solution en bande étroite aux services PMR des nouveaux entrants. Toutefois, l’avenir de TETRA en remplacement des technologies analogiques passe par le large bande. Mais ce dernier est déjà largement concurrencé par le déploiement des réseaux 3G et 4G. L’objectif est de fournir les services de voix et de données critiques courtes sur TETRA, et les services large bande – vidéo, accès rapide à Internet, échange de données volumineuses (photographies hautes définition, plan de bâtiments) – sur la 4G (Wimax, LTE). Par Philippe Bereski, Alcatel-Lucent CTO

Notes
[1] ETSI TS 100 392-2 ( V3.1.1 2006-09), TETRA Voice plus Data (V+D) Part 2 – AIR Interface (AI)[2] Etude IDC France « Le marché des réseaux radio électriques » commandité par l’ARCEP (2006)Pour savoir plus : http://www.tetra-association.com/default.aspx

« IPv6 : la transition est de plus en plus urgente ! »

IPv6 est né il y a plus de quinze ans car l’Internet allait manquer d’adresses à plus ou moins long terme. Avec le recul, l’expérience tirée de sa standardisation et de son intégration dans les réseaux et les équipements permet de mettre en évidence les forces et les faiblesses du réseau Internet. Au moment où les ministères de la Recherche et de l’Industrie ont lancé une consultation sur l’Internet du futur, il est intéressant de faire le point sur le positionnement de ce protocole face aux évolutions du réseau.Si l’on se penche sur le passé, les prévisions de l’organisme standardisant les protocoles de l’Internet (l’IETF) étaient relativement exactes. En 1994, lorsque les travaux ont débuté, la fin des adresses IPv4 était prévue pour 2012 ; les calculs récents fixent la pénurie pour fin 2011. En revanche, la stratégie d’introduction d’IPv6 n’a pas été conforme aux prévisions de ses concepteurs. Les modèles initiaux se fondaient sur une transition douce basée sur une double pile. L’ensemble des machines aurait pu dans un premier temps à la fois dialoguer dans les deux versions du protocole pour assurer une compatibilité, puis IPv4 aurait été lentement supprimé du réseau. C’est l’une des raisons qui avait poussé à développer une nouvelle version « incompatible » avec l’existante, la double pile assurant la transition. Mais le conservatisme du monde des réseaux n’avait pas été bien mesuré. En effet, peu importe le protocole pourvu que l’on puisse communiquer. Tant qu’IPv4 a fonctionné plus ou moins correctement, personne ne s’est soucié des problèmes liés à la pénurie d’adresses. Aujourd’hui, comme la pénurie est appréhendable et que la qualité du réseau IPv4 va se dégrader, la transition est de plus en plus urgente et parfois plus complexe.

Connecter des objets dont le réseau n’est pas la caractéristique essentielle
Pour les applications traditionnelles ou l’Intranet, comme pour la consultation de pages Web plus ou moins enrichies ou du courrier électronique, IPv4 pourra être utilisé encore pendant de nombreuses années. Cependant, la transition doit être envisagée lors du renouvellement des équipements. Si les systèmes d’exploitation, les applications et les routeurs intègrent de mieux en mieux IPv6, la question reste d’actualité pour les autres ressources qui manipulent des adresses. Est-ce que les pare-feux sont ou seront compatibles avec la nouvelle version du protocole IP ? Qu’en est-il des outils d’administration du réseau ou d’authentification des utilisateurs ? Il faut également envisager les stratégies d’intégration d’IPv6 dans l’entreprise en définissant des plans de numérotation et des politiques de sécurité.Pour les applications innovantes ou actuellement non connectées à l’Internet, il est urgent de prendre en compte l’arrivée inéluctable d’IP. Historiquement, le protocole IP n’était pas le choix initial des opérateurs, ni pour les données, ni pour la téléphonie. De même pour les applications grand public comme la télévision qui avait misé sur d’autres standards. Néanmoins ces acteurs se sont ralliés à l’Internet, car la richesse offerte par les possibilités d’interconnexion globale a supplanté tous les autres critères techniques. La nouvelle vague IP va permettre de connecter des objets dont le réseau n’est pas la caractéristique essentielle. Certaines industries ont bien compris l’importance de cette nouvelle version du protocole IP. Ainsi, les travaux sur les réseaux de capteurs se font uniquement sur IPv6. Zigbee a récemment annoncé que sa pile protocolaire allait l’inclure. Le secteur de l’automobile a également fait ce choix pour les transports intelligents. Il ne faudrait pas que les industriels et en particulier les PME ratent cette intégration.

Communiquer avec un équipement se trouvant autour d’une position donnée
La levée de la contrainte sur l’adressage va changer le modèle architectural client/serveur où les serveurs sont peu nombreux avec des adresses publiques et les clients protégés derrière un NAT (Network address translation). Cela conduira à la dispersion des grosses fermes de serveurs en laissant les données plus proches de leur lieu de production, et à la communication entre machines.A plus long terme, du point de vue recherche, IPv6 ouvre également de nouvelles voies. L’espace de liberté que permet un adressage non contraint permet d’envisager plusieurs évolutions. Dans un premier temps, l’adressage peut se structurer différemment. Le routage géographique est l’évolution la plus plausible. Les réseaux de capteurs, les systèmes de transports intelligents (ITS) et les applications militaires ont besoin parfois d’atteindre un équipement se trouvant autour d’une position donnée et non plus une machine bien identifiée. Une autre évolution est liée à la généralisation des moyens d’accès. Un site ou un équipement sera connecté à plusieurs opérateurs offrant des services différents. Il n’existe à l’heure actuelle aucune solution satisfaisante pour gérer ce type d’architecture, même si des briques de base sont étudiées (SCTP, Shim6…) principalement autour d’IPv6. Il est clair que le réseau que nous aurons dans une dizaine d’années sera structuré de manière différente et avec des trafics différents. Se préparer maintenant permettra de saisir les nouvelles opportunités en termes d’applications et de business.Par Laurent ToutainParcoursMaître de conférences au département réseaux, sécurité et multimédia de Télécom Bretagne, Laurent Toutain est un expert reconnu du monde de l’Internet. Ses thèmes de travail sont la qualité de service dans les réseaux IP, la métrologie des réseaux Internet, les protocoles de routage et le protocole IPv6. Il dirige le pôle IP du département RSM qui s’intéresse principalement aux nouvelles architectures et services pour les réseaux domestiques. Editeur du site http://livre.g6.asso.fr, il a notamment écrit Réseaux locaux et Internet : Des protocoles à l’interconnexion (Hermes Science Publications, 2003, 844 pages). Egalement auteur pour les Editions Techniques de l’Ingénieur, Laurent Toutain collabore à la rubrique Electronique et TIC.

En 2008, les TIC ont résisté à la crise

Pour mesurer l’innovation, la direction générale de la compétitivité de l’industrie et des services utilise différents critères comme le capital risque, les créations d’entreprises ou encore les brevets. La 21e édition du tableau de bord de l’innovation fait apparaître la prépondérance de l’informatique et des secteurs innovants comme les biotechnologies. Certes, les créations d’entreprises dans les secteurs technologiquement innovants (TIC, nouveaux matériaux et biotechnologie) connaissent une baisse de plus de 10 % au deuxième semestre 2008 par rapport au même semestre de 2007. Cependant, l’informatique reste le secteur dominant, avec 76 % des créations d’entreprises malgré un nombre de créations d’entreprises qui baisse de 3,7 % sur un an. Autre constat : alors que le capital investissement connaît un recul de 20 % par rapport à 2007, le capital risque, qui finance la création de start up à fort potentiel de croissance, se porte bien. Ainsi, en 2008, ce segment progresse de 12 % en valeur par rapport à 2007. Avec 758 millions d’euros, le capital risque atteint même un record historique, si l’on exclu l’année 2000. Le secteur des biotechnologies demeurent en tête des entreprises concernées, avec également un retour en force d’Internet. Les plus gros tours de table concernent les cleantechs. Globalement, l’activité des secteurs technologiquement innovants n’est pas pour l’instant affectée par la crise. Ainsi, le chiffre d’affaires généré est toujours en croissance au deuxième semestre 2008, gagnant 6% par rapport au même semestre de 2007. Les services informatiques suivent le même mouvement avec une hausse de 5,8 % au deuxième semestre, une croissance toutefois moins forte que durant les précédents semestres.En revanche, malgré une bonne tenue de l’activité, les effectifs ont tendance à décroître. Dans le domaine des technologies de l’information et de la communication, ils ont enregistré une baisse de -0,5 %. Ce chiffre résulte principalement d’une situation plus difficile dans les télécoms (-1,3 %). Dans les services informatiques, les effectifs augmentent de 0,6 %, soit un rythme ralenti par rapport au premier trimestre (+2 %). Reste désormais à voir ce que réserve l’année 2009. Car si en 2008, le secteur des TIC affiche une certaine résistance face à la crise, la situation risque d’être plus contrastée dans le tableau de bord 2009. C.G.

Communications unifiées, source de compétitivité pour les entreprises ?

Messagerie instantanée, visioconférence, partage de documents, portail d’information, … les usages du grand public s’imposent peu à peu dans le monde professionnel. Face à ces nouveaux modes de communication, comment réagissent les entreprises ? Comment répondre aux attentes d’innovation et de flexibilité des collaborateurs, tout en contribuant à accroître la compétitivité de l’organisation ? Les nouvelles technologies de l’information et de la communication s’inscrivent aujourd’hui dans cette démarche, sous réserve d’avoir une approche fonctionnelle et orientée métier, et d’accompagner le projet par une démarche de conduite du changement.

Nouvelle génération, la communication 2.0
L’émergence du Web 2.0 dans la sphère professionnelle a favorisé l’adoption de nouveaux modes de communication : messagerie instantanée, gestion de présence, visioconférence, groupes de discussion, réseaux sociaux, … Internet met en relation des personnes du monde entier, supprime les barrières géographiques, culturelles et sociales, et encourage ainsi les échanges à distance et la collaboration.Avec l’arrivée de la génération Internet dans le monde professionnel, les entreprises doivent anticiper l’introduction de ces usages, afin de répondre à la demande de flexibilité des jeunes collaborateurs tout en maîtrisant les flux de communication, et donc la sécurité, au sein de leur organisation.

Création de valeur par les communications unifiées
Les communications unifiées regroupent un ensemble de services, modulaires, dont l’utilisation doit être adaptée aux besoins de communication de chaque collaborateur, et apporter de la flexibilité et de l’efficacité dans les échanges.Elles doivent ainsi être définies en fonction de profils utilisateurs, afin de s’inscrire dans leur mode de communication :
  • échanges de messages instantanés entre les membres d’une équipe de développement ;
  • capacité d’un commercial à être joint sur un numéro unique ;
  • connaissance de la disponibilité d’un expert (identification d’une compétence et non d’une personne) ;
  • remontée du dossier client après identification d’un appel ;
  • partage de documents au sein d’un groupe projet.
 

Intégration dans les processus métier
La standardisation des technologies offre l’opportunité d’intégrer les outils de communication dans l’environnement métier de l’entreprise. L’interface privilégiée de communication pourra être l’application métier, la suite bureautique, la messagerie électronique, un client mobile ou un portail Web. Cette intégration permet d’apporter de l’ergonomie pour les utilisateurs, d’optimiser les processus de l’entreprise, et de renforcer la compétitivité de l’organisation.

Des solutions adaptées aux attentes des entreprises
Cette convergence des flux voix / données / images a été favorisée par l’évolution des constructeurs vers un modèle d’éditeurs, et par l’arrivée de nouveaux acteurs issus du poste de travail. Les solutions proposées permettent à présent d’envisager différentes stratégie d’évolution, en fonction de la diversité des usages et du niveau d’intégration souhaité : l’enrichissement de la téléphonie par des applications à valeur ajoutée, ou la mise en œuvre d’une solution globale et homogène (la téléphonie devient un service).

Conduite du changement
Il est important de souligner qu’un projet de communications unifiées doit être accompagné d’une démarche de conduite du changement. Sans l’adoption de ces nouvelles technologies par les utilisateurs, les outils resteront inadaptés à l’organisation, le ressenti sera négatif et aucune valeur n’aura été créée pour l’entreprise. La communication sur les enjeux du projet, les bénéfices pour les utilisateurs et le planning général doit être amorcée dès la phase amont. Des actions de sensibilisation et de formation sont nécessaires pour créer un contact de proximité auprès des collaborateurs. Enfin, le changement doit être accompagné dans le temps, avec, entre autre, une assistance à distance et un suivi de l’appropriation des nouvelles solutions.

Un modèle de services
La souplesse apportée par les communications unifiées offre aux responsables informatiques l’opportunité de mettre en œuvre un système de communication flexible, qui s’adapte à la stratégie métier de l’entreprise. Ce nouveau modèle renforce la position des responsables informatiques en tant qu’acteurs de l’innovation, avec notamment la capacité de proposer un catalogue de services aux utilisateurs, d’optimiser les processus de communication au sein de l’organisation et d’en renforcer la compétitivité. Force de proposition auprès des directions métiers, les responsables informatiques participent directement à la création de valeur pour l’entreprise.Par Fanny Goyot, Responsable marketing communications unifiées au sein de Spie Communication

Interdiction des ampoules traditionnelles : une vraie fausse bonne idée

En 2012, il sera interdit de vendre des ampoules traditionnelles. Cette décision symbolique, adoptée à l’occasion du Grenelle, est de celle qui devrait nous amener à nous réjouir. Et pourtant, nous évaluons mal ses impacts environnementaux et économiques.Il faut avoir en tête que l’éclairage est utilisé beaucoup plus en hiver et en demi-saison qu’en été (on peut estimer trois-quarts du temps en France et en Europe) et que ceci correspond aussi aux périodes où on se chauffe. Il en résulte que les trois-quarts de l’énergie dépensée en éclairage contribuent au chauffage. Pour un logement moyen qui dépense 20.000 kWh en chauffage, l’éclairage peut représenter ainsi 5 à 10 % de l’énergie consommée.

Une mesure coûteuse
Une ampoule basse consommation coûte 10 fois plus qu’une ampoule traditionnelle. On nous dit qu’en Europe, ce sont 4,2 milliards d’ampoules à incandescence qui sont appelées à disparaître (en moyenne 10 par Européen).Sauf baisse importante des prix, cela coûtera entre 30 et 60 milliards d’euros étalés sur une période de 4 ans (autour de 100 euros par Européen). On nous dit que les économies d’énergie réalisées permettront de récupérer ces dépenses, grâce à la grande longévité des nouvelles ampoules : ce n’est que très partiellement vrai puisque, nous l’avons vu, l’énergie économisée pour l’éclairage devra, les trois-quarts du temps, être remplacée par une demande supplémentaire d’énergie pour le chauffage.Ainsi, une ampoule de 100 W utilisée 100 heures par an (soit 10 kWh dans l’année) ne permettra d’économiser que 2,5 kWh dans l’année (en été) et ne sera remboursée qu’en 50 ans ! Seules les ampoules allumées plusieurs centaines d’heures dans l’année mériteraient d’être remplacées !

Un impact industriel problématique
Face à l’urgence imposée, la grande majorité des ampoules basse consommation sera importée d’Asie (Inde, Chine, Vietnam). Les usines européennes devront se reconvertir (elles n’auront pas le temps d’ici l’automne 2009) ou fermer : à l’heure où on cherche par tous les moyens à sauver les emplois et à réduire le déficit de la balance commerciale, la précipitation européenne est injustifiable.

Un impact environnemental mitigé
En dehors des boutiques (et plus particulièrement des grandes surfaces) qui éclairent en journée toute l’année et consomment de l’électricité pour évacuer l’excès de chaleur apporté par l’éclairage, le bénéfice en termes de réduction des émissions de CO2 est très mitigé et dépend du mode de chauffage utilisé. Trois cas de figure se présentent :
  • Un chauffage au fioul ou au gaz (plus de 50 % des consommations de chauffage) : vous devrez augmenter un peu (quelques %) votre chauffage pour compenser la diminution de l’énergie de l’éclairage ; et vous augmenterez à la fois votre dépense de chauffage et les rejets totaux de CO2.
  • Un chauffage à l’électricité (environ 30 % des consommations) : le bilan est quasi nul, tant en électricité qu’en rejets de CO2 puisque vous allez remplacer les trois-quarts des kWh de l’éclairage par des kWh de vos radiateurs électriques.
  • Un chauffage par des énergies renouvelables avec ou sans pompe à chaleur (bois, solaire, géothermie ?) : c’est le seul cas où le remplacement des ampoules apportera une réelle diminution des rejets de CO2 qui vous sont imputables. En échange, vous brûlerez un peu plus de bois où utiliserez un peu plus votre pompe à chaleur.
Seul élément vraiment positif : la diminution de la demande d’éclairage des particuliers aura lieu en partie aux heures de pointe de la consommation (entre 18 et 21 heures) et contribuera à écrêter celle-ci.En définitive, les ampoules à basse consommation ne sont intéressantes, en termes d’économie d’énergie et de réduction des rejets de CO2, que dans des cas bien précis, qui ne représentent qu’une fraction de l’éclairage, probablement inférieure à 25 %. Les imposer systématiquement en retirant de la vente les ampoules traditionnelles est un double non-sens, économique et environnemental. C’est vraiment une fausse bonne idée. En revanche, il serait parfaitement légitime d’inciter les usagers à utiliser ces ampoules partout où elles présentent de l’intérêt, d’accompagner cette politique d’une réelle volonté d’éliminer à terme les chauffages au fioul et au gaz, et de donner une feuille de route claire aux industriels pour qu’ils puissent adapter leurs usines de fabrication. Personnellement, je me suis constitué un stock d’ampoules à incandescence me permettant de tenir quelques années. Pierre Bacher, ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur.

Du courant électrique sans émission de chaleur grâce à un nouveau semi-conducteur

http://www.bulletins-electroniques.com/actualites/60074.htmLes physiciens de l’Université de Würzburg ont récemment ouvert la voie à des ordinateurs qui n’auraient pas besoin d’être refroidis. Dans la revue scientifique américaine Science, ils présentent un semi-conducteur qui conduit le courant électrique sans émission de chaleur. Le nouveau semi-conducteur est composé de tellurure de mercure et de tellurure de cadmium et de mercure. Dans leur procédé, les physiciens combinent alternativement ces deux matériaux en très fine couche sur un wafer [1]. « Chaque couche mesure entre sept à dix nanomètres d’épaisseur », explique le Prof. Laurens Molenkamp [2].Afin d’analyser la conductivité du matériau stratifié, les physiciens ont façonné des structures sur sa surface à l’aide de techniques de lithographie. Ils y ont réalisé pour ainsi dire de minuscules fils comme par exemple en forme de « H ».Le Prof. Hartmut Buhmann [3] explique : « Il était à prévoir que le matériau se comporte comme un isolant sous certaines conditions comme par exemple dans le cas de très basses températures. En effet, ce type de comportement est traditionnel pour les semi-conducteurs à basse température ».Cependant, les physiciens ont été surpris de découvrir que leur matériau se comporte différemment : les électrons se sont réunis sur les bords de la structure en forme de H. A cet endroit, ils pouvaient également se déplacer, sans aucune résistance, et donc sans dégagement de chaleur. Selon les physiciens, cette particularité est unique et résulte des caractéristiques des matériaux et de la nature de leur stratification. La forme de la structure en « H » ou en « X » n’auraient pas d’importance.
 En-dessous de -170 °C
A noter tout de même que ce nouveau semi-conducteur n’est pas encore assez élaboré pour une utilisation quotidienne : en effet, l’effet se produit uniquement lorsqu’il se trouve à très basses températures, en-dessous de -170 °C. C’est pourquoi les chercheurs de Würzburg s’attachent désormais à développer d’autres matériaux dont l’effet pourrait apparaître à des températures plus élevées.Les ordinateurs classiques en fonctionnement émettent de la chaleur. A températures très élevées, le fonctionnement de leurs puces peut être affecté. Actuellement, il est donc nécessaire d’avoir recours à un système de refroidissement tels que le ventilateur pour les PC ou le conditionnement d’air dans les grandes installations informatiques. La chaleur est donc un facteur qui limite nettement le développement d’ordinateurs plus rapides et le nouveau semi-conducteur développé par le Prof. Harmut Buhmann pourrait être la solution qui permettra de s’en affranchir.Note : [1] En électronique et micro-électronique, wafer est le mot anglais qui désigne une tranche ou une galette de semi-conducteur.Contacts :– [2] Prof. Dr. Molenkamp Laurens, Chaire de physique expérimentale III de l’Université de Würzburg – tél : +49 931 888 4925, email : [email protected]– [3] Prof. Dr. Hartmut Buhmann – tél : +49 931 888 5778, email : [email protected] Source : Dépêche idw, communiqué de presse de l’Université de Würzburg – 17/07/2009Rédacteur : Romain CollignonOrigine : BE Allemagne numéro 446 (22/07/2009) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/60074.htm 

Les USA nouvel Eldorado de la production solaire

Shyam Mehta, analyste vedette de GTM Research, estime que la demande américaine de panneaux solaires sera multipliée par 7, passant de 342 MW en 2008 à 2,13 GW en 2012. Une tendance qui a poussé récemment des groupes étrangers comme les allemands SolarWorld et Schott Solar, ainsi que le japonais Sanyo, à installer des usines aux Etats-Unis. De même, le géant solaire chinois Suntech Power a dit vouloir installer une usine d’assemblage de 100 MW sur le sol américain début 2010, sans encore révéler l’endroit choisi.Les Etats-Unis devraient ainsi capter une part croissante de la production mondiale. Le pays a produit 499 MW de panneaux solaires en 2008, dont 70 % de cellules solaires à couches minces. 90 % de ces cellules à couches minces (composées de fines couches de métaux rares déposés sur un support de plastique, différentes des cellules solaires traditionnelles en galettes de silicium rigide) ont été fabriquées par les usines des groupes américains First Solar et United Solar Ovonic.

Selon l’analyste, les Etats-Unis produiront 2,7 GW de cellules ou panneaux solaires d’ici 2012, dont 66 % de cellules à couches minces (que ce soit celles qui utilisent du tellure de cadmium-tellure, du silicium amorphe ou un mélange cuivre-indium-gallium-selenium, dit CIGS).

Les fabricants de cellules CIGS devraient, selon lui, accroître leurs capacités de 32 MW en 2007 à 1,3 GW en 2012. Une prédiction particulièrement audacieuse car cette filière reste encore émergente, avec des producteurs naissants comme HelioVolt (Texas) qui vient d’ouvrir sa première usine, Ascent Solar (Colorado) qui construit sa première usine, ou encore Nanosolar qui a démarré sa production commerciale fin 2007. Solyndra a levé des fonds considérables et annoncé pour 2 milliards de dollars de contrats mais n’a encore rien indiqué de ses capacités de production. Il a reçu une garantie de prêt fédéral de 535 millions de dollars pour construire une énorme usine de 500 MW en Californie.

Pour ce qui est des cellules classiques au silicium polycristallin, l’analyste de GTM prévoit que les capacités de production passeront de 389 MW en 2008 à 1,23 GW en 2012.

Par Laurence Benhamou, auteur du site Green Univers

Ecoship, le fleuron écologique de la marine française

A la suite de l’avènement du Grenelle de l’Environnement, et des objectifs de réduction des émissions fixés pour 2008, la DCNS a décidé de réfléchir aux moyens de réduire la pollution engendrée par la flotte française chaque année. DCNS a donc lancé une démarche d’éco-conception globale, dont l’Ecoship est le point d’orgue.Navire de demain, l’Ecoship a pour objectif de réduire de moitié l’impact environnemental d’un navire militaire de référence. Mais ce n’est pas tout. L’amortissement du surcoût engendré ne doit pas excéder cinq ans.  » Au final, le bilan fait apparaître un gain de 57 % de l’impact environnemental global, et une réduction de la consommation de gazole de 50 %, ce qui permet l’amortissement sur 5 ans des surcoûts liés à l’écoconception « , affirme Philippe Goubaut, architecte d’ensemble pour les bâtiments de surface chez DCNS Ingénierie. Bien sûr, ce navire n’est à l’heure actuelle qu’un concept, mais quelques solutions retenues pour la mise en œuvre d’Ecoship sont déjà appliquées dans des programmes en cours, notamment en ce qui concerne l’optimisation de la consommation et du rendement, le respect des normes en matière de rejets et de déchets et la traçabilité des matériaux entre autres.

Prendre en compte l’impact environnemental global du navire
Une des particularités du travail réalisé par DCNS pour ce projet est la prise en compte de l’impact environnemental à un niveau global. Ainsi, le groupe de recherche a fait le bilan complet de l’impact environnemental du navire vert sur toute sa vie, jusqu’à prendre en compte l’énergie nécessaire pour produire les matériaux mis en œuvre dans la réalisation de ce bâtiment. Yves Pierson, responsable avant-projet chez DCNS Ingénierie, affirme ainsi que  » cette démarche est en avance sur les pratiques actuelle d’autres secteurs du transport, qui ne s’attachent qu’au bilan carbone de leur activité. « Au niveau de la conception, quatre axes de recherche ont permis d’aboutir au résultat actuel. Les voici :
  • Optimisation du flotteur : forme de la carène et matériau structurel ;
  • Optimisation hydro et aérodynamique ;
  • Energies propres ;
  • Optimisation énergétique.
Au niveau de la carène, des études ont été menées pour évaluer la puissance propulsive nécessaire, selon les modèles choisis. Au final, un monocoque nécessite une puissance supplémentaire d’environ 20 % par rapport au catamaran pour une vitesse de propulsion équivalente. La composition de la coque est également le fruit de réflexions prenant en compte le cycle de vie complet du bateau.

L’aluminium plutôt que l’acier
Ainsi, le matériau choisi, l’aluminium, présente un avantage majeur par rapport à l’acier, qui constitue les coques habituelles : en cycle initial, l’énergie nécessaire pour l’extraire est supérieure à celle de l’acier. Cependant, l’aluminium est plus léger et la réduction sensible de la masse de la coque permet le déplacement du navire avec une puissance propulsive moindre. Cet effet sur la consommation de carburant compense largement le surcoût environnemental en cycle initial. De plus, l’aluminium se recycle mieux que l’acier, puisque sa refonte nécessite moins d’énergie. » Au final, le surcoût de la structure aluminium est amorti sur environ 7 ans grâce aux économies de carburant « , précise Philippe Goubaut. Dernier point, au niveau des surfaces de pont. Le choix du catamaran permet à ces surfaces de pont d’être plus grandes. Pour l’Ecoship, ce choix a permis l’aménagement d’une grande aire « aviation », de spots pour des conteneurs et d’une plage arrière de dimension non négligeable.Au niveau hydrodynamique, les efforts ont été faits pour améliorer au maximum la pénétration dans l’eau de la structure. Ainsi, le choix d’étraves droites et fines pour remplacer des éléments d’habitude plus élancés et plus ronds participe à cette volonté de limiter les frottements au maximum. Des recherches portant sur la forme des superstructures ont également permis de réduire considérablement la traînée du navire, et donc d’améliorer son aérodynamisme. Autre innovation, basique mais très efficace, la mise en place de « volets actifs », qui créent une aérodynamique positive : concrètement, ces volets sont ouverts et orientés afin d’utiliser la force du vent pour participer à la propulsion du navire.L’anti-fouling (traitement de la coque pour empêcher les organismes de s’y fixer), lui, est à base de silicone. Le mélange permet de diminuer la résistance bien sûr (et donc la consommation de carburant), et il empêche la fixation des organismes sur la coque, évitant l’usage d’un traitement par empoisonnement, ce qui est meilleur pour la vie aquatique bien évidemment.

Le choix de la propulsion hybride
L’optimisation du rendement propulsif, lui, tient en quatre points. D’abord, un ensemble intégré hélice/safran qui augmente la performance de propulsion, grâce notamment à des hélices haute performance. Au niveau des moteurs, ces derniers sont des diesels semi-rapides, ayant une meilleure consommation spécifique. Il est également important de souligner le choix fait par l’équipe de recherche d’un mode de propulsion hybride : électrique pour une vitesse allant jusqu’à 11 nœuds et diesel au-delà.Autre innovation : l’injection d’eau dans les moteurs. Un système traite les eaux usées, qui vont ensuite être injectés avec le carburant dans le moteur, grâce à des systèmes très perfectionnés de rampe d’injection. Au final, on obtient une baisse de l’ordre de 50 % des gaz NOx rejetés, et une réduction importante des rejets d’eaux polluées.Autre nouveauté qui peut paraître surprenante : l’installation d’un cerf-volant à l’avant du bateau pour contribuer à économiser du carburant.  » L’énergie éolienne reste la plus disponible et la plus simple à utiliser en mer comme moyen de propulsion complémentaire. De plus le cerf-volant présente un certain nombre d’avantages par rapport à une voile classique : il n’encombre pas le navire, ne génère pas d’interférences avec les systèmes de détection et de communication du navire, et n’engendre pas de gîte, comme le ferait une voile classique « , assure Philippe Goubaut. Mais l’efficacité de cet outil est étonnante, puisque le groupe de recherche évalue à 10 % l’économie qu’il permet de réaliser sur le carburant ! Ce système équipe du reste déjà quelques navires de commerce dans le monde mais il reste à en évaluer l’intérêt et les contraintes pour un usage militaire. Le navire est également équipé de panneaux solaires qui fournissent de l’énergie électrique.

Une optimisation énergétique poussée au maximum
La ventilation double flux, procédé utilisé dans le civil terrestre, utilise un échangeur thermique croisant les flux d’air venus de l’extérieur et de l’intérieur pour climatiser le bateau. Ainsi, en été, la consommation en air conditionné diminue, et en hiver le besoin en chauffage est nul ! Aussi, la mise en place d’un débit variable au niveau de la ventilation permet d’ajuster les débits d’air en fonction de la présence des personnels. Il y a, au jour le jour, une réduction du débit global instantané dans le navire.Ainsi, toutes ces innovations diminueront de 57 % la consommation de carburant du bateau, pour une performance égale (l’effet du cerf-volant n’a pas été comptabilisé dans ce bilan). Un projet qui démontre, au delà de l’Ecoship, que des progrès peuvent être réalisés dès maintenant. De plus, au niveau de la performance pure, la réduction de la consommation de carburant peut à terme conduire à un accroissement considérable de l’autonomie des navires. Au niveau de la prospective, les technologies futures, qui ne sont pas encore abouties, permettront d’aller plus loin dans l’éco-conception des navires : les structures high-tech, les piles à combustibles, l’utilisation de supraconducteurs ou encore les pompes-hélices, font partie des pistes explorées.P.T.

Chiffre clé : 90 % des mails sont des spams

Crise ou pas crise, tous les indicateurs restent au vert pour les spammeurs. D’après l’observatoire du spam mondial de Google (*) qui a publié son enquête début juillet, les spams connaissent une hausse globale de 53 % par rapport au premier trimestre 2009 et de 6 % par rapport au deuxième trimestre 2008. Le spam se développe principalement grâce aux réseaux de machines zombies qui permettent de masquer son identité et sa localisation. Le blocage de l’hébergeur McColo en novembre 2008 aux Etats-Unis avait ainsi réduit de 70 % le nombre de spams le lendemain. Mais le niveau de courriers indésirables est revenu à son niveau antérieur en quelques semaines. Un utilisateur sans aucune protection aurait reçu en moyenne 45.000 spams en 2008, contre 36.000 en 2007, selon Google. Symantec a détecté 349,6 milliards de spams en 2008, ensuite bloqués par des pare-feux et réseaux, un chiffre en hausse de 192 % (119,6 milliards détectés en 2007).Le nombre moyen de spams journaliers varie de 150 à 200 milliards selon les sources et les périodes. D’après une étude de MacAfee qui vient de paraître, 62 billions de courriers indésirables ont été envoyés en 2008, ce qui correspond à une consommation de 33 milliards de kilowattheures, soit l’électricité consommée par 2,4 millions de foyers américains. La provenance des spams se diversifient avec le temps. Ainsi, d’après Sophos (éditeur de logiciels de sécurité), 57 % des courriers indésirables partaient des Etats-Unis en 2004, contre 20 % aujourd’hui. La seconde position de la Chine (10 %) reflète la montée en puissance de l’Internet chinois. Les formes de spams se diversifient également, avec une utilisation croissante des réseaux sociaux, dont Twitter et Facebook. Les internautes ont tendance à moins se méfier que lors de la lecture de leurs mails. Si le spam a encore de beaux jours devant lui, c’est qu’il reste efficace. Une personne sur trois répond à des mails en se doutant pourtant qu’il s’agit de spams, d’après une étude du Messaging anti-abuse working group (MAAWG, le 15 juillet 2009). 17 % des personnes interrogées ont cliqué par erreur, 13 % ont envoyé un mail pour se plaindre auprès du spammeur et 12 % se sont déclarés intéressés par le service ou le produit proposé. Les spammeurs ont encore de beaux jours devant eux. Corentine Gasquet

(*) à partir des résultats de sa filiale Postini spécialisée en systèmes antispam
En savoir plusLes Editions Techniques de l’Ingénieur ont publié en avril 2009 un nouvel article sur le spam, accessible dans la base documentaire. Ecrit par Sophie Gastellier-Prévost, enseignant-chercheur à Télécom & Management SudParis (ex INT), cet article s’intéresse notamment aux moyens de prévention et de détection du spam.  

Des dendrimères qui permettent d’encapsuler des molécules

Créée en mars 2008, Colcom prévoit de réaliser un chiffre d’affaires de 120.000 euros en 2009, avec un effectif de trois salariés auquel il faut ajouter quatre chercheurs universitaires. Issue de l’incubateur LRI (Languedoc Roussillon incubation) et soutenue par Oseo, cette start-up exploite un brevet déposé en 2005 par des chercheurs universitaires de Montpellier (au sein d’une unité mixte CNRS / université de Montpellier 2).

Techniques de l’ingénieur : Colcom développe et produit des dendrimères greffés de la lysine (DGL), de quoi s’agit-il ?

Fabien Granier : Dendron signifie arbre en grec. Le dendrimère est donc un polymère qui se développe de manière arborescente. Une première molécule est utilisée comme amorceur pour la génération suivante. La première génération est une molécule linéaire sur laquelle on fait croître de nouveaux linéaires, tels des branches. A partir de huit sites d’accroche sur la première génération, on passe ainsi à 48 sites d’accroche pour la deuxième génération, et ainsi de suite de génération en génération. L’unité élémentaire est la lysine, un acide aminé essentiel, qui n’est pas produit par le corps mais fourni par l’alimentation et nécessaire à la vie. Il s’agit de nanomolécules de 2 à 12 nanomètres en fonction des générations. Notre brevet porte sur le procédé, la structure des molécules et sur certaines applications.

Quelles sont les applications possibles ?

Les applications sont nombreuses, notamment en sciences de la vie, comme la délivrance de médicaments par exemple. Etant donné que ces molécules présentent 80 % de volume libre, on peut travailler à encapsuler des molécules, des principes actifs ou des brins d’ADN.

A qui vendez-vous les DGL ?

Nous vendons les DGL à des laboratoires de recherche, surtout publics, aux Etats-Unis (NIH, MIT), en Europe ou encore en Chine. En France, nous travaillons de préférence sur des collaborations pour monter des projets ANR (Agence nationale de la recherche) sur des sujets amonts.

Développez-vous des applications en interne ?

Nous développons des applications dans le domaine de l’environnement, dabs la détection de bactéries dans l’eau, dans le traitement et la filtration des eaux. En partenariat avec notre distributeur GLBiocontrol, nous commercialisons par exemple Dendridiag, un kit rapide de détection ultra-sensible de bactéries dans les eaux. La plus forte valeur ajoutée de ce kit se situe sur les réseaux d’eaux ultra-pures dans les domaines de la microélectronique et de la pharmacie. Nous sommes les premiers à atteindre la sensibilité requise d’une bactérie par millilitre, couplée à une analyse en moins de cinq minutes sur site. Dans le secteur de la microélectronique par exemple, le monitoring de la qualité biologique de l’eau est un point fondamental du processus de production. Un wafer de silicium est rincé avec plusieurs milliers de litres d’eau ultra-pure lors de sa fabrication et il faut éviter tout dépôt bactérien. Or les méthodes classiques de culture en laboratoire ne sont pas toutes pertinentes aux vues des souches bactériennes incriminées et, surtout, nécessitent plusieurs jours d’attente. Nos développements ont pour but d’associer à notre premier succès de l’ultra-sensibilité celui de la spécificité, et ainsi de repousser les seuils de détection de cibles spécifiques (légionellose, staphylocoque, etc..). Nous venons d’ailleurs d’être retenu par l’ANR parmi les vingt projets nationaux qui seront financés dans le cadre de l’appel à projets Matetpro.

Et dans le domaine de la santé ?

Nous n’envisageons pas d’applications pour la santé développées en interne dans les trois prochaines années. Pour autant, les connaissances que nous développons actuellement sur le secteur de la biologie seront à la base de développements futurs pour le domaine de la santé. Et nous avons initié quelques coups de sonde avec des partenaires français ou étrangers sur certaines applications, mais il est encore bien trop tôt pour en parler.

Quel regard portez-vous sur l’évolution des nanotechnologies ?

Il faudrait clarifier la définition des nanotechnologies et éviter les amalgames, notamment pour les problématiques liées à la santé et à la toxicité. Nous n’avons pas de problème avec nos clients, qui intègrent immédiatement notre spécificité. Les confusions viennent surtout du grand public et des institutions. Vivement la mode des femtotech ! Que les amalgames se déplacent sur un autre secteur…

Quelles sont les principales difficultés que vous avez rencontrées dans la création de Colcom ?

L’une des principales difficultés que nous avons rencontrées a été de réduire le champ des possibles de notre technologie pour nous focaliser sur les secteurs les plus prometteurs en termes de rentabilité de marché. En effet, notre technologie est susceptible d’être positionnée sur des applications qui vont même au-delà des sciences de la vie. Et, dans ce dernier domaine, les applications sont déjà très nombreuses. Le risque était de nous disperser et de ne pas optimiser nos premiers moyens, qui pour une start-up restent en général limités. Les premiers résultats semblent montrer que nous avons opté pour les bons choix. Mais beaucoup reste encore à faire.Propos recueillis par Corentine Gasquet

Croissance du PIB et émissions de CO2 sont étroitement liés

Une étude récente s’est penchée sur les liens entre la prospérité économique et l’empreinte carbone. Elle compare les émissions moyennes par habitant dans 73 pays à différentes étapes de leur développement [1]. Au final, c’est la corrélation forte entre la hausse du PIB et celle des émissions de CO2 qui s’inscrit comme l’élément d’information principal de cette étude.
Cela signifie que la croissance économique aurait un lien de cause à effet avec les émissions de gaz à effet de serre [2]. Sans changements significatifs, la croissance des émissions de CO2 sera proportionnelle à la croissance continue de l’économie mondiale.
Pendant longtemps, les politiques ont considéré que la croissance économique n’était que partiellement liée aux émissions de CO2. On pensait, avec optimisme, qu’avec la croissance, la consommation d’énergie augmenterait beaucoup moins que le PIB. Les activités de service qui ne consomment pas beaucoup d’énergie devaient profiter le plus de la croissance, tandis que les activités très consommatrices d’énergie comme la fabrication et la construction devaient diminuer. Ce consensus est probablement encore en vogue dans beaucoup de milieux politiques.

La part due à la production alimentaire baisse


Cette nouvelle étude montre que cette hypothèse n’est, au mieux, qu’en partie vraie. Le seul changement bénéfique vraiment important est que la part des émissions dues à la production alimentaire tend à diminuer dans les émissions totales des économies riches. Typiquement, un pays avec des dépenses par habitant de 4.000 dollars par an produit 1 tonne de CO2 par habitant par an dans le secteur des services.
Cela peut aller jusqu’à 4 tonnes dans un pays très riche qui dépense 50.000 dollars par an et par habitant. Mais les émissions dues aux produits manufacturés sont neuf fois plus élevées dans les pays riches et les émissions dues au transport, huit fois plus élevées. La vérité est que la part de la fabrication et du transport dans les émissions des pays riches est plus importante. Pas moins.
L’étude prend également en compte une estimation de l’impact des biens importés. Les émissions du Royaume-Uni sont en partie tronquées par la production de gaz à effet de serre des usines chinoises qui fabriquent les objets en plastique, l’électronique et les meubles qui lui sont destinés. L’étude montre que les biens importés (une fois déduites les émissions produites par les exportations) relèvent de 11 % les émissions britanniques, un taux parmi les plus élevés au monde. Le Royaume-Uni a fait peu de progrès visibles pour « décarboniser » ses émissions.
Cela signifie qu’il existe une relation quasi mécanique entre le PIB et les émissions de CO2. Aucun pays n’a réussi à dissocier ses émissions de gaz à effet de serre de sa croissance. Une croissance de 10 % du PIB s’accompagne quasi invariablement d’une augmentation de 8 % des émissions de CO2.

Notes


[1] Edgar G. Hertwich and Glen P. Peters, Carbon Footprint of Nations : A Global, Trade-Linked Analysis, Environmental Science and Technology (2009).
[2] L’étude d’Hertwich et Peters est une étude transversale à un moment donné. Les pays riches émettent plus de CO2 que les pays pauvres. Cela ne signifie pas nécessairement qu’un pays pauvre qui s’enrichit grâce à la croissance économique émettra plus d’émissions de CO2. Cela le rend simplement très probable.
Lire les données détaillées dans l’article original
Par Chris Goodall, auteur, entre autres, de 10 Technologies pour sauver la planète. Il est également éditorialiste pour The Independant on Sunday et le Guardian.

Nano 2012 ne connaît pas la crise

STMicroelectronics, l’un des leaders mondiaux des semi-conducteurs, touché de plein fouet par la crise, avait annoncé en janvier la suppression de 4.500 emplois dans le monde. Mais cela ne remet pas en cause le programme de soutien aux nanotechnologies, dont le lancement a été célébré par Christine Lagarde vendredi 17 juillet. Citée par l’AFP, la ministre de l’Economie a salué « une démarche stratégique pour conserver sur le territoire français une fabrication fondée sur de l’investissement et de l’innovation à très forte dose ». Nano 2012 correspond à un investissement total de 2,3 milliards d’euros pour la R&D d’ici à 2012 sur le site de Crolles avec pour chef de file STMicroelectronics (ST) dont l’Etat détient 13,15 % du capital (rappelons que Crolles II avait mobilisé 1,5 milliard d’euros entre 2002 et 2007). La contribution de l’Etat et des collectivités territoriales s’élève à 457 millions d’euros. Le groupe franco-italien s’est engagé à créer 650 emplois directs dans le cadre de ce programme.

22 nanomètres en 2012

La recherche se fera en partenariat avec l’Inria, le CNRS, des universités, des PME et IBM, avec pour objectif de développer de nouvelles générations de semi-conducteurs au niveau nanoélectronique. Le pôle de Crolles travaille actuellement sur des gravures de circuits imprimés aussi fines que 32 nanomètres, et vise 22 nanomètres à l’horizon 2012. En juillet 2007, ST a rejoint l’Alliance de développement sur les semi-conducteurs, basée au centre de R&D en semi-conducteurs d’IBM à East Fishkill et Albany (Etat de New York), pour développer des technologies CMOS (Complementary metal oxide semiconductor) cœur et de basse consommation en traits de 32 à 22 nm, tandis qu’IBM rejoignait ST à Crolles pour développer des technologies CMOS dérivées pour applications spécifiques à valeur ajoutée.Les chercheurs s’intéressent à la technologie de radiofréquence dérivée en 45 nm pour les applications sans fil et à la technologie mémoire non-volatile dérivée en traits de 65 nm pour les cartes à puce et les applications automobiles. Selon ST, ces technologies permettront de créer des nouveaux produits qui consommeront moins d’énergie, fonctionneront plus longtemps sur batterie et seront plus rapides.C.G.

Photo : Usine de l’alliance entre STMicroelectronics, Freescale et Philips, à Crolles (Isère) – © DR, CEA-Léti

Un nouvel algorithme pour une meilleure assistance téléphonique

http://www.bulletins-electroniques.com/actualites/60029.htmIssu de la collaboration entre l’UT Dallas et le centre d’assistance téléphonique Working solutions, un nouvel algorithme a été conçu afin de détecter le mécontentement des clients en ligne. Le projet était pourtant ambitieux : la variabilité du langage humain induit un grand nombre de difficultés pour la conception d’un tel logiciel. A cela, ajoutez la mauvaise qualité de certains téléphones, le bruit environnant, le bourdonnement des lignes électriques, une mauvaise réception et le problème devient rapidement très complexe. Dirigée par Dr John Hansen [1], l’équipe a développé le projet au sein du Center for robust speech systems [3].Les voyelles sont les sons qui transmettent le mieux la colère. La façon dont les voyelles sont appuyées permet de renseigner sur l’état émotionnel de l’utilisateur, mais contrairement à ce que l’on pourrait penser, des paroles fortes n’expriment pas nécessairement un mécontentement. De plus le logiciel devait prendre en compte les bruits environnants et l’effet Lombard, un effet traduit par le changement inconscient de la voix et de l’articulation des paroles dans un environnement bruyant. Mais s’appuyant sur la supériorité mondiale dans ce domaine de l’UT Dallas, le leader mondial de la recherche sur les technologies basée sur l’effet Lombard, l’équipe est parvenue à élaborer un algorithme d’identification des paramètres clés relatifs à la colère.Ce nouvel outil pourrait se montrer très utile pour les grands centres d’assistance téléphonique qui sont le plus souvent dépassés par le nombre d’appels, comme le confirme George Platt, vice président de WS iNet[2] : « Dans les centres d’appel aujourd’hui nous avons seulement la possibilité d’identifier les clients mécontents, quelque jours ou quelques semaines après, lorsqu’il est alors trop tard. Quand nous avons su que le Center for robust speech systems travaillait sur ce projet, nous y avons vu une très bonne opportunité de collaboration ». Dans leur partenariat avec l’UT Dallas, Working solution fournit les appels et les données nécessaires à l’avancement du projet.En fournissant un logiciel capable en temps réel, de rediriger très rapidement les appels des personnes mécontentes vers un responsable, les grandes compagnies pourraient ainsi bénéficier d’un service d’une meilleure qualité. Plus que la satisfaction propre des clients, c’est aussi l’image de marque de l’entreprise qui pourrait en être améliorée.Selon Hansen, le projet est à l’heure actuelle en phase de validation, mais après certains ajustements nécessaires il devrait être commercialisé.Contacts :[1] Dr. John Hansen, Distinguished Chair in Telecommunications Engineering and Department Head of electrical engineering at the Erik Jonsson School of Engineering and Computer Science. S[2] George Platt, WS iNet executive vice president (WS iNet is an affiliate sister company of Working Solutions).[3] Site official du Center for Robust Speech Systems: http://crss.utdallas.edu/Source :Customer service software senses angry callers : 07/09/09 – http://www.utdallas.edu/news/2009/07/09-002.phpRédacteur : Arnaud Souillé Origine : BE Etats-Unis numéro 174 (17/07/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/60029.htm

« Migrer vers la voix sur IP : oui mais avec vigilance »

Techniques de l’Ingénieur : Quels avantages confère la VoIP ?

Jérôme Pons : La voix sur IP possède plusieurs atouts par rapport à la voix sur circuit traditionnel. Elle repose d’une part sur l’interopérabilité des architectures, protocoles et codecs normalisés, afin d’en faciliter l’adoption par le monde de l’Internet, de l’informatique et des opérateurs télécoms. Par exemple, dans les réseaux fixes et mobiles (UMTS), les normes TISPAN et recommandations 3GPP mettent en œuvre le contrôle d’appel NGN et IMS basés sur les protocoles H.248 et SIP. D’autre part, la flexibilité apportée par les normes garantit l’évolutivité des équipements utilisateurs en particulier vers les téléphones IP et téléphones logiciels (« softphones » permettant de passer un appel téléphonique à partir d’un simple ordinateur) mais aussi des infrastructures réseau. Au cœur du réseau RTC, la suppression des commutateurs circuits de grande capacité devient possible en connectant les commutateurs de classe 5 (les plus proches des abonnés) à des passerelles média et commutateurs logiciels (« softswitches » ou « call servers ») qui assurent entre autres le pont entre le réseau d’accès circuit et le réseau IP pour le transport des flux audio. En outre, dans l’architecture IMS, les commutateurs logiciels (fonctions MGCF) sont reliés aux serveurs SIP (fonctions CSCF) puis aux serveurs applicatifs VoIP et permettent d’acheminer les appels vers d’autres abonnés des réseaux fixes et mobiles (voir l’article  » VoIP: état de l’art, enjeux et perspectives » des éditions Techniques de l’Ingénieur).

Quels sont les principaux freins à l’adoption de cette technologie ? Comment lever ces freins ?

Il existe trois principales barrières à l’adoption de la voix sur IP. Premièrement, les réseaux supportant la voix sur IP doivent offrir un niveau de fiabilité au moins équivalent à celui de la téléphonie sur circuit. Dans cette optique, des dispositifs ont été mis en place, par exemple des équipements IP redondants, des alimentations de secours (en cas de coupure secteur) voire le maintien de quelques lignes téléphoniques connectées au réseau RTC. Deuxièmement, la qualité de service a été améliorée car les réseaux IP souffraient initialement d’une latence élevée pour le transport de la voix. Pour cela, des mécanismes (DiffServ), protocoles (pile RTP/UDP/IP pour le transport des trames vocales et H.323, MGCP, Megaco/H.248, SIP pour le contrôle d’appel) et codecs (à bande étroite de type G.729) ont été définis afin d’adapter la qualité de service au transport de la voix sur IP. Troisièmement, la sécurité a été renforcée car un routeur IP ou une plate-forme VoIP sont plus sensibles aux attaques externes qu’un commutateur du réseau RTC plus étanche. Ainsi, le chiffrement et l’intégrité permettent de sécuriser les communications et la signalisation d’appel et de nouveaux protocoles adressent dorénavant les problèmes de traversée des pare-feux et NAT. (voir l’article « VoIP : principales normes » des éditions Techniques de l’Ingénieur)

Compte tenu de ces forces et de ces faiblesses, où en est l’adoption de la voix sur IP dans les entreprises ?

L’entreprise a tenu compte des critères d’adoption de la voix sur IP (interopérabilité, flexibilité et évolutivité) mais aussi des principaux freins (fiabilité, qualité de service et sécurité) de sorte qu’elle puisse, dans certains cas, s’affranchir des réseaux traditionnels (RTC et/ou RNIS). Ainsi, les postes téléphoniques traditionnels (analogiques ou numériques) ont été remplacés par des équipements compatibles VoIP afin de ne conserver qu’un seul réseau de données tant sur le site de l’entreprise (LAN Ethernet) qu’entre les sites (WAN IP). Les équipements utilisateur sont alors pilotés par des PABX IP ou Centrex IP et la diversité des solutions permet à l’entreprise d’adopter l’offre couvrant au mieux ses besoins. On rencontre trois scénarios de migration en fonction du type d’entreprise et de l’architecture réseau déjà en place. Le scénario conservateur consiste, pour les moyennes et grandes entreprises, à compléter le PABX traditionnel par une passerelle VoIP le muant ainsi en PABX IP hybride afin de supporter la téléphonie sur IP notamment entre deux sites d’entreprise via un réseau WAN IP. En revanche, le PABX IP hybride maintient la connexion aux réseaux RTC et/ou RNIS et supporte les postes téléphoniques et fax traditionnels. Le scénario convergent utilise le même réseau local de l’entreprise (LAN Ethernet ou Intranet) afin d’écouler les communications téléphoniques et la transmission de données. Il autorise alors le déploiement de nouvelles applications (messagerie unifiée, ponts téléphoniques, transfert d’appel, routage d’appel automatique) qui augmentent par ailleurs la productivité dans les grandes entreprises. Cette convergence impose toutefois l’introduction de nouveaux postes téléphoniques (téléphones IP) et équipements tels que la passerelle VoIP (pour l’interconnexion entre un téléphone traditionnel et un téléphone IP) et le serveur VoIP (pour le contrôle d’appel) composant le PABX IP convergent. Enfin, le scénario « tout IP » consiste à remplacer tous les téléphones traditionnels par des téléphones IP ou téléphones logiciels. Les appels VoIP sont contrôlés par le serveur VoIP qui peut être présent dans les locaux de l’entreprise (PABX IP « administré ») ou hébergé par un tiers tel qu’un opérateur télécoms (PABX IP « hébergé »). Le PABX IP hébergé est dédié à l’entreprise contrairement aux offres Centrex IP partagées entre plusieurs entreprises, en particulier les très petites et petites entreprises, afin de centraliser tous leurs besoins en communications. (voir l’article  » Mise en oeuvre de la voie sur IP » des éditions Techniques de l’Ingénieur)

Comment mettre en œuvre cette technologie ? Quels sont les pièges à éviter ?

La mise en œuvre de la voix sur IP en entreprise suit plusieurs étapes. L’étude de faisabilité commence par analyser l’existant tels que les équipements informatiques et réseau (câblage, postes téléphoniques, PABX traditionnel, LAN, accès au WAN, RTC et/ou RNIS, VPN pour l’Extranet), les politiques de qualité de service et de sécurité. Ensuite, elle évalue les services téléphoniques utilisés (téléphonie en interne intra-site et intersites, en externe à l’entreprise, sélection directe à l’arrivée (SDA) pour les appels entrants, annuaire, messagerie vocale et services supplémentaires comme le renvoi d’appel et la conférence à trois). Elle se poursuit par une analyse d’impact de l’intégration de nouveaux équipements au réseau de l’entreprise afin d’adresser les problématiques de dimensionnement (charge pour les appels internes et externes), de configuration des serveurs (DHCP, DNS et annuaire LDAP) et de compatibilité des équipements (PABX IP et téléphones IP) avec les protocoles (contrôle d’appel SIP, H.323, chiffrement IPsec, auto-alimentation IEEE 802.3af des téléphones IP via le LAN etc) et codecs (par exemple G.711, G.729 et licences d’utilisation associées le cas échéant). La définition de la solution technique, conduite par l’équipe projet, dépend de la taille de l’entreprise (TPE, PME ou grande entreprise) en nombre d’utilisateurs de la téléphonie sur IP et en nombre de sites à interconnecter (cas d’une entreprise multi-sites), de l’analyse de l’existant ainsi que des nouveaux services souhaités outre la téléphonie sur IP : par exemple la messagerie vocale unifiée (MVU), la réservation de ponts téléphoniques, le fax sur IP, la réponse vocale interactive (IVR) ou la nécessité d’un centre d’appel. Toutefois, la migration vers la voix sur IP ne peut se faire sans risque pour l’entreprise et certaines problématiques devront être abordées avec vigilance à chaque étape : l’interopérabilité des équipements avec les serveurs déjà en place, la qualité de service (signal audio adapté, performances du WAN IP), la disponibilité du service (alimentation électrique), le plan de numérotation (gestion des tranches SDA locales souscrites), la sécurité (activation du chiffrement dans les téléphones IP et étanchéité des flux de téléphonie sur IP sur le LAN), la mise en place dans l’entreprise d’une équipe dédiée (car la téléphonie sur IP requière des compétences particulières) et la prise en compte, lors de la définition de la solution, des évolutions envisagées dans l’entreprise à moyen et long terme. La liste est bien entendu non exhaustive.

Quel est l’investissement de départ ? En combien de temps peut-on espérer rentabiliser l’installation ?

L’investissement initial dépend de la solution technique et de l’offre commerciale retenues par l’entreprise. Comparé à une solution analogique (PABX traditionnel couplé à la location de lignes téléphoniques), l’introduction de la voix sur IP impactera les charges de l’entreprise. En revanche, une augmentation non chiffrable de la productivité s’en ressentira de par la mise en place de services avancés tels que les ponts téléphoniques et la connectivité en situation de mobilité dans l’entreprise (via le WLAN) ou en télétravail (via l’Extranet). L’augmentation du CAPEX [ndlr : Capital Expenditure : dépenses d’équipement] est due à l’acquisition de la solution technique (équipements réseau et utilisateur tels que le PABX IP administré, téléphones IP et câblage), la modification de l’infrastructure réseau (LAN, serveurs) et le surcoût lié à l’apport de la fiabilité, la qualité de service et la sécurité. La réduction de l’OPEX [ndlr : Operating Expense : dépenses de fonctionnement] est principalement liée à la diminution des coûts de communication (en particulier pour une entreprise multi-sites étant donné le volume de d’appels régionaux, nationaux et internationaux) et de la maîtrise technique (exploitation, administration et supervision d’une infrastructure réseau convergente). En revanche, l’OPEX lié aux opérations de maintenance des équipements, de formation, du support aux utilisateurs et de gestion des comptes utilisateurs reste globalement inchangé. La période de rentabilité est largement dépendante du scénario de migration adopté par l’entreprise d’autant plus que ce dernier peut être intégré à une stratégie de migration IT plus globale. Pour conclure, dégageons quelques tendances. Les très petites entreprises cherchent à limiter l’investissement initial (CAPEX) et à simplifier la gestion des outils télécoms et plébiscitent les offres Centrex IP parfois groupées avec d’autres offres telles que l’accès xDSL. De même, les PME visent la simplicité mais favorisent toutefois les PABX IP administrés connectés au WAN IP via des faisceaux de connexions (ou « SIP trunks ») afin de réduire les coûts d’interconnexion au WAN IP comparé à la location de ligne RNIS. Enfin, les grandes entreprises adoptent des offres évolutives et personnalisées de PABX IP hébergé qui peuvent être groupées à d’autres offres comme les liaisons louées pour l’interconnexion de sites. Propos recueillis par Maud Buisine Pour aller plus loin Jérôme Pons est un ancien délégué à la normalisation 3GPP pour Orange, France Télécom. Aujourd’hui, il est responsable du programme IOT (Inter-Operability Testing) » pour l’opérateur historique. A ce titre, il coordonne les demandes de sessions d’interconnexion entre équipements avant leur validation pour introduction dans les réseaux de France Télécom. Ces équipements peuvent être aussi bien des téléphones mobiles, PABX IP, LiveBoxes, éléments de l’infrastructure fixe ou mobile, ou plate-formes de services telles que Centrex IP et IMS. Jérôme Pons est également l’auteur de trois articles consacrés à la voix sur IP publié aux éditions Techniques de l’Ingénieur. Voix sur IP : Etat de l’art, enjeux et perspective Voix sur IP : Les principales normes Voix sur IP : La mise en oeuvre

Portraits des six nouveaux membres de Minalogic

Minalogic vient d’accueillir six nouvelles entreprises. En trois ans, le pôle dédié aux micro et nanotechnologies et au logiciel embarqué est passé de 52 membres fondateurs à 142 adhérents, dont 80 % de PME. Portrait des six derniers entrants.

1. Pob technology

– HistoriqueCréée en août 2005 par Pierre Seguin, Pob technology conçoit des robots destinés au grand public. Les premiers marchés de Pob sont les écoles de tous niveaux et les passionnés. Cette PME emploie quatre salariés à plein temps. – Chiffre d’affairesL’exercice 2008 a été marqué par une progression de 63 % du chiffre d’affaires à 150.000 euros, les quatre premiers mois de l’exercice 2009 affichant une progression de 40 % par rapport à la même période en 2008. Pob devrait atteindre un CA de 300.000 euros en 2009.– Implantation : Villeurbanne (69)– RecherchePob participe au projet Graal, financé dans le cadre de l’appel à projet 6 du Fonds unique interministériel. L’objectif est de concevoir une boîte à outils d’intelligence artificielle permettant de reproduire les comportements humains, aux côtés de Probayes (plate-forme d’intelligence artificielle), AGE Studio (création d’un jeu de stratégie) et de l’équipe e-Motion de l’Inria Grenoble. – Projet industriel Créer un nouveau robot plus adapté aux besoins des écoles.– Pourquoi rejoindre Minalogic…« Pob a besoin de grandir dans un environnement dans lequel se mélangent créativité et haute technologie. Lyon possède le pôle de compétitivité loisirs numériques, Grenoble avec Minologic nous apporte l’aspect technologique. »– Site : pob-technology.com

2. Surgiqual institute

– HistoriqueCréée en janvier 2008, cette PME intervient dans le secteur du dispositif médical intelligent et plus particulièrement la chirurgie assistée par ordinateur. Elle emploie 16 salariés. – Implantation : La Tronche (38)– RechercheSurgiqual institute travaille sur la localisation en 3D pour la chirurgie assistée par ordinateur notamment la localisation magnétique. Elle est leader du projet Surgimag financé dans le cadre de l’appel à projet 3 du Fonds unique interministériel. Ce projet implique aussi le Leti-CEA et plusieurs PME régionales. Il vise notamment à développer un localisateur magnétique susceptible de révolutionner la navigation chirurgicale.- Pourquoi rejoindre Minalogic…« Cela permet un travail collaboratif avec des partenaires académiques et industriels sur des enjeux importants pour la société à moyen terme. »– Site : www.surgiqual-institute.com

(Crédit photo laboratoire TIMC-IMAG)

3. Antecim / AZ systemes

– HistoriqueFondée en 1994, AZ systemes conçoit et réalise des produits et des composants de positionnement pour la recherche et l’industrie. Implantée au niveau local, elle vend ses produits partout dans le monde. Elle compte actuellement une dizaine de salariés.– Chiffre d’affaires : 1 million d’euros environ– Implantation : Varces (38)- Pourquoi rejoindre Minalogic…« Intégrer Minalogic, c’est pouvoir côtoyer les grands donneurs d’ordre pour « leur faire savoir nos savoir-faire » et nous intégrer dans des projets collaboratifs pour y prendre toute notre place ; c’est faire partie d’un réseau, d’un tissu industriel et scientifique pour apporter nos solutions et mutualiser nos compétences. »– Sites : www.az-systemes.com, www.antecim.fr

4. Phi design

– Historique Agence de design industriel, Phi design a été créée en 1989 par Frank Rousselin, designer. Elle emploie huit salariés. – Chiffre d’affaires : 700.000 euros– Implantation : Voiron (38)– Recherche Phi design intervient sur les phases design, conception, innovation, étude technique jusqu’au suivi industriel.- Pourquoi rejoindre Minalogic…« Cela nous permet de faire connaître au pôle nos compétences en tant que centre de développement de produits. »– Site : www.phi-design.com

5. Visio technic

– Historique Lancée en 2006, Visio technic est une filiale de Saunier Plumaz, groupe spécialisé dans l’application de peinture industrielle. Avec un effectif de dix salariés, elle propose le transfert de décor numérique sur tout support avec traitement de surface. – Chiffre d’affaires : 464.000 euros en 2007, 898.000 euros en 2008, 1,25 million d’euros prévu en 2009– Implantation : Sassenage (38)– Recherche Visio technic intègre des nanomatériaux dans les revêtements pour améliorer les qualités de résistances aux UV et à l’abrasion ainsi que pour intégrer une fonction de lumière. La filiale de Saunier Plumaz participe à un programme de recherche dans le cadre d’un pôle de compétitivité (Luminosurf)– Rejoindre Minalogic…« Cela nous permet d’assurer une veille technologique, de développer notre réseau et de nous rapprocher d’entreprises ayant des programme de R&D parallèles ou complémentaires. »– Site : www.visio-technic.fr

6. Asygn

– Historique Asygn a été fondée en janvier 2008 par Nicolas Delorme du CEA-Leti avec Daniel Saias, Loïc Joët et Joël Monnier de STMicroelectronics. Elle développe des solutions pour la conception de systèmes analogiques (outils de conception assistée par ordinateur et services).– Implantation : Montbonnot (38) – Recherche Asygn est impliquée dans le projet Optymist2, labellisé dans le cadre de l’appel à projet 8 du Fonds unique interministériel. – Site : www.asygn.com C.G.

« Avec Hadopi, le droit au filtrage se transforme en obligation »

Techniques de l’ingénieur : Pour l’employeur, quels sont les risques liés à l’utilisation d’Internet par les salariés ?
Eric Barbry : Il existe plusieurs formes de risques : technique, comme la vulnérabilité ou la surconsommation de bande passante, économique, comme la baisse de productivité ou la fuite d’information, et aussi et surtout juridique. L’employeur peut se retrouver condamné avec, ou pire, à la place de son employé. En effet, sur un plan juridique, l’employeur peut être responsable avec son salarié comme en témoignent plusieurs cas de jurisprudence mais pire, il peut être responsable à la place de son salarié s’il n’est pas en mesure de l’identifier avec certitude. La responsabilité de l’employeur sera la plupart du temps recherchée pour « négligence fautive » ; c’est-à-dire pour ne pas avoir pris les mesures de son côté pour éviter le problème ou pour au moins le maîtriser.

A-t-il le droit ou même l’obligation de mettre en place un filtrage des sites ?
Le droit oui, c’est certain puisque l’employeur dispose d’un « droit de contrôle » de ses employés dans le cadre de leur activité professionnelle. Le filtrage fait aujourd’hui partie de la panoplie technique de contrôle de l’employeur. Encore faut-il que l’outil soit déployé dans des conditions respectueuses du cadre légal. Ce droit est en train de se transformer en obligation comme en témoigne le texte de la loi dite Hadopi qui impose à un « abonné » de mettre en place des mesures de lutte contre la contrefaçon sur Internet. Or dans l’entreprise « l’abonné » c’est l’employeur, c’est lui qui juridiquement signe le contrat avec un fournisseur d’accès. D’une manière générale, en application du bien célèbre principe de précaution, il vaut mieux filtrer que laisser faire n’importe quoi.

Quelles contraintes doit-il respecter dans le déploiement de solutions de filtrage ?
Le déploiement d’une solution de filtrage doit s’inscrire dans le strict respect des lois : celles du droit du travail, celles imposées par la loi informatique et libertés et enfin celles qui s’imposent en matière de preuve sous forme électronique. Car n’oublions pas que si ces outils sont faits pour éviter les dérives ils sont aussi là, une fois les dérives identifiées, pour permettre de poursuivre leurs auteurs. La cour de cassation a déjà admis des licenciements sur cette base.Propos recueillis par C.G.ParcoursAvocat à la Cour d’appel de Paris, Eric Barbry est directeur du pôle communications électroniques et droit du cabinet Alain Bensoussan. Il est l’auteur d’un livre blanc pour Olfeo Filtrage et Internet au bureau : Enjeux et cadre juridique (pdf).

« Notre objectif est de construire des machines capables de s’autoévaluer »

Techniques de l’ingénieur : Les robots sont-ils capables d’apprendre ?
Pierre-Yves Oudeyer : Ils sont capables d’apprendre depuis longtemps, mais pour des tâches et des savoir-faire limités. Apprendre, cela signifie changer son comportement dans le futur en fonction de mesures faites sur l’environnement autour de soi. Aujourd’hui, il faut qu’un ingénieur spécifie aux robots les tâches qu’il aura à faire assez précisément et à l’avance. Quand le robot a appris un savoir-faire, comme marcher ou attraper un objet, il s’arrête là. Avec mon équipe, nous travaillons sur comment apprendre une variété de tâches potentiellement recombinables et non précisées à l’avance. Pour cela, on peut s’appuyer sur la curiosité ou sur l’interaction sociale avec un humain non-ingénieur.

Comment peut-on rendre les robots curieux ?
Nous nous inspirons des théories en psychologie concernant le développement et l’exploration spontanée chez les enfants. L’idée générale consiste à construire des machines capables de s’autoévaluer lorsqu’elles font des prédictions sur les conséquences de leurs actions. On peut ainsi mesurer la nouveauté ou la surprise d’un événement, et faire en sorte que le robot s’intéresse aux éléments nouveaux. Pour l’instant, nous n’arrivons pas à passer à un certain niveau de complexité.

Est-ce que cela a un sens de dire qu’un robot a le même âge mental qu’un enfant de 6 mois, 1 an ou 18 mois ?
Cela n’a pas de sens. Sur certaines capacités précises, nous pouvons dire que le robot maîtrise une action qu’un enfant sait faire à tel ou tel âge. Nous pouvons envisager qu’un jour un robot puisse disposer des mêmes capacités qu’un enfant à un âge donné, mais nous sommes à des années lumières de cela !

Quels sont aujourd’hui les grands sujets de recherche ?
Un thème important porte sur la capacité d’une machine à comprendre un contexte physique et social dans lequel elle se trouve. Par exemple, est-elle capable de comprendre les activités des humains ? Sont-ils en train de travailler devant un ordinateur ? De regarder la télévision sur un canapé ? Cela pose un problème de perception et aussi de compréhension des intentions d’une personne. C’est nécessaire pour que les robots nous rendent véritablement service. Si je demande à mon robot d’aller chercher mes clés, il faut qu’il comprenne en fonction du contexte s’il s’agit des clés de la maison, de la voiture ou d’une armoire par exemple. Un autre défi concerne les interfaces. Avant même de se poser la question des intentions, il faut que le robot comprenne les mots et les gestes. Cela nous semble facile mais c’est très difficile pour un robot. Il faut aussi qu’il soit capable de sentir dans quel état émotionnel nous sommes. Il serait intéressant que les machines s’adaptent à l’humain, et pas l’inverse.

Existe-t-il des freins psychologiques et sociétaux forts ?
Il existe en effet des défis psychologiques et sociétaux très importants. En occident, une grande partie de la population voit d’un œil dubitatif l’arrivée des robots, avec parfois beaucoup d’hostilité. Comment peut-on concevoir l’arrivée des robots de manière à ce qu’elle soit acceptée socialement ? Ce ne sont pas uniquement les ingénieurs ou chercheurs roboticiens qui doivent répondre à cette question. Il est important que la société civile, les sociologues ou encore les philosophes s’intéressent à la place des robots dans notre quotidien. Il n’existe aujourd’hui aucune réflexion sociétale en Europe. Les personnes qui devraient s’y intéresser ne s’y intéressent pas. Les médias abordent le sujet soit d’un point de vue purement technologique, soit avec catastrophisme.

Et vous, comment voyez-vous l’avenir ?
On peut voir les robots de plusieurs manières. Certains les voient comme pouvant servir à nous remplacer dans les tâches ménagères pénibles. D’après moi, il est plus intéressant de leur donner le rôle de nous accompagner dans l’éducation, dans les loisirs ou l’aide à la personne. Par exemple, un robot peut aider une personne âgée qui a des troubles de la mémoire en lui rappelant des faits de la journée. Des chercheurs s’intéressent par exemple au rôle que les robots pourraient jouer avec les enfants autistes : alors qu’ils sont en retrait des interactions sociales avec les autres humains et se focalisent souvent sur des comportements stéréotypés avec des objets inanimés, les robots sont des objets intermédiaires, plus prédictibles que les humains mais en même temps capables de les amener vers des interactions sociales, ce qui peut mener au final à plus d’interactions avec d’autres humains. Il ne faut pas chercher à remplacer l’humain mais à créer un objet nouveau pour nous enrichir. Dans le film Wall-E, l’homme a construit des machines pour le remplacer dans toutes les tâches physiques : il finit dans un état mental et physique pas très enviable !

Les robots pourront-ils garder des enfants ?
C’est délirant d’un point de vue technologique ! Encore une fois, je pense qu’il ne faut pas chercher à remplacer l’activité humaine mais à enrichir notre environnement au quotidien avec de nouveaux types d’interactions.

Quand les robots feront-ils vraiment partie de notre quotidien ?
Ils sont déjà très présents. La machine à laver qui s’adapte en fonction de la saleté est un robot. De même, les avions fonctionnent presque uniquement en mode automatique. Dans les magasins, on trouve des rayons entiers de robots ludiques et personnels. Le développement va se faire de manière très progressive, ce qui nous donne le temps de structurer le débat d’un point de vue sociétal.ParcoursPierre-Yves Oudeyer est chercheur à l’Inria Bordeaux. Il est responsable de l’équipe Flowers (Interactions, exploration et apprentissage en robotique développementale et sociale). Diplômé de l’Ecole normale supérieure de Lyon et titulaire d’un doctorat en intelligence artificielle à Paris VI, il a travaillé comme chercheur au sein du Sony computer science laboratory à Paris pendant huit ans. Pour en savoir plus : http://www.pyoudeyer.com 

Grenelle de la Mer : le développement des énergies marines fait consensus

Les tables-rondes qui se sont tenues lors du Grenelle de la Mer ont permis d’avancer et d’esquisser une stratégie d’ensemble en ce qui concerne les énergies marines de demain. « Il y a un consensus sur la nécessité de développer les énergies marine, marémotrice, hydrolienne flottante, éolienne en mer… » a ainsi précisé à l’AFP Denez Lhostis, représentant de la fédération France nature environnement (FNE). « On va mettre en place un certain nombre de démonstrateurs outre-mer et sur les côtes françaises », a-t-il ajouté, avant de conclure : « On a proposé que les énergies marines représentent 3 % des énergies renouvelables d’ici 2020 ».

Vendredi soir, à la sortie de la dernière réunion, le ministre Jean-Louis Borloo précisait lui aussi à l’AFP : « On a fini sur les énergies bleues, on a fait des progrès considérables, notamment sur l’outre-mer, avec des démonstrateurs ». En plus de ces déclarations, le site du Grenelle de la Mer mettait hier soir en ligne le communiqué suivant :

« Le Grenelle de la Mer prend acte de l’urgence et décide d’engager un plan Energies Bleues. La programmation des investissements prévoit 6.000 MW d’énergies marines en 2020. Ce plan va permettre de définir une stratégie de développement des énergies marines et un cadre cohérent d’actions au sein de la politique maritime intégrée. Participeront à la définition de cette stratégie toutes les parties prenantes. Elle prendra en considération les trois composantes du développement durable : la cohésion sociale, l’environnement et l’économie. Le Grenelle de la Mer acte un soutien fort à des pilotes pré-industriels pour identifier les technologies du futur dont la France veut se doter, en concertation avec les acteurs et en s’assurant que ces technologies soient compatibles avec le respect de l’environnement (dont une majorité en outre-mer). Ont donc été décidées les mises en place de :

  • 3 sites pour les hydrauliennes (on notera l’orthographe inédite adoptée par le Grenelle pour « Hydrolienne »… qui ne nous empêchera pas de nous demander où sont ces sites et quels types d’hydroliennes sont concernées !) ;
  • Un pilote Energie thermique des mers (Il semblerait qu’il s’agisse de celui de DCNS à l’Ile de la Réunion) ;
  • Un pilote d’éoliennes flottantes (Où ? Qui ? Quand ?) ;
  • Un dispositif de pompe à chaleur/froid par territoire d’outre-mer dont la climatisation de l’Hôpital de Tahiti dans les 2 ans ;
  • Le soutien à 2 projets houlomoteurs (énergie des vagues donc mais reste à savoir lesquels et où ? Searev de l’Ecole Centrale de Nantes ?).

Un appel à projets sera lancé avant fin 2009 pour créer un centre d’essai de rang mondial sur les énergies marines. L’outre-mer sera la vitrine technologique et le territoire d’expérimentation de la France en matière d’énergies marines renouvelables ».

C’est sur cette phrase de conclusion enthousiasmante pour l’outre-mer (et pour l’emploi en outre-mer) que s’achève ce communiqué du Grenelle de la Mer en ce qui concerne les énergies renouvelables de la mer, car d’autres tables rondes concernaient, entre autres, la gestion de la ressource halieutique.

Le premier commentaire qu’il suscite de ma part est que de grands progrès viennent effectivement d’être réalisés en peu de temps vers une reconnaissance de « la nécessité du développement en France des énergies marines ». Ce n’était pas du tout le cas il y a encore un an seulement. Cela ne signifie pas non plus que la France rattrapera du jour au lendemain le formidable retard qui s’est creusé dans ce domaine avec le Danemark, l’Angleterre, l’Allemagne ou l’Espagne. Cela signifie simplement que la France ne refuse plus de s’inscrire dans une logique européenne de développement des énergies renouvelables de la mer, rebaptisées « Energies Bleues » par Jean-Louis Borloo, refus soufflé jusque-là par le sacro-saint choix prioritaire du nucléaire.

Si cela devait se confirmer par des actes, au-delà des annonces, cela constituerait un pas important voir historique en direction d’une intégration dans une logique européenne (et mondiale d’ailleurs) de développement énergétique marin et de création de nouveaux emplois dans ce secteur. Bleu, verte ou jaune (et à propos de jaune d’ailleurs on remarquera qu’il n’est pas question de biocarburant algal dans ce communiqué), ces énergies renouvelables de la mer ont enfin acquis droit de cité.

 

Par Francis Rousseau, rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études. Il anime notamment Les énergies de la mer, blog spécialisé dans les énergies marines.

Le transfert de technologies face au changement climatique : qui est responsable ?

Dans la Convention-cadre des Nations Unies sur les changements climatiques (UNFCCC), le mécanisme pour un développement propre (CDM) a été conçu pour aider au transfert des technologies dites propres aux pays en développement. Cependant, les projets mis en application dans ce cadre ne sont pas assez ambitieux pour lutter efficacement contre les émissions de gaz à effet de serre. Je pense que l’heure est venue de réexaminer les mécanismes traditionnels de commerce et d’investissement qui ont guidé pendant des siècles le transfert de technologies.Le rapport Stern suggère que la réduction des barrières tarifaires et non tarifaires pour les biens et les services à faibles émissions de CO2 pourraient fournir de nouvelles opportunités pour accélérer la diffusion de technologies clés.Toutefois, les pays sont en général réticents à lier les politiques commerciale et climatique de peur que l’une ne prenne le pas sur l’autre. Les pays en développement craignent que la législation sur le commerce soit utilisée pour promouvoir la politique environnementale et climatique des pays riches, au détriment de leurs intérêts. Pourtant, la prise de conscience du changement climatique et le débat autour des énergies propres offrent une incroyable opportunité économique pour les pays en développement de produire et d’exporter ces technologies.

La diffusion des technologies spécifiques est limitée
D’après le dernier rapport de l’UNEP [Les tendances mondiales pour l’investissement dans l’énergie durable en 2009], 155 milliards de dollars ont été investis dans le monde en 2008 dans des entreprises et des projets relatifs aux énergies propres, dont 117 milliards sont allés à des projets sur les énergies renouvelables.Bien que les investissements directs étrangers puissent être un vecteur important de transfert de technologies, la faiblesse des législations sur la propriété intellectuelle et de nombreuses autres barrières empêchent la diffusion de technologies spécifiques au-delà d’un certain cercle. Ces barrières concernent à la fois la législation environnementale, la fiscalité, les politiques financière et de crédit, les réformes économiques et la viabilité des technologies dans les conditions locales (dont la présence de savoir-faire et d’une main d’œuvre locale qualifiée). Les législations sur la propriété intellectuelle doivent être accompagnées des infrastructures appropriées ainsi que d’un système de gouvernance et de concurrence pour assurer un transfert et une diffusion efficaces des technologies.

Un manque de clarté en matière d’investissements dans les technologies propres
Plusieurs mesures ont été proposées depuis longtemps pour surmonter les barrières de la législation sur la propriété intellectuelle : le rachat de brevets, une baisse des tarifs douaniers sur les ventes de technologies, un fond capital-risque mondial sur les énergies propres, le transfert des technologies dans le domaine public, des droits de propriété intellectuelle abaissés dans le temps, des mécanismes flexibles de transfert de technologies… Pourtant, aucune de ces mesures n’a fait l’objet d’un débat dans les forums internationaux.Sur le plan international, il n’existe pas de politique claire en matière d’investissements dans les technologies propres. Faute d’un accord multilatéral concernant les investissements directs étrangers, on trouve plus de 2.000 traités bilatéraux, tous très évasifs sur le chapitre des technologies propres.Enfin, un marché du CO2 est déterminant pour le développement et la diffusion de technologies sur les énergies propres dans la mesure où il peut inciter les acteurs privés à agir.La technologie est le pilier d’une action rapide et durable pour le climat. La politique de transfert de technologies sous l’égide de l’UNFCCC doit être étendue pour fournir des solutions concrètes au sein du cadre d’allocation des ressources élargi qui pourrait émerger à Copenhague. Dans le même temps, l’importance d’un régime sur le climat pour les investissements nationaux ne peut pas être surestimée. Par Muthukumara Mani, économiste de la Banque Mondiale dans le Département Développement Durable basé à Delhi. Il participe au blog Development in a Changing Climate et est un des auteurs du rapport 2010 à venir de la Banque Mondiale, « Développement et Changement Climatique ».

10 parcs éoliens offshore dans le monde… et tous en Europe

Le dernier congrès de l »EWEA (European wind energy association) a permis d’en savoir plus sur la situation des parcs éoliens offshore, au niveau mondial. Ainsi, les dix parcs existant sont tous en Europe. Le vieux continent est du même coup leader mondial des énergies renouvelables marines.Le premier mérite de ce rapport est de poser clairement la différence entre les effets d’annonces (qui sont nombreux dans le domaine de l’éolien offshore) et la réalité en termes de mégawatts produits et d’occupation des territoires maritimes. Ainsi peut-on constater que le total produit dans le monde est de 587 MW par 316 turbines installées en mer. Il ressort aussi que le plus grand parc éolien est toujours celui de Horns Rev, récemment achevé au Danemark et que le Danemark, d’ailleurs, reste toujours le premier pays producteur d’électricité éolienne en mer. Alors qu’en 1999, les premiers parcs étaient plutôt développés à petite échelle et en eaux peu profondes, le projet britannique de Blyth Offshore en mer du Nord a inauguré, en 2000, une nouvelle ère et peut être considéré comme le tout premier parc éolien réellement offshore au monde.

Le savoir faire des Danois
Dans l’ordre chronologique, la liste des parcs éoliens produisant de l’électricité renouvelable s’établit comme suit :
  • depuis 1991 : Vindeby au Danemark produisant 4.95 MW avec 11 turbines Bonus de 450 kW ;
  • depuis 1994 : Lely (Ijsselmeer) aux Pays-Bas produisant 2.0 MW avec 4 turbines NedWind de 500 kW ;
  • depuis 1995 : Tunø Knob au Danemark produisant 5.0 MW avec 10 turbines Vestas de 500 kW ;
  • depuis 1996 : Dronten (Ijsselmeer) eaux Pays-Bas produisant 11.4 MW avec 19 turbines Nordtank de 600 kW ;
  • depuis 1997 : Gotland (Bockstigen) en Suède produisant 2.5 MW avec 5 turbines Wind World de 500 kW ;
  • depuis 2000 : Blyth Offshore au Royaume-Uni produisant 3.8 MW avec 2 turbines Vestas de 2 MW ;
  • depuis 2001 : Middelgrunden, (Copenhagen) au Danemark produisant 40 MW avec 20 turbines Bonus de 2 MW ;
  • depuis 2001 : Uttgrunden, (Kalmar Sound) en Suède produisant 10.5 MW avec 7 turbines GE Wind de 1.5 MW ;
  • depuis 2001 : Yttre Stengrund en Suède produisant 10 MW avec 5 turbines NEG Micon NM72 ;
  • depuis 2002 : Horns Rev au Danemark produisant 160 MW avec 80 turbines Vestas de 2 MW ;
  • depuis 2003 : Frederikshaven au Danemark produisant 10.6 MW avec 2 turbines Vestas de 3MW, avec 1 turbine Bonus de 2.3 MW et 1 turbine Nordex de 2.3 MW ;
  • depuis 2003 : Samsø au Danemark produisant 23 MW avec 10 turbines Bonus de 2.3 MW ;
  • depuis 2003 : North Hoyle au Royaume-Uni produisant 60MW avec 30 turbines Vestas de 2 MW ;
  • depuis 2004 : au Danemark produisant 158 MW avec 72 turbines Bonus de 2.3 MW ;
  • depuis 2004 : Arklow Bank en Irlande produisant 25.2 MW avec 7 turbines GE de 3.6 MW ;
  • depuis 2004 : Scroby Sands au Royaume-Uni produisant 60 MW avec 30 turbines Vestas de 2 MW.
Le rapport fait aussi remarquer que de nombreux autres pays européens et non-européens ont exprimé leur désir de tirer parti de la ressource éolienne en mer. Ailleurs qu’en Europe, les Etats-Unis, le Canada, la Chine et l’Inde sont parmi les plus actifs à développer d’importants projets, mais pour l’instant encore au stade de la planification.

Des projets pharaoniques aux Etats-Unis
Les plus avancés qui ont été répertoriés par l’EWEA sont pour l’instant :
  • Au Danemark : Horns Rev II qui produira 200 MW venant s’ajouter au 160 actuellement produits par Horns Rev I ;
  • Au Pays-Bas : Mouth of the Western Scheldt River et Ijmuiden avec une production de 100 MW chacun ;
  • En Suède : le méga-projet de Barsebank avec 750 MW et les projets plus modestes mais importants de Uttgrunden II avec 72 MW et Lillgrund Bankavec 48 MW ;
  • En Irlande: le méga-projet d’Arklow II avec 500 MW et celui de Kish Bank avec 250 MW ;
  • Aux Etats-Unis : le méga-projet de Cape Wind avec 420 MW ;
  • En Espagne : le méga-projet de Cape Trafalgar avec 500 MW ;
  • En Belgique : le projet de Thornton Bank avec 200 MW ;
  • En France : un méga-projet de 500 MW en cours d’examen ;
  • En Allemagne : plusieurs-méga projets à divers stades de développement.
En conclusion de son rapport, l’EWEA a estimé que 5 GW des 60 GW d’énergies renouvelables recommandés en 2010 proviendront du secteur des énergies renouvelables de la mer. Dans le domaine de l’éolien en mer, l’avenir se dessine plutôt en faveur de parcs utilisant des turbines produisant plus de mégawatts (6 MW et plus) pour être capable d’alimenter de façon encore plus régulière et autonome le réseau grâce à la constance de la ressource éolienne en mer.Par Francis Rousseau, auteur du blog Les énergies de la mer

De la chaux dans les océans : la solution miracle pour absorber le CO2 atmosphérique ?

Tim Kruger est un ancien conseiller en management. Lors d’une conférence sur le changement climatique organisée à Manchester, il a remis sur la table une idée qui n’est pas tout à fait neuve : mettre de la chaux dans les océans pour arrêter, voire inverser l’accumulation de CO2 dans l’atmosphère. Chimiquement, le procédé est basique : la chaux (CaO) réagirait avec le CO2 présent dans l’eau de mer. Ceci aurait pour effet de rendre l’océan moins acide, entraînant une plus grande absorption du CO2 atmosphérique par les océans. On sait aujourd’hui que l’acidité des océans joue un rôle fondamental sur l’évolution des concentrations de CO2 atmosphériques.En effet, les océans sont un élément clé du cycle naturel du carbone, et du dioxyde de carbone, qui est distribué entre les terres, les mers et l’atmosphère. Environ la moitié des émissions de CO2 rejetées dans l’air par l’homme chaque année sont absorbées par les océans. Cela permet de ralentir le rythme du réchauffement de la planète, tout en augmentant parallèlement l’acidité des océans. Cela constitue donc une menace potentiellement catastrophique pour les écosystèmes marins, mais aussi pour le climat de la terre.

Le besoin de réunir les volontés juridiques et éthiques
Le projet porté par Kruger, baptisé Cquestrate, vise en fait à renforcer la capacité des océans à absorber le CO2, mais d’une manière qui contribue à réduire leur acidité plutôt qu’à l’augmenter. Ce résultat est obtenu par la transformation du calcaire en chaux, dans un processus semblable à ceux utilisés dans l’industrie du ciment, et en ajoutant de la chaux à l’eau de mer. La chaux réagit avec le CO2 dissous dans l’eau, le convertit en ions bicarbonate, ce qui diminue l’acidité de l’eau des océans et permet d’absorber plus de CO2 atmosphérique, afin de réduire le réchauffement de la planète. « C’est une idée qui peut non seulement arrêter l’horloge sur le dioxyde de carbone, mais elle peut également l’inverser. Il est essentiel que nous réduisions nos émissions, mais cela ne suffit pas. Nous avons besoin d’un plan B pour diminuer la quantité de CO2 dans l’atmosphère. Nous avons besoin des concepts modélisés par la recherche, mais aussi désormais des volontés juridiques, éthiques et de gouvernance, qui seront indispensables à la mise en route concrète d’un tel projet », précise Tim Kruger au journal anglais Guardian. En effet, le projet Cquestrate se heurte pour l’instant à des écueils de taille.
« Approfondir les recherches sur la faisabilité »
Ainsi, déverser de grandes quantités de chaux dans la mer est à l’heure actuelle totalement illégal. Ensuite, les quantités de chaux en question sont pour le moins importantes : on parle de 10 km³ par an pour stopper l’augmentation de la concentration en CO2 dans l’air atmosphérique. Or, créer de la chaux est un procédé énergivore, même si le gain au niveau de l’absorption du CO2 compenserait ensuite très largement le coût énergétique de fabrication. Le coût de fabrication reste aussi un problème qui n’a pas encore trouvé de solution.Il est donc envisagé de capturer et d’enterrer le CO2 indispensable à la fabrication de la chaux à la source, afin de donner une réelle pertinence au projet.Quoi qu’il en soit, le lancement du projet Cquestrate permettra aux ingénieurs, chimistes et biologistes du monde entier, via le site internet dédié, d’apporter leurs idées et leurs savoir-faire, pour rendre ce projet réalisable. Le projet, précédemment jugé comme utopique, réunit d’ailleurs aujourd’hui autour de lui de vrais soutiens, dont celui de Chris Goodall, un des experts présent à Manchester pour évaluer les projets présentés. « Le concept de base semble bon, mais il faut approfondir les recherches sur la faisabilité pour avancer concrètement », a-t-il déclaré.P.T

Christian Ngô : « Il n’y aura plus de pétrole et de gaz dans cent ans »

Christian Ngô est agrégé de l’Université et Docteur es sciences. Il a fait de la recherche fondamentale en physique nucléaire pendant presque 20 ans à l’Université d’Orsay et au CEA/Saclay. A travers son ouvrage « Demain l’énergie, moteur de l’humanité » (Ed Dunod), l’auteur dresse un bilan des ressources existantes, et des perspectives futures en termes d’énergie, qui devront être pensées et validées en fonction des problématiques environnementales.

Techniques de l’Ingénieur : Quelles sont les pistes aujourd’hui, pour satisfaire une demande en énergie croissante ?
Christian Ngô : Tout d’abord, il faut faire état des contraintes qui sont les nôtres. Aujourd’hui, 80 % de l’énergie que nous utilisons provient du pétrole, du charbon et du gaz. Mais ces combustibles fossiles existent en quantités finies. Ils s’épuiseront un jour. En ce qui concerne le pétrole et le gaz, on estime que l’on en trouvera plus dans un siècle. Pour le charbon, cela pourrait aller jusqu’à deux siècles, grand maximum. Mais au-delà de la taille des réserves en combustibles fossiles, une autre problématique s’est imposée au coeur des débats : celle de l’impact environnemental. Aujourd’hui nous savons que consommer du pétrole ou du charbon sans se soucier des conséquences pour le climat serait dramatique. A partir de ce constat, deux possibilités existent qui peuvent cohabiter. Soit nous réduisons notre consommation d’énergie, soit nous utilisons autant que possible les énergies renouvelables.

Au niveau des énergies renouvelables, pensez-vous que suffisamment d’efforts sont faits pour généraliser leur utilisation ?
Il faut tout de même se rendre compte que nous consommons beaucoup plus d’énergies renouvelables que nos ancêtres. Aujourd’hui, nous produisons 1 milliard de tonnes équivalent pétrole avec la biomasse. Il y a cent ans, ce chiffre était cinq fois inférieur. Des progrès sont nécessaires, c’est certain. Seulement à l’heure actuelle, le remplacement total des combustibles fossiles par les énergies renouvelables n’est pas envisageable, simplement car il n’est pas possible. Il faut donc continuer à développer les énergies alternatives renouvelables, pour les rendre plus efficaces et plus compétitives.

Quelles sont aujourd’hui les pistes les plus sérieuses pour préparer l’épuisement des combustibles fossiles et diminuer les émissions de gaz à effet de serre ?
Quand on émet du CO2 dans l’atmosphère aujourd’hui, il y reste cent ans. L’urgence du problème est donc réelle. Il faut savoir qu’aujourd’hui, les pays émergents émettent plus de CO2 que les pays de l’OCDE. Un pays comme la Chine construit une centrale à charbon tous les quatre jours ! Il est donc urgent de rendre les énergies renouvelables compétitives. Pour l’instant deux pistes se dégagent. La première est bien sur l’énergie solaire, qui est la plus prometteuse des énergies renouvelables. Cependant, la technologie pour récupérer cette énergie reste beaucoup trop chère. Ensuite, le nucléaire est une technologie maîtrisée et dont l’efficacité n’est plus à démontrer. Enfin, la fusion thermonucléaire, à l’étude, est une piste qui possède un potentiel énorme. Nous devons continuer les recherches en ce sens.Propos recueillis par Pierre ThouverezEn savoir plusComment satisfaire la demande croissante en énergie ? Comment développer et rendre plus accessibles les énergies renouvelables ? Peut-on se passer du nucléaire ? Quelles sont les meilleures pistes pour éviter une crise énergétique ? Comment réduire notre consommation et éviter les gaspillages ?C’est à toutes ces questions que Christian Nghô se propose de répondre à travers son ouvrage, « Demain l’énergie, moteur de l’humanité », paru aux éditions Dunod.Egalement auteur pour les éditions Techniques de l’Ingénieur, Christian Ngô collabore aux rubriques Energies, Chimie/Agroalimentaire et Biotechnologies. Voir

Les Etats-Unis champions du monde des supercalculateurs

Le Top 500 des supercalculateurs publié fin juin met une fois de plus en avant la domination américaine. En tête du classement, les supercalculateurs Roadrunner et Jaguar, propriété de laboratoires américains, demeurent indétrônables. Ils n’ont cependant pas progressé en puissances (1.105 et 1.059 Tflp/s de performance maximale au test Linpack). Une particularité qui ne reflète pas la tendance actuelle puisque, au niveau global, les puissances ont fortement augmenté, atteignant un total cumulé de 22,6 Pflop/s, contre 19,95 Pflop/s il y a six mois et 11,7 il y a un an. Les Etats-Unis dominent très largement l’ensemble du classement, avec 58 % des 500 supercalculateurs les plus puissants du monde et huit supercalculateurs parmi les dix premiers.Face à cette suprématie, l’Allemagne a réussi à se hisser sur la troisième marche du podium avec Jugene. Notons que ce supercalculateur est utilisé par le laboratoire Forschungszentrum Jülich, qui héberge également Juropa placé en 10e position. L’Asie est en progression avec notamment un centre à Shanghai en 15e position, devant le premier français situé en 20e position. Huit centres français se trouvent parmi les 100 premiers.Du côté des constructeurs, Hewlett-Packard peut se targuer de 212 systèmes présents dans le Top 500, devant IBM (188), Gray et SGI (20 chacun). 80 % des systèmes utilisent des processeurs Intel, un chiffre en hausse de 4 points. IBM arrive en seconde position pour les processeurs (11 %). Les processeurs multi cœurs deviennent la norme, avec des microprocesseurs à quatre cœurs (quad-core) dans 383 systèmes et des doubles cœurs (dual-core) dans 202 systèmes. Symbole de la tendance green IT, les organisateurs (*) du classement ont ajouté des données sur l’efficacité énergétique. La consommation du top 10 n’a pas bougé, à 2,45 mégawatts. Cependant, la puissance ayant augmenté, l’efficacité est passée de 228 en novembre 2008 à 280 Mflp/s/watt en juin 2009. C.G.(*) Liste compilée par Hans Meuer de l’université de Mannheim en Allemagne, Eric Strohmaier et Hosrt Simon de NERSC/ Lawrence Berkeley national laboratory et Jack Dongarra de l’université du TennesseeConsulter la liste du top 100 : http://www.top500.org/list/2009/06/100

Energie durable versus énergie renouvelable

La définition de l’énergie durable varie selon les personnes. Même Wikipedia renvoie principalement aux critères des énergies renouvelables. Trop souvent cependant, ces définitions mettent l’accent sur la consommation d’énergies fossiles et les émissions de CO2 qui en découlent, au détriment de l’utilisation d’autres ressources rares comme l’eau, notamment.

Ainsi, l’éthanol de maïs consomme de grandes quantités d’eau alors que ce carburant est communément considéré comme indéfiniment renouvelable et donc bien plus durable que le pétrole auquel il doit se substituer. De façon ironique, la production et le raffinage de pétrole consomment en moyenne beaucoup moins d’eau par gallon ou BTU (British thermal unit) de carburant que la plupart des biocarburants. L’écart est moins flagrant si on prend en compte la production de biocarburant d’origine non alimentaire qui demande peu ou pas d’irrigation.

Les biocarburants ne sont pas les seuls composants de notre mix énergétique à consommer beaucoup d’eau. La production d’électricité en utilise également en grande quantité, bien que la majeure partie retourne en aval sans dégradation. La plupart des centrales thermiques consomment de l’eau pour le refroidissement et la production de vapeur. Cela comprend à la fois les centrales fossiles et nucléaires.

L’eau n’est pas la seule donnée à prendre en compte

Certaines sources d’énergie renouvelables sont également soumises à cette contrainte dont l’énergie thermique solaire, comme l’a souligné un article récent dans le Washington Post. La géothermie profonde, qui a un fort potentiel en tant que source d’énergie à faibles émissions de CO2, requière d’injecter de grands volumes d’eau sous terre afin de créer des réservoirs hydrothermaux artificiels, ainsi que pour transférer la chaleur à la surface comme source d’énergie. En réalité, au moins 80% de la production d’électricité aux Etats-Unis l’an dernier a nécessité des quantités d’eau plus ou moins importantes, une dépendance qui a soulevé des critiques lors de la sécheresse de 2007 dans le sud-est du pays.

L’eau n’est pas la seule donnée à prendre en compte dès lors que nous élargissons notre vision de l’énergie durable. La consommation de terres et de métaux rares dans la production de panneaux solaires fins, de batteries évoluées ou encore de générateurs d’éoliennes, ainsi que d’autres aspects de l’économie verte en plein boom, commencent à inquiéter certains experts. Sans avoir creusé la question, je serais surpris que ces facteurs se révèlent une limite à court terme.

Le gaz et le charbon ne sont pas les seules substances à se trouver en quantité limitée dans la croûte terrestre

Après tout, nous parlons de technologies qui n’ont pas plus de quelques années et il n’y a pas eu beaucoup de temps pour développer la production de ces composants exotiques afin d’adapter l’offre à la demande croissante. La question de l’échelle est toutefois à double tranchant. Par exemple, si la part de l’énergie solaire passait de moins de 1% des énergies renouvelables aux Etats-Unis aujourd’hui à 10%, il faudrait des dizaines de milliers de tonnes d’un composant utilisé à hauteur de 100 grammes par KW. Dans le cas du Tellurium, utilisé dans les cellules solaires à Cadmium telluride, la production devrait être multipliée par au moins 10 en l’espace d’une ou deux décennies. Cela peut se révéler impossible, du moins d’un point de vue économique.

Il ne s’agit pas de nous lamenter sur une dynamique déprimante où des conséquences inattendues se présenteraient chaque fois que nous cherchons une alternative aux énergies conventionnelles. Au lieu de cela, il faut garder en mémoire que le pétrole, le gaz et le charbon ne sont pas les seules substances à se trouver en quantité limitée dans la croûte terrestre. Nous devons considérer toutes les options énergétiques en termes de compromis, sans nous en tenir à l’aspect esthétique des éoliennes ou des panneaux solaires dans notre cour. Les choix que nous faisons imposent une analyse de leur cycle de vie. Ce ne sera pas facile, encore moins pour les secteurs qui ont tiré bénéfice jusqu’ici d’une vision étroite de la question.

Par Geoffrey Styles, gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il a également un blog : Energy Outlook.

« REACH offre l’opportunité d’un nouveau type de collaboration »

L’adoption de REACH en décembre 2006 vise à responsabiliser les producteurs, et les importateurs de produits chimiques. Cette avancée a également des conséquences au niveau de la médecine du travail. Ulrick Bronner, médecin du travail chez Alcan Aérospace, nous explique les conséquences de la mise en place de REACH, et l’opportunité que cette petite révolution représente.

 Techniques de l’ingénieur : une réforme comme REACH était elle selon vous nécessaire ?
Ulrick Bronner : Cette réforme était nécessaire, cela ne fait aucun doute, mais elle n’est pas pour autant suffisante ! L’adoption de REACH en décembre 2006 constitue une avancée conceptuelle réelle en tant que cadre réglementaire qui se veut responsabilisant et harmonisé tant pour les producteurs que pour les importateurs de produits chimiques, avec comme finalité louable une amélioration sensible du niveau de protection des populations et de notre habitat. On attend malgré tout des réponses aux insuffisances présentes dans cette règlementation et connues de tous (principe de « maîtrise valable » des substances extrêmement préoccupantes, sécurité des consommateurs vis-à-vis des produits de consommation comme les médicaments, cosmétiques, produits labellisés, pesticides… issus des autres grands marchés mondiaux.)

REACH est-il la réponse que vous attendiez aux problèmes de santé au travail ?
Non, dans la mesure où la santé au travail déborde largement la seule problématique « produits chimiques » qui n’est qu’un des défis actuels (TMS, pénibilité, risques psycho-sociaux, addictions…) du monde du travail, face auxquels les médecins du travail, disposant d’une expertise transversale unique dans l’entreprise, doivent faire valoir leur compétence. Toutefois REACH offre une opportunité réelle de plus large collaboration (devenue incontournable au niveau européen et toujours contractualisée au niveau national) entre les industriels et les médecins du travail, sur la thématique gestion du risque chimique, de l’origine (R&D et risques bruts) au consommateur ultime (bioaccumulation) qui n’a souvent plus aucun lien direct avec l’entreprise utilisatrice du produit.

Comment REACH va-t-il changer vos missions auprès des entreprises ?
En amenant davantage le médecin à mieux collaborer avec les entreprises et réciproquement. Dans une entreprise idéale où le médecin du travail aurait les moyens matériels, humains (collaborateurs) et organisationnels de mener à bien l’ensemble de ses missions de tiers-temps (situation envisageable pour certains services autonomes et quasi inatteignable pour la majorité des services inter-entreprises), REACH devrait lui permettre de crédibiliser sa présence dans l’entreprise par son association incontournable à une gestion responsable des produits chimiques (homologation, substitution, veille réglementaire, stratégie R&D, élaboration du plan Hygiène Industrielle site, validation des FDSS, avis en terme de protection et de métrologie d’ambiance, délivrance des attestations d’exposition…).

REACH marque-t-il le début d’un nouveau type de rapports entre les médecins du travail et les entreprises ?
Je le souhaite, afin qu’on passe d’une relation où parfois la méfiance est de mise vers un partenariat dans lequel toutes les parties prenantes collaborent dans un esprit de pluridisciplinarité pour une gestion intégrée de la santé, de la sécurité et de l’environnement au travail.Propos recueillis par Pierre Thouverez 

« Les nanotechnologies devraient soulever des débats plus spécifiques et spécialisés »

Techniques de l’ingénieur : Dans votre livre (cf. encadré), vous soulevez le problème de la définition des nanotechnologies, avec une approche basée sur la dimension et une autre basée sur les propriétés. D’après vous, quelle est la bonne approche ?

Dominique Vinck : La bonne réponse est celle qui finira par s’imposer dans les milieux industriels, scientifiques ou institutionnels. L’industrie utilise une entrée plutôt classique dans la lignée de la microélectronique. Les physiciens ont une approche ascendante. Il existe des divergences et des enjeux très forts, avec au-delà des connotations du type conservateurs versus farfelus. Certains se battent pour stabiliser des définitions au sein d’instances normatives.

Le débat sur la définition est-il le même dans tous les pays ?

Cela dépend du poids relatif des disciplines dans les différents pays. Au niveau européen, la physique prédomine. A Grenoble, c’est surtout la microélectronique. Aux Pays-Bas, c’est la chimie, aux Etats-Unis les sciences du vivant, en Asie les matériaux.

Les nanotechnologies ne sont-elles pas à la croisée des sciences ?

Lorsque l’on étudie les revues scientifiques sur les nanotechnologies, on se rend compte qu’il existe généralement une discipline dominante, généralement en physique ou en chimie. Aucune revue ne propose un équilibre entre les disciplines. Il y a eu un grand discours sur la convergence des disciplines mais, dans la pratique, cette convergence s’avère moins évidente. Aujourd’hui, on a plutôt tendance à redécouper par disciplines. Le nombre moyen de cosignataires d’articles tend à baisser. On observe moins de mélanges d’une discipline à l’autre qu’en 2001 – 2004. Mais un retournement de situation peut très bien arriver en trois ou quatre ans.

Dans votre livre, vous évoquez le progrès incrémental et la vision révolutionnaire. Laquelle vous semble la plus plausible ?

La plus proche de ce qui se passe aujourd’hui est la vision incrémentale, c’est-à-dire l’intégration d’innovations dans l’existant. Les ruptures radicales s’avèrent le plus souvent des échecs. On constate parfois des phénomènes d’accélération des nouveautés qui font basculer collectivement les choses. Ce sera peut-être le cas, mais pas pour l’instant. Toutes les grandes industries multinationales, quel que soit le secteur, font aujourd’hui de la recherche dans les nanotechnologies.

Quel est le grand défi pour la recherche dans le domaine des nanotechnologies ?

D’après ce que j’observe, le grand défi actuel concerne l’intégration de plusieurs fonctions sur le matériau et au niveau le plus élémentaire. Pour prendre une comparaison, les ailettes autour du moteur d’une voiture servent à la fois à structurer le cylindre et à refroidir, et c’est le même élément qui remplit les deux fonctions.

Existe-t-il un débat public autour des nanotechnologies ?

Un débat a émergé en 2003, cela s’est calmé depuis un ou deux ans. On a mélangé toutes les technologies dans une grande confusion. On devrait aller vers des débats plus spécifiques et spécialisés en fonction de tel ou tel développement.

Quels débats vous semblent-ils les plus importants ?

Dans le domaine des nanofoods, nous sommes à la limite de ce que l’on connaît en matière de toxicité. D’autre part, la production et les usages de données par les objets communicants me semblent très importants, avec des inconnus juridiques, économiques et politiques. Cela peut changer des rapports de force dans la société. Par exemple, si des mouchards permettent de savoir si un objet a reçu un choc, cette fonction sera au service du vendeur qui doit ou non appliquer la garantie. C’est à la société de dire si c’est bien ou pas.

Quelle discipline doit-elle s’attaquer au sujet ?

C’est potentiellement un chantier pour les sciences sociales. Mais très peu de chercheurs rentrent dans les contenus scientifiques et technologiques. La plupart regardent les débats depuis la rue, sans rentrer dans les laboratoires.

Les nanotechnologies font-elles peur ?

Globalement les gens n’ont pas peur. Ils font confiance aux scientifiques, mais ils se méfient de plus en plus des institutions.

Faut-il avoir peur des nanomatériaux ?

D’un point de vue théorique, les risques sont potentiellement énormes mais, d’un point de vue empirique, on ne sait pas répondre à cette interrogation. Il existe très peu de financements sur ces sujets, et même s’ils existaient, la question est de savoir quels laboratoires compétents et indépendants pourraient mener les recherches. Propos recueillis par Corentine Gasquet

ParcoursDominique Vinck est professeur à l’université Pierre Mendès-France (sciences sociales) et à l’Institut national polytechnique de Grenoble. Son livre Les nanotechnologies est paru en février 2009 dans la collection Idées reçues du Cavalier bleu. La bio de Dominique Vinck sur Wikipedia

 

WolframAlpha, le premier moteur de recherche « intelligent » ?

http://www.bulletins-electroniques.com/actualites/59857.htmLe marché de la recherche sur Internet est depuis le début du 21 ème siècle largement dominé par le géant de Palo Alto, Google. Mais 2009 va-t-il marquer un tournant dans l’histoire du secteur ? Microsoft a annoncé le lancement imminent de Bing, son nouveau moteur de recherche qui était jusque-là connu sous le nom de Kumo. C’est également dans le courant du mois de mai que Stephen Wolfram, génie britannique et entrepreneur à la tête de Wolfram Research, a décidé de lancer son moteur de recherche : WolframAlpha.Il s’agit du premier moteur de recherche « intelligent » dans la mesure ou il fonctionne différemment des moteurs de recherche traditionnels : WolframAlpha ne se contente pas de parcourir les pages qu’il a indexé à la recherche de mots clés, mais « comprend » les requêtes saisies par ses utilisateurs et en « calcule » les réponses.C’est à la croisée de deux projets de Stephen Wolfram qu’est né WolframAlpha :– NKS (A new kind of science), le livre de Stephen Wolfram, publié en 2002, est une étude systémique et empirique des systèmes de calcul ;– Mathematica, le logiciel de calcul formel de Wolfram Research.Il l’explique ainsi sur son blog : « J’avais deux éléments cruciaux (pour entreprendre son projet de moteur de recherche intelligent, ndlr) : Mathematica et NKS. Grâce à Mathematica, je disposais d’un langage symbolique pour tout représenter – ainsi que la puissance algorithmique pour faire tout type de calcul. Et grâce à NKS, j’avais un paradigme pour comprendre comment toutes sortes de difficultés peuvent émerger de règles simples. »Le moteur de recherche a déjà traité plus de 100 millions de requêtes depuis son ouverture au public. Stephen Wolfram se réjouit de ce succès qui lui permettra d’améliorer le moteur. Il estime que trois requêtes sur quatre sont traitées avec succès par son moteur ce qui donne environ 25 millions de requêtes à étudier pour comprendre comment améliorer le traitement des requêtes des internautes.
Copie d’écran du moteur de recherche WolframAlpha
 Sources :– WolframAlpha, www.wolframalpha.com– Wolfram Research Blog, blog.wolfram.com– ABC news, 31/05/2009, www.abc.net.auRédacteur : Vincent GomelOrigine : BE Royaume-Uni numéro 97 (7/07/2009) – Ambassade de France au Royaume-Uni / ADIT – http://www.bulletins-electroniques.com/actualites/59857.htm