Un réseau électrique européen synchrone

Le système électrique français est interconnecté avec ses pays voisins au sein du réseau de l’Europe continentale qui constitue un réseau « unique ». Dans cette zone, l’ensemble des moyens de production et de consommation doit être équilibré en permanence. Lorsqu’il y a un équilibre parfait entre la production et la consommation, la fréquence est la même partout, égale à 50 Hz. 

Les différentes zones synchrones sont reliées entre elles par des liaisons à courant continu qui fonctionnent comme des robinets que l’on peut fermer. Elles permettent de faire des échanges d’électricité et d’optimiser la production de chacune.

Comment tout cela fonctionne-t-il ?

Lorsqu’il y a un excès de production, la fréquence du réseau augmente. Au contraire, lorsqu’il y a un déficit de production par rapport à la consommation, la fréquence baisse. Les gestionnaires de réseaux doivent donc rester au plus proche de 50 Hz pour assurer la qualité du réseau

Ce respect de la fréquence est important, car les process industriels et les machines de production ont besoin d’une fréquence de 50 Hz (c’est la norme) et l’ensemble des appareils électriques ont un fonctionnement optimal à cette fréquence : télévision, réfrigérateur, etc.

Dès que l’on s’écarte de cette valeur, le rendement des machines est dégradé. « Lorsque l’on s’écarte trop de 50 Hz, on risque de voir des machines de production s’arrêter et se déconnecter automatiquement du réseau », commente Jean-Paul Roubin, Directeur du dispatching national de RTE, l’opérateur du réseau de transport d’électricité français. « À 47 Hz, plus aucune machine de production n’est capable de rester connectée à un réseau », ajoute-t-il.

Il en reste que cette puissance moyenne est supérieure à celle de 15 réacteurs nucléaires de type EPR. Cette puissance importante permet d’éviter des désagréments trop fréquents pour les utilisateurs. En effet, grâce à sa valeur élevée, les petits problèmes qui surviennent tous les jours dans les différentes centrales passent totalement inaperçus aux yeux des utilisateurs.Heureusement, « plus le réseau est grand, plus il est robuste : un aléa sur une production va être compensé par l’ensemble de la zone synchronisée », fait-il savoir. Ainsi, sur la zone synchrone d’Europe continentale, « une variation de fréquence d’un hertz, correspond en moyenne à une différence de puissance entre la production et la consommation d’environ 25 000 MW », estime-t-il. Cela est évidemment différent à tout moment en fonction du niveau global de consommation et de production !

Grâce aux interconnexions situées aux 46 zones transfrontalières françaises, les acteurs du marché de l’électricité organisent des échanges d’électricité avec l’ensemble des pays membres de la zone. « On est passé d’une optimisation locale et nationale à une optimisation de la production d’électricité qui se fait sur la maille européenne », précise Jean-Paul Roubin.

Ces acteurs vont pouvoir observer la disponibilité et le coût des moyens de production dans les différents pays et décider, par exemple, de démarrer plutôt une centrale au charbon dans un pays ou d’importer de l’électricité produite par des éoliennes à un moment donné.

Comment éviter les black-out ?

Les black-out ont 3 origines principales : l’écroulement de fréquence, l’écroulement de tension et l’effet cascade de surcharges sur le réseau. L’écroulement de fréquence est lié à un déséquilibre entre la production et la consommation. Il traduit une surcharge généralisée et non prévue. Pour y remédier, il faut réaliser une cascade de coupures ou des délestages choisis. Dans ce cas, il faudra revenir à une fréquence supérieure à 50 Hz, avant de reconnecter les utilisateurs ou les process, afin de ne pas « écrouler » la fréquence à leur reconnexion.

L’effet cascade de surcharges sur le réseau se produit lorsqu’une ligne déclenche et surcharge ses voisines par son report de transit. Pour mieux comprendre de quoi il s’agit, il faut se rappeler que les lignes transportant l’électricité sont en métal. Plus la ligne transporte de l’électricité, plus le métal chauffe et se dilate et se rapproche donc du sol.

Lorsque la ligne est en surcharge, elle peut être « disjonctée » automatiquement par mesure de sécurité, pour respecter sa distance minimale de sécurité avec le sol ou une habitation, par exemple. Dès lors, l’électricité qu’elle transportait est reportée vers une autre ligne. Si le report d’électricité est trop important, les surcharges de ligne peuvent se faire en chaîne, la quantité d’électricité à reporter s’amplifiant au fur et à mesurer que le nombre de lignes en surcharge augmente.

Le dernier cas de cause possible de black-out est l’écroulement de la tension. En France, nos habitations sont alimentées par un réseau de distribution en basse tension (220 V).  En revanche, le réseau de transport de l’électricité est composé de lignes à très haute tension, entre 63 et 400 kV. La tension « s’écroule » si la puissance appelée par le réseau de distribution dépasse la puissance maximale transmissible par le réseau de transport. Pour y remédier, il faut réaliser une cascade de coupures ou des délestages.

Pour éviter tous ces incidents, plusieurs moyens de suivi sont mis en place. Le plus important est de pouvoir anticiper la consommation et la production sur le réseau, ainsi que les échanges aux interconnexions. Il faut avoir des prévisions de production à chaque instant pour regarder en permanence l’état du système électrique, détecter des zones à risques et activer des leviers pour éviter les problèmes. Cela commence plusieurs années à l’avance et finit en temps réel, dans la salle de contrôle du dispatching national de RTE à Saint-Denis. Le centre reçoit plus de 50 000 informations en temps réel, rafraichies toutes les 10 secondes.

Si cela vous intéresse, RTE met en ligne en temps réel la consommation, la production, les échanges commerciaux et le contenu CO2 de l’électricité française sur son site Internet ou via l’application éCO2mix pour iPhone et Android.

Par Matthieu Combe, journaliste scientifique

L’essentiel de REACH 1/2 (juillet)

Consultation publique sur la modification des annexes du règlement REACH

Le 21 juin, la Commission européenne a ouvert une consultation publique sur la modification des annexes du règlement REACH relatives aux nanomatériaux. Cette consultation, qui s’achève le 13 septembre, vise à évaluer l’efficacité, les coûts et la sécurité de cinq options de clarification de la procédure d’enregistrement des nanomatériaux. Plus d’information sur :

http://ec.europa.eu/environment/consultations/nanomaterials_2013_en.htm

Contrôle des substances et produits chimiques

La circulaire interministérielle n°DGPR/DGCCRF/DGT/DGS/DGDDI du 25 juin 2013 vise la poursuite des actions de contrôle sur le respect de la réglementation des produits chimiques, de façon coordonnée entre ministères et entre les différents corps de contrôles habilités. Elle prévoit la réalisation de contrôles thématiques spécifiques, qui sont précisés dans des fiches confidentielles adressées aux corps de contrôles par chacune des directions générales concernées. Cette circulaire est téléchargeable sur http://circulaires.legifrance.gouv.fr/pdf/2013/06/cir_37157.pdf.

Une substance supplémentaire au plan d’actions CoRAP

01/07/213

L’ECHA a annoncé qu’elle ajoutait le benzènediamine-1,4, mélange de N,N’-dérivés phényles et tolyles (CAS : 68953-84-4) au plan d’action triennal d’évaluation des substances (CoRAP) prévu par le règlement REACH.

La classification de deux substances chimiques en consultation

02/07/2013

L’ECHA lance une nouvelle consultation publique sur des propositions de classification et d’étiquetage harmonisés du bupirimate et de l’hydroxyisohexyl 3-cyclohexene carboxaldehyde. Les commentaires sont à soumettre avant le 16 août prochain.

Nouvelle consultation pour éviter les tests sur les animaux

02/07/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 82 consultations sont lancées. Les informations relatives à ces substances sont à soumettre pour le 16 août prochain.

Suppression des valeurs limites d’exposition professionnelle indicatives pour certains agents chimiques

04/07/2013

Un arrêté paru au Journal Officiel du 4 juillet supprime des valeurs limites d’exposition professionnelle indicatives pour deux agents chimiques : l’acétate de 2-butoxyéthyle et le 2-butoxyéthanol.

L’arrêté est téléchargeable sur : http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000027655093&dateTexte=&categorieLien=id

Nouvel appel de l’ECHA sur les utilisations de pigments à base de cadmium dans les plastiques

04/07/2013

L’ECHA lance un nouvel appel à témoignages sur les utilisations de pigments à base de cadmium dans les plastiques. Les commentaires sont à soumettre avant le  29 août. Cet appel s’inscrit dans le cadre d’un projet d’élargissement de la restriction applicable au cadmium et à ses composés à l’ensemble des matériaux en plastique. Plus d’informations sur :

http://echa.europa.eu/fr/addressing-chemicals-of-concern/restriction/call-for-evidence-consultation

Guide pour les fournisseurs d’articles

04/07/2013

Un nouveau guide, élaboré conjointement par la France, l’Allemagne, la Belgique, le Danemark, la Suède et la Norvège, est disponible et est à destination des fournisseurs d’articles.

Ce guide propose notamment plusieurs exemples permettant aux fournisseurs de s’acquitter de leurs obligations et se concentre également sur le calcul du seuil des 0,1% selon la position adoptée par la France et 6 autres États Membres (position divergente de celle adoptée par la Commission Européenne).

Ce document est disponible en anglais sur http://www.ineris.fr/reach-admin/file_upload/File/guidance_suppliers_articles_20130620.pdf. La version française sera disponible prochainement.

Déclaration des nanomatériaux

05/07/2013

La date limite pour déclarer les nanoparticules fabriquées, distribuées ou importées en 2012 était fixée au 30 juin 2013. Plus de 930 déclarants ont réalisé 3.400 déclarations, dont plus de 90 fournisseurs étrangers. Un rapport public qui recensera les substances déclarées et leurs usages devrait être mis en ligne en novembre 2013 sur le site www.r-nano.fr.

Nouvelle brochure CLP

Le Ministère de l’Ecologie (MEDDE), en collaboration avec le Helpdesk France (INERIS), a publié et mis en ligne une brochure simplifiée relative au règlement CLP et aux nouveaux pictogrammes de danger. Cette brochure est disponible sur :

http://www.ineris.fr/ghs-info/files/Nouveaux_pictogrammes_light.pdf

 Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Les USA champions du monde en réduction des émissions de CO2

Les auteurs du Sustainable Energy in America 2013 Factbook décrivent l’émergence rapide de technologies modernes aux USA, et ses conséquences au niveau du mix énergétique et des émisisons de gaz à effet de serre. Le changement est très rapide.

Progression des énergies renouvelables et du gaz naturel,  recul du charbon et du pétrole

La puissance installée des énergies renouvelables à doublé en 5 ans. La part de ces énergies durables dans l’énergie totale consommé (incluant électricité, chaleur et transports) a bondit de 6,4% à 9,4%, une progression de 3 points. 

Le gaz naturel, la plus propre (ou moins sale) des énergies fossiles, a progressé pour répondre à présent à un tiers de la demande électrique. Entre 2007 et 2012, la part du gaz naturel dans l’énergie totale consommé (incluant électricité, chaleur et transports) est passée de 23,4% à 27,2%, soit une progression de 3,8 points. 

Durant la même période la part du charbon, le plus polluant des combustibles fossiles, a chuté de 22,5% à 18,1%, soit un recul de 4,4 points, ce qui est remarquable. La part du pétrole s’est érodée de 39,3% à 36,7%, une baisse de 2,6 points. 

L’efficacité énergétique a progressé de 6%

Le rapport souligne que la recherche de l’efficacité énergétique devient une priorité aux USA, en particulier chez les grands consommateurs d’électricité qui deviennent de plus en plus conscient de son intérêt financier. Depuis 1980, l’intensité énergétique des bâtiments commerciaux a chuté de plus de 40%. 

Globalement, la demande énergétique aux USA a diminué de 6,4% entre 2007 et 2012, en grande partie grâce aux gains d’efficacité et en dépit d’un contexte de croissance économique. Les USA montrent ainsi qu’un découplage entre croissance économique, consommation d’énergie et émissions de CO2 est possible.

La vente des véhicules hybrides et électriques a atteint un volume de 488000 unités en 2012, et l’usage du gaz naturel dans les transports a augmenté de 26% entre 2008 et 2011. « Ces nouvelles technologies énergétiques, que certains considèrent comme pas encore prêtes, ont dès à présent un sérieux impact sur l’énergie américaine » a déclaré  Ethan Zindler, directeur des analyses politiques au sein de Bloomberg New Energy Finance. 

Le coût des énergies renouvelables en baisse 

Les auteurs du rapport soulignent également la chute spectaculaire des coûts de production du solaire photovoltaïque, passant de 31 cents le kWh en 2009 à 14 cents par kWh en 2012 (1 dollar = 0.75 euro). Le coût de l’éolien terrestre a également diminué, passant de 9 cents le kWh en 2009 à 8 cents en 2012. 

Pour Lisa Jacobson, présidente du Business Council for Sustainable Energy, « des changements significatifs sont en train de se produire dans le secteur énergétique américain, changements qui boostent l’investissement et l’accélération du déploiement de toute une gamme d’écotechnologies commercialement viables. » 

Au final, les émissions de CO2 ont décliné de 13% en 5 ans, faisant des USA le leader mondial de la réduction des émissions de gaz à effet de serre. La croissance du PIB américain au premier trimestre 2013 s’est établie à 2,4% en rythme annualisé de janvier à mars.

Olivier Daniélo

Lire aussi : Les énergies renouvelables ont rendez-vous avec le gaz naturel

Solaire photovoltaïque : le monde a franchit la barre des 100 000 MW

Durant l’année 2012, le monde a installé 31 GW (1 GW = 1000 MW) de nouvelles capacités PV, portant la puissance installée mondiale cumulée à 102 GW, une puissance permettant de générer autant d’électricité que 16 centrales au charbon de 1 GW chacune. 

La première puissance solaire mondiale est l’Allemagne (32,4 GW), suivie de l’Italie (16,3), de la Chine (8,3), des USA (7,7) et du Japon (6,9).   

Le soleil a fournit 2,6% de l’électricité européenne en 2012

7 pays de l’UE dépassent à présent les 100 watts installés par habitant: Allemagne (398), Italie (273), Belgique (241), République tchèque (196), Grèce (144), Bulgarie (123) et Espagne (110). La France, malgré son énorme potentiel solaire, fait 6,5 fois mois bien que l’Allemagne.  6 régions italiennes, 4 régions allemandes, 1 région espagnole et 1 région grecque dépassent les 450 watts par habitants.

La part du PV dans les mix électriques dépasse 1% dans 10 pays européens en 2012, atteignant des niveaux très significatifs pour certains d’entre eux : Italie (6,7 %), Allemagne (5,6), Grèce (4,2), Bulgarie (3,4), République Tchèque (3,1), Belgique (2,9), Espagne (2,8), Slovaquie (2), Slovénie (1,7), Danemark (1,1).

Le charbon et le nucléaire reculent. Les renouvelables et le gaz progressent

En 2012, l’UE a installé (bilan net) 16,6 GW de PV, 11.6 GW d’éolien et 5 GW de centrales à gaz. Elle a retiré 1,1 GW de centrales nucléaires, 2,4 GW de centrales à charbon (5,4 GW de retirées et 3 GW de nouvelles centrales ajoutées) et 3,1 GW de centrales au fioul. 

Le PV est vraiment sorti de la marginalité et grignote progressivement le business des énergies non durables.

Par Olivier Daniélo

Quelle hausse pour les tarifs réglementés d’électricité ?

La Commission de régulation de l’énergie est formelle : les tarifs réglementés d’électricité d’EDF ne permettent pas de couvrir les coûts de production, de commercialisation et d’acheminement jusqu’aux sites de consommation. Elle recommande une augmentation des tarifs bleus d’EDF entre 7 % et 10 % durant l’été 2013, puis d’environ 3 % en 2014 comme en 2015. Mais ce n’est pas tout. La hausse de ce tarif ayant été nettement insuffisante ces dernières années, la CRE a relevé un manque à gagner de 1,47 milliards d’euros pour EDF en 2012. Le consommateur devra payer. Si ce rattrapage était effectué intégralement cette année, il entraînerait une hausse supplémentaire des tarifs bleus de 7,6 %.

De son côté, le Médiateur de l’énergie propose une hausse des tarifs réglementés de 5 % en 2013, et à nouveau en 2014 et 2015 afin d’éviter des rattrapages trop brutaux pour le consommateur. Pour plus de lisibilité, il préconise une fixation annuelle des prix et non plus trimestrielle, comme c’est le cas actuellement.

Fabien Choné, directeur général délégué Poweo Direct Energie, fournisseur d’énergie alternatif, propose aussi d’augmenter les tarifs réglementés d’électricité de 5 à 6 % par an pendant 3 ans. Il menace d’attaquer le gouvernement au Conseil d’Etat s’il était amené à décidé une trop faible hausse des tarifs.

Dans une situation difficile pour le pouvoir d’achat des Français et face à un coût de production qui augmente, le Gouvernement fait savoir qu’il ne prévoit pas d’effectuer ce rattrapage cette année. Il présentera toutefois un tarif réglementé revu en prenant en compte l’ensemble de ces paramètres en juillet. 

Des charges qui augmentent

Les charges d’EDF ont sensiblement augmenté entre 2007 et 2012. La CRE relève des investissements en hausse, notamment en raison de la hausse du prix des combustibles et de la maintenance du parc nucléaire, avec les exigences post-Fukushima. Les coûts d’EDF ont ainsi augmenté de 10,2 % par an pour l’ensemble des charges de production, de 2,9 % pour les charges de capital, et de 6,3 % pour les dépenses commerciales.

Compte tenu de l’augmentation structurelle des coûts de l’électricité, le Gouvernement rappelle l’importance de mettre en place rapidement le plan de rénovation énergétique pour améliorer l’efficacité énergétique des habitations. Ainsi, même si le coût du kWh augmente, la facture payée par le consommateur restera inchangée.

Par Matthieu Combe, journaliste scientifique

Convertir le CO2 en méthanol

Une équipe de chercheurs de l’Université Laval aurait mis au point un procédé révolutionnaire permettant de convertir le CO2 en méthanol, annonce faite dans un communiqué de presse baptisé – non sans cynisme – « Trop vert pour être vrai ». De nombreux chercheurs s’étaient penchés sur la question ces dernières années, transformant la recherche en une sorte de quête du Graal moderne, le but avoué étant de parvenir à cette conversion en une seule et unique étape, et de recourir à des procédés très peu gourmands en énergie. 

Présentant les résultats de leurs travaux dans la dernière édition du Journal of the American Chemical Society, les scientifiques de la prestigieuse université canadienne basée à Québec ont dû rivaliser d’ingéniosité pour parvenir à leurs fins. Le postulat de départ est limpide : « La combustion du méthanol en présence d’oxygène produit du CO2 et de l’eau. Les chimistes sont à la recherche de catalyseurs qui produiraient la réaction inverse. On pourrait ainsi réduire les émissions de gaz à effet de serre tout en synthétisant un carburant qui réduirait notre dépendance envers les hydrocarbures fossiles », explique le professeur Frédéric-Georges Fontaine, qui enseigne la chimie à la Faculté des Sciences et de Génie de l’Université Laval, et qui est à la tête de l’équipe de chercheurs canadiens.

Hydroborane et catalyse du CO2 en méthanol

La catalyse du dioxyde de carbone en méthanol nécessite un catalyseur qui est souvent hautement toxique ou extrêmement onéreux, ce qui n’est pas le cas de celui développé par le professeur Fontaine : « Contrairement à la plupart des catalyseurs proposés jusqu’à maintenant pour convertir le CO2 en méthanol, il ne contient pas de métal ce qui diminue les coûts du catalyseur et les risques de toxicité », souligne-t-il.

L’hydroborane servant à la catalyse – composé du borane (qui se décompose en bore, hydrogène et carbone) et de la phosphine, un composé pourtant relativement toxique de phosphore, d’hydrogène et de carbone – dépasse toutes les espérances, allant jusqu’à supplanter le champion des catalyseurs connus avec une réaction deux fois plus efficace, et ne produisant qu’une quantité négligeable de déchets. Autre corde à son arc, le catalyseur ne se dégrade pas avec la réaction. Il suffit alors de rajouter du substrat pour relancer une nouvelle réaction chimique.

Pourtant, tout n’est pas rose, le procédé a toujours besoin d’être optimisé car il reste encore trop coûteux : « L’approche que nous proposons pour former du méthanol est très efficace sur le plan de la chimie, mais elle demeure coûteuse pour l’instant. La synthèse d’hydroborane est énergivore de sorte que sa valeur est plus élevée que celle du méthanol », confie le chercheur. « Nous travaillons maintenant à rendre le procédé rentable en optimisant la réaction et en faisant appel à d’autres sources d’hydrogène », conclue-t-il.

Par Moonzur Rahman

La poussière pourrait menacer les missions lunaires

Délaissée depuis plusieurs  années, la Lune redevient attractive et plusieurs missions sont évoquées pour que l’homme pose à nouveau le pied sur son unique satellite. Mais d’après des chercheurs français et anglais, les astronautes devront se méfier de…la poussière ! Un ennemi jusqu’ici sous-estimé mais qui pourrait bien mettre en péril les missions lunaires.

En effet, le sol de la Lune est composé de fines particules. Celles-ci, sous l’action des rayons UV en provenance du soleil, se retrouve en suspension dans l’air. Or, la poussière lunaire peut alors s’insérer dans les appareils mécaniques, détériorer des panneaux solaires ou simplement les recouvrir les mettant de facto hors-service, ou pire, s’infiltrer à l’intérieur des combinaisons des astronautes et les asphyxier.

Ce scénario catastrophe a été révélé lors de la conférence de la Royal Astronomical Society. Le plus dangereux correspondant aux moments où le soleil se lève ou se couche. En effet, la variation du rayonnement provoque le déplacement des poussières et les empêche de se redéposer au sol. Une parade pourrait être de bâtir des engins en forme de dôme de façon à ce que les particules ne s’accumulent pas sur les appareils.

Les ingénieurs sont prévenus !

Par Audrey Loubens

Identités numériques : des opportunités peu exploitées

Un éditeur de logiciels de gestion des systèmes d’information, CA Technologies, vient de publier les résultats d’une étude européenne, conduite en janvier 2013, en collaboration avec le cabinet d’études Quocirca.

Elle révèle une forte demande pour les systèmes avancés de gestion des identités et des accès en Europe et notamment en France.

En effet, près de 73% des entreprises françaises utilisent désormais des solutions IAM (gestion des identités et des accès) afin d’identifier leurs utilisateurs (soit 3% de plus que la moyenne européenne, et bien au-delà de la demande des pays scandinaves, du Benelux et Israël).

31% des entreprises sondées en France utilisent exclusivement le modèle IAM as a Service (gestion des identités et des accès à la demande ou en mode SaaS), soit 9% de plus que la moyenne européenne. 

« Les résultats de cette étude soulignent l’importance croissante des solutions d’IAM avancées pour les entreprises françaises », déclare Jean-François Pruvot, Directeur Général de CA Technologies France.

« La capacité d’authentifier ses utilisateurs et de mieux comprendre ses besoins, deviennent des éléments extrêmement importants dans un contexte où les entreprises réalisent de plus en plus de transactions en ligne, adoptent de plus en plus le Cloud et utilisent les réseaux sociaux pour identifier leurs clients. L’identité numérique devient le nouveau périmètre des organisations.

Les entreprises intègrent cette nouvelle donne pour satisfaire leurs clients, augmenter la productivité de leurs utilisateurs internes et dynamiser leur activité. L’IAM prend ainsi une nouvelle dimension, passant d’un statut ‘d’outil sécuritaire’ à celui de ‘levier de croissance’ et où l’utilisateur et son environnement deviennent central. » 

En Europe, l’étude a permis de révéler une percée des systèmes de gestion intégrée des identités et des accès, entre 2009 et 2013.

Alors que 25% des entreprises avaient adopté un système IAM en 2009, ces solutions sont aujourd’hui déployées au sein de 70% des entreprises.

Cette enquête a ainsi permis d’identifier trois tendances expliquant cette progression : l’ouverture d’un nombre croissant d’applications aux utilisateurs externes, la popularité grandissante des services de Cloud et l’utilisation de plus en plus importante des réseaux sociaux.[ 

Open business : de bonnes intentions, mais du retard dans la mise en œuvre ! 

Les organisations françaises ont clairement pris conscience de la nécessité d’ouvrir leurs applications à des utilisateurs externes pour interagir directement avec eux (80% des entreprises – soit 7% de moins que la moyenne européenne).

Cependant, elles ne sont que 37% à avoir ouvert effectivement leurs applications à leurs clients ou partenaires (soit plus de 20% au-dessous de la moyenne européenne établie à 58%). Et cela alors que 92% de ces mêmes entreprises considèrent l’IAM comme « très » ou « assez » importante dans la mise en œuvre d’une politique de gestion des accès.

Ces résultats apparemment contradictoires peuvent s’expliquer pour plusieurs raisons : la multiplicité des sources d’identités à traiter, les différents protocoles et standards technologiques, et la nécessité d’instaurer une gestion fine des droits à chaque type d’utilisateurs. Ces raisons peuvent expliquer les difficultés rencontrées par les entreprises à mettre en œuvre l’ouverture effective de leurs applications vers des utilisateurs externes. 

IAM : outil indispensable d’accès aux données dans le Cloud 

63% des entreprises sont « tout à fait d’accord » ou « plutôt d’accord » avec l’idée que la gestion des identités et des accès est importante pour permettre l’accès aux ressources en mode SaaS et plus largement aux infrastructures de Cloud. 

Les résultats de l’étude soulignent même les bénéfices du Cloud dans ce cadre : 

  • Faciliter l’intégration d’utilisateurs externes (pour 50% des sondés) 

  • Faciliter la création de nouveaux processus métiers (pour 38 % des sondés) 

  • Réduire les coûts d’administration des identités et des accès (pour 47% des sondés) 

Les modèles de services en mode Cloud impliquent nécessairement un système avancé de gestion des identités, non seulement pour authentifier les utilisateurs mais aussi pour contrôler leurs droits d’accès et gérer la tarification à l’usage des services Cloud. 

Réseaux sociaux : accélérateurs de business grâce à l’IAM 

Les entreprises voient dans les réseaux sociaux une nouvelle source d’identités à intégrer dans leur stratégie IAM.

Ainsi, 65% des entreprises interrogées utilisent ou prévoient d’utiliser les réseaux sociaux afin d’identifier leurs clients potentiels et interagir avec eux (c’est 7% en dessous de la moyenne européenne mais 4% de plus qu’au Royaume-Uni).

Les exemples de sociétés qui proposent de s’authentifier à leurs services en se servant du profil Facebook ou Twitter des utilisateurs se multiplient. 

La consumérisation de l’informatique fait émerger le concept de BYOID 

La frontière entre l’usage professionnel et personnel des outils numériques s’estompe de plus en plus. Les collaborateurs considèrent ainsi comme normal d’utiliser leurs propres terminaux numériques (laptop, tablette, smartphone) sur leur lieu de travail (tendance baptisée « Bring Your Own Device » ou BYOD). Et il en va de même pour l’usage de leur identité numérique (Bring Your Own IDentity – BYOID).

Les solutions IAMaaS proposent ainsi des liens d’accès préconfigurés vers les réseaux sociaux (Facebook, LinkedIn, Viadeo, Twitter… etc), favorisant ainsi une intégration plus pratique des identités des utilisateurs avec les processus métiers de l’organisation avec laquelle il souhaitent interagir.

En évitant d’opérer une configuration lente et coûteuse de leur environnement informatique, les entreprises peuvent ajouter des services IAMaaS à des déploiements internes existants avec rapidité et simplicité. 

Chiffres clés sur le marché de la Gestion des Identités et des Accès 

  • L’absence de systèmes IAM rend difficile l’interaction entre les entreprises et leurs utilisateurs. Si 73 % des entreprises françaises ont déployé des solutions IAM, 27% des entreprises n’ont pas encore franchi le pas. 

  • 31 % des entreprises françaises utilisent exclusivement un service IAM « à la demande » (IAMaaS) – le taux le plus élevé en Europe avec l’Espagne. 

  • 20 % des entreprises ont adopté un IAM hybride, intégrant à la fois des solutions sur site et « à la demande ». 

« Pour les entreprises françaises, la question n’est pas de savoir si elles ont besoin de solutions IAM, mais plutôt combien de temps pourront-elles survivre sans ces solutions », résume Bob Tarzey, Analyste et Directeur de Quorcica. « Cette étude européenne prouve que la gestion des identités et des accès (sur site, à la demande ou en mode hybride) permet l’utilisation fédérée d’un large éventail de sources d’identités. Les systèmes IAM permettent également d’atteindre un équilibre entre l’ouverture des applications aux utilisateurs externes et mobiles, tout en assurant que ces applications et données soient suffisamment protégées. » 

Méthodologie de l’étude 

L’étude « Les identités numériques et l’entreprise ouverte » (Digital Identities and the open business) a été commandée par CA Technologies et conduite par le cabinet d’analystes Quorcica au mois de janvier 2013. 337 décideurs faisant partie à la fois de départements informatiques et départements métiers ont été interrogés. L’échantillon a été sélectionné au sein de grandes et moyennes entreprises de tous les secteurs d’activité, dans 8 zones géographiques (Allemagne, Benelux, Espagne, France, Israël, Italie, Royaume-Uni et Pays Scandinaves). 

Publié par Iris Trahin

 

Le soleil sous l’oeil d’un nouveau satellite : IRIS

Nouveau succès pour la NASA. Le lancement du télescope spatial IRIS, pour Interface Region Imaging Spectrograph, s’est déroulé selon les plans. Le petit satellite a été propulsé par la fusée Pegasus XL, elle-mêm larguée à plus de onze kilomètres d’altitude par un avion parti d’une base militaire californienne.

Quelques secondes après le largage, les moteurs de la fusée construite par la société américaine Orbital Sciences – spécialisée dans la réalisation de satellites – se sont correctement allumés.

Une fois en orbite, à 643 kilomètres de la Terre, IRIS a pu déployer ses panneaux solaires. Le soleil est désormais sous bonne garde. En particulier la basse atmosphère, zone encore méconnue malgré toutes les données récoltées par d’autres satellites.

IRIS viendra donc compléter les données existantes et tentera de percer le mystère de la formation des vents solaires chargés en particules magnétiques et l’impact des rayons ultraviolets sur l’atmosphère terrestre. Notamment la perturbation des communications et du réseau électrique par les tempêtes magnétiques tout comme « la manière dont elle affecte le système solaire », a indiqué Joe Davila le responsable de la mission.

Armé d’un dispositif ultraviolet haute définition, IRIS a les moyens de prendre des clichés avec seulement une interruption de quelques secondes entre chaque prise. Il observera ainsi la couronne solaire, réputée pour sa très haute température – d’après estimation – de un à trois millions de degrés. Cela ne sera pas aisé, car la couronne solaire « s’étend sur plusieurs millions de kilomètres en se diluant dans l’espace ». Mais dans un premier temps, le satellite aura une phase de test d’un mois. Laps de temps durant lequel les ingénieurs pourront s’assurer de son bon fonctionnement avant de lancer l’observation de la photosphère. La mission durera au moins deux ans et devrait coûter 182 millions de dollars.

Par Sébastien Tribot

Sources :

Et si la mémoire se stockait ailleurs que dans le cerveau ?

Voilà un résultat stupéfiant : des vers à qui l’on a coupé la tête ont été capables de faire appel à des connaissances acquises avant leur décapitation. Cette observation a été rendue possible par un nouveau protocole d’étude établi par une équipe de l’université de Tufts dans le Massachussets.

Pour prouver qu’un souvenir peut être conservé malgré la décapitation, les chercheurs ont tout simplement appris une compétence au ver. Cela a consisté à les placer dans un environnement particulier, des dodécaèdres avec un sol rugueux et des parois en plastique et en métal. Les vers vivant dans cet environnement spécifique y ont été nourris en déposant leur plat préféré au centre de la boite sous une lumière vive.

Des conditions naturellement hostiles pour ces vers qui ont dû vaincre leur peur pour manger. Une fois les vers entraînés, ils étaient retirés de la boite pendant deux semaines, durée correspondant au temps mis pour que leur tête repousse. Au bout de 14 jours, les vers étaient à nouveau introduits dans le dodécaèdre pour vérifier que le souvenir persistait bien. Ce fut le cas puisque les vers préalablement plongés dans la boite retrouvaient leur nourriture plus vite que des vers en contact avec cet environnement pour la première fois.

Ayant l’assurance qu’un souvenir durait plus de deux semaines, les chercheurs ont alors décapités les vers.  Une fois leur tête à nouveau au bout de leur corps, ils ont été replongés en milieu hostile. Leur première incursion fut peu probante, leur capacité à trouver leur nourriture étant à peine supérieure à celle de vers non entraînés. Cependant, leur deuxième plongée dans la boite révéla des performances identiques à celles d’avant la décapitation.  

Preuve est faite qu’on peut perdre la tête mais pas ses souvenirs !

Une expérience intrigante qui montre que les souvenirs ne sont pas stockés exclusivement dans le cerveau. Les auteurs de l’étude proposent comme explication que le savoir acquis pourrait être inscrit dans les néoblastes, les cellules souches utilisées pour recréer la partie du corps sectionnée.

Par Audrey Loubens, journaliste scientifique

33 000 tonnes de déchets sauvages en France

Chaque année, ce sont encore plus de 33 000 tonnes de déchets sauvages qui sont abandonnés en France, selon une estimation très grossière élaborée par l’association « Vacances propres ». C’est plus de trois fois le poids de la Tour Eiffel ! 

Selon ses calculs, près de 22 000 tonnes de déchets sont abandonnés le long des routes, plus de 10 000 tonnes sur les rives ou en flottaison dans les cours d’eau, environ 3 000 tonnes sur les plages et plus de 350 tonnes sur les pistes de ski ! La méthodologie utilisée sera améliorée d’année en année, en concertation avec les travaux menés par les associations européennes de prévention des déchets sauvages. 

D’ailleurs, pour parvenir à une meilleure méthode d’évaluation de la quantité de déchets sauvages et afin de partager les bonnes pratiques visant à les diminuer, les associations européennes leaders dans la prévention des déchets sauvages se sont regroupés au sein du « Clean Europe Network » (Réseau Européen de la Propreté), en mars dernier. L’association « Vacances Propres » et l’Association des Villes pour la Propreté Urbaine y représentent la France. Elles organiseront la Clean Europe Week, envisagée pour mai 2014 à travers toute l’Europe et même les pays non membres qui veulent participer, pour sensibiliser la population aux décharges sauvages.

Par Matthieu Combe, journaliste scientifique

La domotique, solution pour les bâtiments intelligents ?

La domotique constitue l’ensemble des technologies utilisées dans les bâtiments qui permettent de centraliser le contrôle des différents équipements et services d’un bâtiment ou d’une habitation.

Elle facilite le confort, la sécurité et la communication à distance. « Le but du jeu est d’avoir des bâtiments économiques en énergie, intégralement équipés de capteurs et d’interrupteurs, qui fonctionnent facilement, que l’on puisse mettre, défaire et redéfaire, des bâtiments communiquant et interopérables », explique Laurent Muckensturm, gérant de Giga-concept, distributeur de solutions complètes en radiofréquences.

Pour être communicant, il faut des capteurs, des mesures, du comptage et des actionneurs. EnOcean s’appuie sur trois principes physiques : la piézo-électricité, le photovoltaïque et l’effet Peltier.

Les interrupteurs fonctionnent grâce à l’énergie fournie par la pression mécanique de celui qui l’actionne. Cela génère le peu de courant nécessaire pour envoyer l’information radio à la centrale. Ils ne nécessitent ni pile, ni fils ce qui limite la pose des câbles et le percement des murs.

Ils peuvent donc être placés et déplacés en toute simplicité et sans maintenance. Les capteurs, sondes de température, contacts d’ouverture et de fenêtre et les affichages display fonctionnent grâce à des minis panneaux photovoltaïques ; le chauffage central fonctionne par effet Peltier.

« EnOcean est la seule norme ISO domotique interopérable sur le marché, bidirectionnel ; environ 300 fabricants de produits travaillent avec le protocole EnOcean pour environ 1 200 produits interopérables déjà disponibles », commente Laurent Muckensturm.

Cette technologie sans fil est totalement interopérable, ouverte et comparable aux normes Bluetooth et Wi-Fi. Une box récupère toutes les informations présentes le bâtiment : elle est pilotable sur place et à distance, par smartphone ou ordinateur.

Quelques exemples concrets

Grâce à la domotique, il est possible de faire du contrôle d’accès et détecter des mouvements d’intrus ou piloter le chauffage central pièce par pièce. Il est aussi possible d’optimiser la ventilation double flux d’un bâtiment en faisant de l’analyse de l’air. Les capteurs d’humidité ou de CO2 commandent l’allumage de la ventilation en fonction des résultats.

Il existe aussi des poignées de fenêtre radio qui permettent d’envoyer un signal radio à la box pour qu’elle éteigne le chauffage lorsqu’une personne ouvre les fenêtres. Cela est très pratique pour les hôtels et les habitations, car cette action n’est pas toujours pensée.

« Ce qui est intéressant dans les bâtiments intelligents de demain est de pouvoir faire des choses complètement automatiques auquel l’utilisateur ne penserait justement pas », précise Laurent Muckensturm. C’est là tout l’intérêt des bâtiments intelligents !

Plusieurs hôtels se sont mis à la domotique pour simplifier la maintenance et faire des économies d’énergie. Dans les hôtels à ouverture de portes par carte, si le client quitte la chambre en laissant, par exemple, la lumière et le chauffage allumés, le tout est pilotable depuis l’accueil sans avoir à envoyer un agent sur place.

Par Matthieu Combe, journaliste scientifique

Découvrez les formations Techniques de l’Ingénieur :

L’ADEME prépare les solutions innovantes du futur

Pour l’ensemble des 4 Programmes, l’ADEME lance tout au long de l’année des Appels à Manifestations d’Intérêt (AMI) et organise la sélection, instruit et accompagne les projets lauréats jusqu’à leur industrialisation. 31 AMI ont déjà été lancés ; 27 sont clos. Cela a déjà permis de retenir 115 projets sur les 541 propositions reçues par l’agence. L’ensemble de ces projets représente un investissement total de plus de 3 milliards d’euros, les investissements d’avenir ayant pour le moment fourni 940 millions d’euros d’aides.

Les initiatives étant très nombreuses dans les champs couverts, les programmes Investissements d’Avenir ont fait le choix de parier sur des projets de taille ambitieuse de plusieurs millions d’euros. Ceux-ci concernent la réalisation d’expérimentations préindustrielles, de démonstrateurs et de premières industrielles dans les domaines des énergies renouvelables et décarbonnées et de la chimie verte, des réseaux électriques intelligents, des véhicules du futur et de l’économie circulaire. Tous ces projets nous permettent d’entrevoir les technologies de demain. Elles nous montrent la voie pour à suivre pour relever les défis environnementaux et économiques.

Place aux renouvelables !

L’ADEME a des objectifs ciblés sur le grand éolien, sur terre et sur mer, et sur l’éolien flottant ne nécessitant pas d’ancrage dans les fonds marins. L’éolien flottant suscite un grand intérêt, car il peut être déployé sur toutes les côtes, même là où les profondeurs sont supérieures à 30 mètres. Cette solution est particulièrement intéressante pour la France, les pays méditerranéens, les Etats-Unis et le Japon à cause de la profondeur des fonds marins à proximité des côtes. Sans cette technologie flottante, la France ne pourra pas atteindre ses objectifs en matière d’éolien offshore. Le projet VertiWind s’intéresse à un démonstrateur d’éolienne flottante à axe vertical d’une puissance de 2 MW. Le projet Winflo testera un démonstrateur d’une éolienne flottante à axe horizontale de plus de 3 MW pour les zones dont la profondeur dépasse les 50 mètres. De son côté, le projet SiPré simule la perturbation des radars par les éoliennes de façon à concevoir des éoliennes furtives. L’objectif est de diminuer les perturbations sur les radars météorologiques de Météo France, problème qui bloque déjà l’implantation de 3 000 MW de puissance éolienne sur le territoire !

Le solaire n’est pas non plus oublié. Le projet PV800 Export ambitionne de développer une filière industrielle française compétitive, notamment pour réaliser des wafers photovoltaïque de silicium. Au-delà du photovoltaïque, l’agence s’intéresse aussi au solaire à concentration et aux micro-centrales solaires. Ainsi, le projet HCPV 1024 Soleils vise le développement d’une nouvelle technologie solaire à concentration qui concentrera 1024 fois le rayonnement solaire.

De son côté, le projet MiCROSOL développe une microcentrale électrique solaire capable d’alimenter en continu un village isolé de 500 habitants en électricité, chaleur et eau potable sans avoir besoin de groupe diesel ou groupe électrogène. Enfin, le projet Scrib développe une solution de climatisation solaire réversible pour les bâtiments industriels et tertiaires. Elle répondra à l’ensemble des besoins de climatisation, de chauffage et de réfrigération.

Dans le cadre des investissements d’avenir, l’ADEME s’intéresse aussi aux énergies marines, aux procédés de fabrication des photopiles, à la géothermie et au stockage de l’énergie. Concernant le stockage, le projet Prévision des Energies renouvelables et Garantie Active par le Stockage d’Energie (PEGASE) vise à allier les énergies renouvelables au stockage d’énergie électrique avec une batterie NaS de 1 MW pour les îles. L’expérimentation est en cours à la Réunion pour permettre aux territoires insulaires d’atteindre 50 % d’énergies renouvelables d’ici 2020. Enfin, le projet GrHyd vise à faire du vecteur hydrogène, la solution au stockage de l’électricité renouvelable, et souhaite produire un nouveau carburant, l’Hythane®, un mélange hydrogène-gaz.

Les réseaux électriques seront intelligents

Une place importante est donnée à la recherche et à l’expérimentation en faveur de l’intégration des énergies renouvelables intermittentes dans les réseaux électriques. Ainsi, Nice Grid est le premier démonstrateur français de quartier solaire intelligent. Il intègre une forte proportion de production photovoltaïque décentralisée couplée à des solutions de stockage et utilise le compteur communicant Linky.

Un certain intérêt est aussi donné au développement de produits et de services intelligents permettant la maîtrise des consommations d’électricité, comme, par exemple, l’effacement de la pointe chez les clients. Dans ce cadre, le projet GreenLys est un test grandeur nature de gestion intelligente du réseau électrique comprenant 1 000 habitations et 40 sites tertiaires, répartis entre Lyon et Grenoble. Le démonstrateur intègre le consommateur, les installations d’énergies renouvelables (photovoltaïque, hydroélectricité,…), les véhicules électriques et les compteurs communicants Linky.

Plus spécifiquement, le projet SOGRID se consacre au développement d’une puce électronique de nouvelle génération qui équipera les millions de matériels connectés au réseau électrique. Il leur permettra de communiquer entre eux pour constituer ce réseau intelligent. 

Les transports seront décarbonés

Dans le secteur des transports, les projets s’intéressent à l’hybridation des moteurs thermiques, avec notamment le développement d’une voiture hybride essence et air comprimé (projet Hybrid air). Plusieurs projets sont consacrés aux solutions de recharge des voitures électrique. L’ADEME mène aussi des expérimentations pour développer de nouveaux services de mobilité, par exemple, l’autopartage et le covoiturage, notamment avec le projet Accélérer et Unir les offres de Déplacements en Autopartage, Covoiturage et véhicules Electriques (Au-dace). Ce projet vise à créer des passerelles entre ces alternatives aux côtés des transports publics.

Le projet OPTIMOD’Lyon cherche à accélérer le report modal de la voiture particulière vers les transports en commun en créant une plate-forme d’informations sur la mobilité du territoire. L’idée est de pouvoir proposer des informations très précises sur les conditions de mobilité prévisibles en temps réel et permettre de calculer le meilleur trajet pour aller d’un point A à un point B en fonction de différents critères entrés par l’utilisateur. L’outil permettra aussi d’optimiser les tournées de livraison.

Par Matthieu Combe, journaliste scientifique

Les énergies renouvelables ont répondu à 48% de la demande électrique espagnole durant le premier semestre 2013

Sur cette période, l’éolien devance de quelques points l’hydroélectricité (17,8 %) et la contribution du solaire s’élève à 4,6 %, en grande partie photovoltaïque (3,3 %). La biomasse et les déchets se partagent les 2 % restants. 

Au final les filières énergétiques non durables ne représentent plus que 52 % du mix électrique ibérique. La part des énergies fossiles s’est érodée à moins du tiers (30,9 %) du mix électrique de notre voisin sud-pyrénéen. 

La pénétration de hauts niveaux d’énergies renouvelables fluctuantes (éolien et solaire) est possible en Espagne grâce à un réseau électrique permettant aux différentes régions d’échanger de l’électricité, à l’hydraulique modulable (lacs de barrage et stockage via les Station de Transfert d’Energie par Pompage) et à la complémentarité temporelle des ressources éolienne et solaire. 

L’Espagne, tout comme le Portugal où les énergies renouvelables ont atteint le niveau remarquable de 70%  dans le mix électrique au premier trimestre 2013, démontre qu’intégrer de hauts niveaux d’énergies renouvelables fluctuantes dans un système électrique pourtant relativement isolé est tout à fait possible. Les technologies et stratégies permettant d’obtenir de la flexibilité sont dès à présent disponibles. 

En France, le président de la république François Hollande s’est engagé à réduire la part du nucléaire dans le mix électrique en la faisant passer de 75 % à 50 %. Le débat sur la transition énergétique renait doucement dans l’hexagone suite au suicide ministériel de Delphine Batho, qui n’était pas parvenue à le vivifier. « Ce qui est terrible, c’est que ça a permis de mettre ça enfin sur le devant de la scène », a déclaré le porte-parole de la Fondation Nicolas Hulot (FNH).

Par Olivier Danielo

Enercoop : se fournir auprès de petits producteurs

La loi NOME a mis en place l’accès régulé des fournisseurs alternatifs à l’électricité produite par les centrales nucléaires historiques d’EDF (Arenh). Il permet aux fournisseurs français d’électricité d’acheter à EDF de l’énergie nucléaire au tarif préférentiel de 42 €/MWh pour la revendre ensuite à leurs consommateurs. 

Un fournisseur alternatif peut indifféremment s’approvisionner sur le marché, par des contrats d’approvisionnement avec des producteurs ou par l’Arenh. Le mix électrique des fournisseurs alternatifs peut ainsi être constitué jusqu’à 80 % d’énergie nucléaire provenant de l’Arenh. Pour que ces fournisseurs puissent proposer des offres vertes, ils achètent donc en parallèle des garanties d’origine. Celles-ci certifient qu’une quantité équivalente à ce que leurs clients consomment a bien été produite à partir de sources renouvelables. La traçabilité est financière : les clients ont la garantie qu’une petite part de leur argent va aux énergies renouvelables, en rémunérant les producteurs via leur facture d’électricité. Planète OUI et d’autres fournisseurs ont fait ce choix ; Enercoop l’a refusé et s’approvisionne directement auprès de petits producteurs d’électricité verte.

Lorsque les prix de l’électricité « verte » sont identiques aux tarifs réglementés, c’est généralement que le fournisseur alternatif a recours à l’Arenh et achète des certificats issus des centrales hydroélectriques des grands barrages d’EDF pour la verdir. Ces barrages faisant partie du mix énergétique depuis plusieurs décennies, les repeindre en « vert » pour promouvoir le développement des énergies renouvelables pourra en étonner certains. 

Des petits producteurs pour Enercoop

Enercoop est le seul fournisseur d’électricité sous forme de coopérative. Pour les particuliers, le prix du kWh est de 0,156 € début 2013, un prix environ 25 % plus élevé que le tarif régulé. Le surcoût serait situé en moyenne (sans chauffage électrique) à 10 euros par mois. Le prix du kWh est calculé en fonction de ses coûts réels d’approvisionnement en énergies renouvelables et de ses frais de structure. 

Sans actionnaires, au moins 57 % des bénéfices sont statutairement réinvestis dans les énergies renouvelables et les économies d’énergie. Enercoop ne propose pas le tarif jour/nuit pour rester en accord avec ses objectifs, car celui-ci repose avant tout sur l’utilisation de surplus de production nucléaire. 

Enercoop est le seul fournisseur d’électricité à s’approvisionner directement, sans intermédiaire, et en intégralité auprès de producteurs d’énergie renouvelable qui sont membres de la coopérative. «  Enercoop achète l’électricité directement à ses producteurs, et c’est bien là une de ses spécificités ! Nous avons des contrats directs avec chacun de nos producteurs, dans le cadre desquels nous négocions les tarifs d’achat », affirme Judith Schneider, chargée de communication d’Enercoop. « Nos producteurs sont sociétaires d’Enercoop, ils participent à la vie de la coopérative via leur vote en Assemblée Générale aux côtés des consommateurs, salariés, partenaires, fondateurs et collectivités. Ils ont des représentants au Conseil d’Administration de la structure », ajoute-t-elle.

En 2012, Enercoop travaillait avec 89 producteurs, dont 12 producteurs d’électricité solaire photovoltaïque, 50 producteurs d’électricité éolienne, 26 producteurs d’électricité hydraulique et 1 producteur de biogaz. Cela donne un mix électrique composé à 98 % de petite hydraulique (électricité non issue des grands barrages, mais de petites installations hydroélectriques), le reste étant constitué d’éolien, de photovoltaïque et pour une toute petite part de biogaz. La quantité totale d’électricité produite dans l’année 2012 par les producteurs d’Enercoop s’élève à 52 GWh, soit 0,1 % de la production électrique nationale de l’année. 

La CSPE profite à EDF

La majeure partie de l’approvisionnement en électricité est ici d’origine hydroélectrique. Cela est dû au fait qu’Enercoop ne bénéficie pas de la Contribution au Service Public de l’Électricité (CSPE). Cette taxe, payée dans les factures d’électricité, alimente un fonds permettant à EDF et aux Entreprises Locales de Distribution d’acheter de la production d’origine renouvelable à un prix fixé par l’État, en étant remboursé via cette taxe. Ainsi, quand EDF achète de l’électricité photovoltaïque à hauteur de 31 centimes d’euros (cts €) le kWh, cela ne lui revient grâce à la CSPE qu’à 6 cts €, alors qu’Enercoop doit bien débourser 31 cts €. La différence n’est pas aussi importante pour l’éolien, mais reste notable.

Enercoop souhaite favoriser l’émergence de nouveaux moyens de production renouvelables par l’investissement collectif et milite donc pour l’élargissement de l’affectation de la CSPE à tous les fournisseurs. « Nous renouvelons cette demande actuellement dans le cadre du débat national sur la transition énergétique, parce que la transition a besoin d’associer tous les acteurs du secteur à l’effort collectif », précise Judith Schneider.

Mettons fin à une idée reçue largement répandue : vous pouvez quitter tous les fournisseurs alternatifs à tout moment sans frais si votre puissance de compteur est inférieure ou égale à 36 kW. De plus, le retour aux tarifs réglementés est possible sans conditions.

Par Matthieu Combe, journaliste scientifique

ICPE niveau expert : quelle formation choisir ?

Formation orientée en particulier sur l’anticipation et la résolution des conflits juridiques et techniques avec les administrations, cette séance permet également de balayer des problématiques très précises et concrètes :

  • Limiter les blocages les plus fréquents : ouverture, réaffectation, fermeture de site, prescriptions techniques démesurées…

  • Clarifier les ambigüités et faciliter les relations avec les administrations

  • Acquérir une méthode d’argumentation et les bons comportements pour se défendre

Produit et monté par Bruno Decottignies

Révisez les fondamentaux avec National Instruments

Connectez-vous tous les mardis, mercredis et jeudis à 10h00, du 9 juillet au 29 août, pour assister à ces présentations techniques et profitez-en pour poser toutes vos questions aux ingénieurs présents, via une plate-forme de t’chat.me de t’chat.

Le programme :

 

Pour plus détails, rendez-vous sur le site de National Instruments.

8 messages codés qui restent à déchiffrer

Kryptos

Depuis 1990, une étrange sculpture se dresse dans l’enceinte du quartier général de la CIA, à Langley, Virginie. Baptisée Kryptos, cette œuvre de l’artiste américain Jim Sanborn contient des messages qui n’ont toujours pas été déchiffrés entièrement.

La sculpture est composée d’un petit bassin à bulles entouré de bois petrifié, de blocs de granite, et d’une large plaque de cuivre en forme de S dans laquelle ont été découpées environ 1700 lettres de l’alphabet.

L’inscription est divisée en 4 parties distinctes, chacune correspondant à un message. En 1999, un informaticien du nom de James Gillogly fut le premier à annoncer publiquement avoir déchiffré 3 des 4 sections, après quoi la CIA révéla qu’un de leurs analystes, David Stein, était arrivé au même résultat un an plus tôt. Mais malgré les efforts des meilleurs cryptographes, le quatrième message de Kryptos demeure indéchiffrable depuis plus de 20 ans.

Seules 3 personnes au monde sont censées en connaitre la solution : Jim Sanborn lui-même, Ed Scheidt, cryptographe de la CIA qui aida le sculpteur à choisir les méthodes de codage, et William Webster, ancien directeur de la CIA à qui une enveloppe scellée contenant le texte original fut remise. Mais selon Sanborn, il ne s’agit pas seulement de connaitre le texte pour le comprendre. Les messages constituent eux-mêmes une énigme, faisant référence à quelque chose qui serait enterré sous le sol de la CIA…

 

Le Chiffre d’Agapeyeff

En 1939, le cartographe anglais Alexander d’Agapeyeff publia un ouvrage de cryptographie élémentaire intitulé « Codes and ciphers ». A la fin du livre, il intégra un message chiffré afin que les lecteurs puissent tester leurs compétences de décryptage. Mais aucun lecteur, ni aucun cryptographe ne parvint jamais à déchiffrer le mystérieux texte.

Le message ne fut pas publié dans les éditions suivantes de l’ouvrage, et d’Agapeyeff lui-même admit qu’il avait oublié comment il avait encrypté son texte. Devant l’invulnérabilité du code, certains ont avancé que l’auteur s’était tout simplement trompé dans sa méthode. Si vous avez envie de tenter votre chance, voici le message :

75628 28591 62916 48164 91748 58464 74748 28483 81638 18174

74826 26475 83828 49175 74658 37575 75936 36565 81638 17585

75756 46282 92857 46382 75748 38165 81848 56485 64858 56382

72628 36281 81728 16463 75828 16483 63828 58163 63630 47481

91918 46385 84656 48565 62946 26285 91859 17491 72756 46575

71658 36264 74818 28462 82649 18193 65626 48484 91838 57491

81657 27483 83858 28364 62726 26562 83759 27263 82827 27283

82858 47582 81837 28462 82837 58164 75748 58162 92000

 

Le Chiffre de Beale

En 1818, alors qu’il chasse le bison en compagnie d’une trentaine d’hommes, un certain Thomas Jefferson Beale découvre un gisement d’or et d’argent au nord de Santa Fe, au Nouveau Mexique. Soucieux de protéger leur trésor, Beale et ses hommes décident d’aller le cacher quelque part en Virginie, loin de l’ouest sauvage.

Leur butin équivaut alors à 65 millions de dollars actuels. En 1822, avant de repartir vers le nouveau Mexique pour exploiter d’avantage de minerai, Beale remet une boite en fer à un homme de confiance, un aubergiste du nom de Robert Morriss. La boite contient des lettres d’explication ainsi que 3 lettres codées qui indiquent l’emplacement du trésor.

Beale demande à Morris de conserver la boite scellée, et de l’ouvrir au bout de 10 ans si personne n’est venu la chercher avant. Une lettre contenant la clé de décryptage lui serait envoyée au terme de ce délai. Morris ne reverra en fait jamais Beale, et il ne recevra pas non plus de clé. Au bout de 23 ans, il se décide finalement à ouvrir la boite, mais il passera le reste de sa vie à essayer en vain de déchiffrer les lettres.

En 1862, peu avant sa mort, Morris explique toute l’histoire à un de ses amis, et lui passe la boite. A force d’acharnement, l’ami en question finit par décrypter le texte de la deuxième lettre : celle-ci décrit le contenu du trésor, et indique qu’il est enterré quelque part dans une caverne du comté de Bedford, en précisant que l’emplacement exact est décrit dans la lettre n°1.

En 1885, désespéré de parvenir à déchiffrer les textes restants, l’ami de Morris publiera anonymement le récit de Beale ainsi que ses lettres dans un livre intitulé « the Beale Papers ». L’authenticité de l’histoire a toujours fait l’objet de nombreuses controverses, et certains considèrent qu’il s’agit d’un canular savamment élaboré. Toujours est-il qu’après plus d’un siècle de tentatives acharnées, les lettres n°1 et n°3 restent indéchiffrables. Et aussi longtemps qu’elles le seront, le trésor de Thomas Beale conservera son mystère…

 

Le Chiffre de Dorabella

Edward Elgar était un compositeur anglais féru de cryptographie, et son œuvre la plus célèbre, les « Variations Enigma », est notamment connue pour le contenu caché qui serait encodé dans sa partition.

En 1897, Elgar adressa une lettre à une amie de 20 ans sa cadette, Dora Penny, qu’il surnommait Dorabella. Le message qui y figurait était composé d’étranges caractères en demi-cercles répartis sur 3 lignes, ainsi que d‘un énigmatique petit point à côté d’une des lettres.

Dans les mémoires qu’elle écrivit 40 ans plus tard, Dora Penny confia qu’elle ne fut jamais capable de déchiffrer le message, et que lorsqu’elle questionna Elgar à ce sujet, celui-ci lui répondit qu’elle était pourtant la « mieux placée pour deviner ».

Aucune des tentatives de décodage menées depuis n’a donné de résultat satisfaisant, et plus de 70 après, le chiffre de Dorabella continue à dérouter les meilleurs cryptographes du monde. Une des solutions avancées suggère toutefois que le message ne serait pas un texte, mais une mélodie…

L’inscription de Shugborough

Shugborough hall est une vaste demeure située dans la campagne du Staffordshire, en Angleterre. Elle est célèbre pour le mystérieux monument qu’elle abrite au fond de ses jardins, une arche de pierre baptisée le « Monument des Bergers ».

Sculpté à l’initiative de la famille Anson au 18ème siècle, ce monument contient en son centre une reproduction des « Bergers d’Arcadie », un tableau de Nicolas Poussin taillé ici en bas-relief sur une plaque de marbre. L’œuvre représente une femme et trois bergers, dont deux pointent un tombeau du doigt.

Etrangement, la scène est inversée par rapport au tableau original, comme si ce dernier se reflétait dans un miroir. Mais l’énigme réside dans l’inscription gravée sous le bas-relief : il s’agit d’une séquence de 10 lettres, O U O S V A V V, encadrée par les lettres D et M. En près de 3 siècles, personne n’a pu expliquer le sens de l’inscription, même si de nombreuses interprétations ont été avancées.

Certains y ont vu l’acronyme d’un message amoureux, des références bibliques, ou encore la distance qui sépare Shugborough de Oak Island, une petite ile qui abriterait un trésor enfoui. Enfin, plus récemment, des livres tels que l’Enigme Sacrée ou le Da Vinci Code ont largement popularisé la légende selon laquelle l’inscription désignerait l’emplacement du Saint Graal…

 

 

Le Disque de Phaistos

En 1908, une équipe d’archéologues italiens découvre un curieux disque d’argile dans les ruines du palais de Phaistos, en Grèce. Le disque a un diamètre d’environ 16 centimètres, et il est couvert sur ses deux faces de symboles inconnus disposés en spirale.

On dénombre au total 241 signes composés de 45 hiéroglyphes distincts, qui semblent représenter des hommes, des outils, des animaux ou encore des plantes. Ces signes sont divisés en groupes séparés par des lignes, et ils ne semblent pas avoir été gravés, mais littéralement imprimés avec des tampons. Le disque ayant été estimé comme datant du 2ème millénaire avant JC, cela en ferait le plus ancien exemple d’imprimerie jamais découvert.

Malgré de nombreuses tentatives de déchiffrements par les chercheurs, le sens et l’usage du disque restent un mystère complet. Il pourrait s’agir d’un hymne religieux, d’un calendrier ou encore d’un jeu selon les interprétations. De multiples origines possibles ont été données au disque, allant de l’Egypte à l’Atlantide, pour citer la plus ésotérique.

Sa particularité la plus extraordinaire est sans doute qu’aucun objet semblable n’a jamais été découvert, ce qui en fait, jusqu’à preuve du contraire, une pièce unique. Tous ces mystères ont poussé certains chercheurs à remettre en question l’authenticité du disque, mais il est généralement admis qu’il s’agit bien d’un vestige antique. Le disque de Phaistos est aujourd’hui conservé au musée archéologique d’Heraklion.

 

Le Code du « Zodiaque »

Le Zodiaque était un tueur en série qui sévit dans le nord de la Californie à la fin des années 60, et qui ne fut jamais identifié.

On lui attribue avec certitudes 5 meurtres, mais il fut soupçonné d’avoir tué plusieurs dizaines de personnes entre 1966 et 1978. Il était notamment connu pour se livrer à un jeu pervers de correspondance avec la presse locale. Le 1er aout 1969, 3 journaux californiens reçoivent des lettres du Zodiaque, qui menace de tuer 12 personnes si ses messages ne sont pas publiés en une.

Les lettres contiennent chacune le tiers d’un message codé, qui est censé contenir l’identité du tueur. Le message est finalement déchiffré par Donald et Bettye Harden, deux professeurs d’université, mais à la place d’une quelconque révélation sur le nom du Zodiaque, ils découvrent une macabre confession : le tueur explique qu’il tue par plaisir, et parce qu’il pense que ses victimes seront ses esclaves dans l’au-delà.

Au total, entre 1969 et 1974, le Zodiaque enverra 18 lettres à la presse, dont quatre cryptogrammes. Sur les quatre, seul le message d’aout 1969 fut décodé, les trois autres restant à ce jour indéchiffrables.

 

Le Code « Taman shud »

Le 1er décembre 1948, le cadavre d’un homme est retrouvé sur la plage de Somerton, en Australie. Agé d’une quarantaine d’années, l’homme porte un pull over et un imperméable malgré la chaleur élevée, et il n’a aucune pièce d’identité sur lui.

Toutes les étiquettes de ses vêtements ont été découpées. Plus étrange encore, ses empreintes digitales et dentaires ne correspondent à aucun profil enregistré.

L’autopsie ne révèle aucune trace de poison dans son organisme, et ne parvient finalement à aucune conclusion quant à la cause de sa mort. Face à l’opacité du mystère, Scotland Yard est appelé en renfort, et une photo de l’homme est largement diffusée à travers le monde, mais personne ne parvient à l’identifier.

Le mystère s’épaissit d’avantage lorsqu’une valise appartenant vraisemblablement à la victime est retrouvée un mois plus tard, remplie de vêtements dont les étiquettes ont été enlevées. La police découvre également une poche cachée dans le pantalon de l’homme, qui contient un morceau de papier sur lequel sont imprimés les mots « Taman shud ».

A l’aide de spécialistes de la bibliothèque nationale, il est établi que ce morceau de papier a été arraché d’un livre de poèmes intitulé les Roubaïates d’Omar Khayyam. Après qu’une photo du morceau de papier ainsi que des informations concernant le livre ont été diffusées publiquement, un homme finit par contacter la police pour leur dire qu’il a trouvé une très rare édition de l’ouvrage sur le siège arrière de sa voiture, la nuit du 30 novembre 1948. Soit la veille de la découverte du corps.

L’affaire passe d’énigmatique à totalement déconcertante lorsque la police découvre un message codé à l’arrière du livre : 5 lignes de lettres apparemment aléatoires, dont une barrée. Le code ne fut jamais déchiffré, et l’affaire de l’homme de Sommerton reste le mystère criminel le plus étrange de toute l’histoire australienne.

 

Patrick Baud

Source : Blog www.axolot.info

 

News Environnement : juillet 2013

Cellules solaires organiques : des molécules simples comme alternatives aux polymères

Utiliser des molécules organiques pour produire des cellules photovoltaïques aux performances comparables à celles, en silicium, des panneaux solaires proposés aujourd’hui sur le marché. Tel est l’objectif de nombreuses équipes de recherche dans le monde qui, depuis le début des années 2000, se livrent à une intense compétition. Si l’utilisation des polymères est la plus répandue des deux voies qui font actuellement l’objet de développements en laboratoire, l’autre voie, initiée en 2005 par Moltech-Anjou, l’Institut des Sciences et Technologies Moléculaires d’Angers (CNRS/Université d’Angers), qui consiste à utiliser des molécules organiques solubles de structures parfaitement définie, a été reprise depuis par de nombreux laboratoires. Soulignons que celle-ci a permis d’obtenir récemment des rendements de conversion électrique de plus de 7%, ceux des cellules à base de polymères se situant entre 8 et 9%.

Reste que la production de ces molécules est difficile, les plus performantes d’entre elles nécessitant 12 étapes de synthèse, qui plus est avec un rendement global inférieur à 0,10%, peu compatible avec une production à l’échelle industrielle. Aussi les chercheurs de Moltech-Anjou se sont-ils lancés dans la recherche de molécules plus simples présentant un effet photovoltaïque intéressant. D’où leur choix d’une famille de molécules à base de triarylamines, dont la synthèse ne nécessite que peu d’étapes. Dans un deuxième temps, ils ont cherché à optimiser certaines propriétés de ces molécules (capacité d’absorption de la lumière, niveaux d’énergie, stabilité ou encore mobilité des charges électriques). Un véritable travail d’ingénierie moléculaire consistant à ajouter, selon les besoins, certains types de liaisons ou de groupements chimiques, qui les a conduit à développer des molécules de faible masse moléculaire dont le rendement de conversion électrique est d’environ 4%. Notons qu’il s’agit là d’un des rendements les plus élevés obtenus avec des molécules de structure aussi simple.

 

Ces travaux, dont les résultats sont publiés en ligne dans Chemistry : A European Journal, se poursuivent aujourd’hui, l’objectif des chercheurs étant d’améliorer non seulement les performances des cellules photovoltaïques mais aussi des procédés de synthèse, notamment en limitant l’utilisation des réactifs ou de solvants toxiques mais aussi de catalyseurs coûteux.

En savoir plus

Un avion solaire traverse les Etats-Unis

Le 16 juin, l’avion solaire Solar Impulse HB-SIA a atterri à l’aéroport de Dulles (près de Washington, D.C.). L’avion est parti de San Francisco le 3 mai en direction du District de Colombia, faisant étape à Phoenix en Arizona, puis Dallas au Texas – battant au passage le record du monde pour un vol en avion solaire avec 1.541 kilomètres parcourus – et ensuite Saint Louis. Une étape supplémentaire a dû être effectuée à Cincinnati en Ohio en raison d’un fort orage les 12 et 13 juin, avant un vol de 14 heures et quatre minutes pour rejoindre Washington, D.C. Enfin, cet avion particulier devrait terminer son périple à New York début juillet. Solar Impulse aura alors fait la démonstration qu’il est possible de traverser les Etats-Unis, en volant de jour comme de nuit, sans utiliser de carburant fossile. L’avion avait déjà effectué plusieurs vols (dont un vol de 26 heures) en Europe en 2010 et 2011 et avait même effectué un voyage jusqu’au Maroc en juin 2012. Un deuxième avion est en construction avec pour objectif un vol autour du monde en 2015.

Solar Impulse HB – SIA

Cette traversée des Etats-Unis est l’aboutissement d’un projet commencé en 2003, qui a bénéficié d’un budget de 90 millions d’euros sur 10 ans. A l’origine suisse, le projet rassemble désormais de nombreuses associations, organisations et entreprises dans le monde entier. Sur les aspects scientifiques et techniques, de nombreuses entreprises et universités ont collaboré. Citons par exemple l’Ecole Polytechnique Fédérale de Lausanne, l’Agence Spatiale Européenne, Dassault Aviation, le groupe Solvay, Schindler ou encore Omega. Le projet est soutenu par la Commission européenne, il a été présenté en Suisse bien sûr, mais également en Chine et en Inde. Nous vous avions d’ailleurs parlé de plusieurs évènements et séminaires organisés sur ce sujet de part le monde [1].

Le modèle HB – SIA pèse 1.600 kg (soit l’équivalent d’une petite voiture), grâce à une structure ultralégère en fibre de carbone et à des efforts constants pour réduire au maximum la masse de l’avion. Il est ainsi 5 fois plus léger qu’un planeur traditionnel. Son envergure est équivalente à un A340 (environ 63 mètres). Il fonctionne grâce à quatre moteurs, alimentés par 12.000 cellules photovoltaïques installées sur ses ailes qui rechargent simultanément des batteries. Celles-ci sont utilisées lorsque l’appareil vole de nuit. Sa vitesse moyenne est de 70 km/h, avec une vitesse au décollage de 44km/h. Il peut voler à une altitude maximum d’environ 8.500 mètres.

Les deux pilotes et fondateurs du projet, Bertrand Piccard et Andre Borschberg ont donc dû se former sur des simulateurs de vols pour faire voler cet avion ultra léger, très sensible aux vents (et autres perturbations) et très lent. En effet, la gigantesque envergure de l’avion (63,4 m de l’ordre de celle d’un Airbus A340) et son très faible poids le rendent difficile à piloter. Les deux pilotes ont témoigné de la difficulté, lors de simulations, à s’aligner avec la piste. Ils atterrissaient systématiquement à côté ! Avec de l’entrainement, ils comprirent que l’avion était très lent à réagir et qu’il fallait entamer toute manoeuvre bien à l’avance. La stabilité de l’avion est également différente. Alors qu’un avion de ligne classique peut prendre sans danger un virage avec un angle de 30 ou 35 degrés avec l’horizontale, Solar Impulse HB – SIA n’a qu’une marge de manoeuvre de 5 degrés. L’avion devenant instable au-delà d’une telle inclinaison. Il a donc fallu construire des capteurs très précis, réglés comme des horloges … et une horloge suisse puisque c’est la prestigieuse firme Omega qui leur est venue en aide en s’associant au projet !

It’s the chemistry, stupid!

Comment fait-on voler un avion solaire ? « Grâce à la chimie » ont répondu, lors d’une conférence de presse à Washington le 18 juin, George Corbin et Claude Michel [2], qui ont travaillé sur le projet Solar Impulse pour développer des composants et améliorer l’efficacité énergétique, au sein du groupe Solvay, leader mondial dans le domaine de la chimie.

En effet, en moyenne sur 24 heures, un mètre carré de surface terrestre reçoit l’équivalent de 40 Watts d’énergie solaire, soit 250 fois moins que ce que permet de produire un litre de carburant traditionnel. Il faut environ 40 W pour faire voler 8 kg et il a donc fallu installer près de 200 m2 de cellules photovoltaïques sur les ailes de l’avion [3]. Le moteur de l’avion peut donc atteindre une puissance de 6 kW, soit l’équivalent d’un scooter.

Les ingénieurs du projet ont choisi d’utiliser des cellules photovoltaïques avec un rendement de 22%, fruit d’un compromis entre efficacité et poids (il aurait été possible d’installer des cellules photovoltaïques plus efficaces mais leur masse aurait été trop importante). Les batteries au lithium polymère représentent actuellement 400 kg, soit plus du quart de la masse totale de l’avion. Le poids de l’ensemble des autres composants de l’avion a été réduit au maximum, grâce à l’utilisation de matériaux avancés pour optimiser le poids total de l’avion, notamment en utilisant des fibres de carbone qui servent habituellement à construire des coques de bateaux à voiles.

Les batteries représentent une limite pour le développement des avions solaires et la plupart des défis restant à relever sont liés au stockage de l’énergie. Comme l’a expliqué George Corbin, cela relève directement de la chimie. Selon lui, pour améliorer cet avion solaire, il faut désormais concentrer les efforts sur la « densité énergétique », pour pouvoir stocker davantage d’énergie.

Améliorer l’efficacité énergétique dans les airs et au sol

Ernest Moniz, le nouveau secrétaire américain à l’énergie a salué ce projet lors d’une conférence de presse [4], lundi 17 juin à Dulles. Selon lui, ce vol solaire ne changera pas demain le transport aérien mais il pourrait en revanche contribuer à améliorer l’efficacité de nos véhicules et nos bâtiments.

Comme l’a rappelé André Borschberg dans une interview, en direct du cockpit, à près de 10 km d’altitude, l’aviation ne représente qu’une petite partie des émissions mondiales de gaz à effet de serre. Le potentiel est donc bien plus important au sol. Or, précisément, les innovations et les matériaux utilisés pour construire l’avion ne sont pas, pour la plupart, spécifiques au secteur aérien et ils pourraient être utilisés dans d’autres secteurs.

Par exemple, l’isolation de l’avion lui permet de conserver la chaleur dégagée par les batteries au lithium, alors que la température extérieure peut varier descendre jusqu’à -40°C la nuit. Ernest Moniz a également mentionné les recherches sur les batteries qui serviront pour les véhicules électriques, encouragés par le DOE [4] ainsi que pour les ordinateurs et téléphones portables. De même, le film protecteur transparent (composé de polymères fluorés) développé pour protéger les panneaux solaires situés sur les ailes des chocs et des altérations (corrosion, changements de température) sans les alourdir, pourrait trouver de nombreuses utilisations dans d’autres secteurs, notamment pour des panneaux solaires terrestres. Les polymères utilisés pour remplacer les différents composants de l’avion, qui sont d’habitude faits en métal, serviront pour différents appareils électroniques. Enfin, les recherches pour réaliser une structure à la fois légère et ultra-résistante (« nid d’abeilles » entre deux couches de fibres de carbone) pourront être utilisées pour des avions traditionnels.

En savoir plus

Toulouse, capitale européenne de l’océanographie spatiale opérationnelle

Il y a un peu plus de vingt ans, le 10 août 1992, était lancé le satellite franco-américain Topex-Poséidon à bord duquel se trouvait l’altimètre expérimental Poséidon développé par le Cnes, un étonnant outil permettant de mesurer non seulement la distance du satellite par rapport à la surface de la mer, mais aussi la hauteur des vagues et la vitesse du vent. « Une première », puisque que c’était alors une fusée Ariane 4 qui mis sur orbite ce satellite de la Nasa dont l’ambition était d’observer et de comprendre la circulation océanique. Une mission qui allait être « l’initiateur et l’élément déclencheur » de cette filière de l’océanographie spatiale opérationnelle dont Toulouse peut se targuer aujourd’hui d’abriter le pôle européen dans ce domaine. En effet, suite à cette première mission réussie, il y en a eu d’autres comme Jason-1, lancé en 2001, puis Jason-2, mis sur orbite en 2008, enfin Jason-3 qui, bientôt, prendra lui aussi les direction de l’espace, et entre temps Saral, fruit d’une coopération franco-indienne, lancé en février dernier. Autant de missions dont les données collectées, associées à celles d’autres types d’outils, ont permis, via l’intégrateur de données qu’est Mercator, de réaliser de la prévision océanique et de produire un premier bulletin global de l’océan dès 2005. Et c’est dans ce contexte qu’ont pu émerger progressivement de multiples application opérationnelles développées et proposées par des entreprises comme CLS. Prochaine étape, SWOT (Surface Water Ocean Topography), une mission, là encore, fruit d’un partenariat franco-américain, qui, avant la fin de la décennie, ne couvrira plus seulement l’océan mais aussi tous les lacs, les fleuves et les rivières.

« Tout a commencé il y a une trentaine d’années, au sein d’un groupe de géodésiens du groupe de géodésie spatiale du Cnes et une petite poignée d’océanographes visionnaires », se rappelle Annie Cazenave, chercheur au sein du Laboratoire d’Etudes en Géophysique et Océanographie Spatiales, le LEGOS (CNRS/CNES/IRD/OMP/Université Toulouse 3), professeur au Collège de France et membre de l’Académie des Sciences. « Ils prônaient l’utilisation du satellite pour étudier cet énorme milieu qu’est l’océan et que l’on ne connaissait pas du tout », précise-t-elle. En effet, les chercheurs disposaient bien de quelques mesures, notamment de température et de salinité, qui étaient effectuées parfois par des bateaux, le long des routes commerciales. Mais aucune vision globale en trois dimensions. Avec l’essor de l’océanographie spatiale, les chercheurs ont réalisé une énorme moisson de découvertes. « Nous avons découvert notamment que l’océan, comme l’atmosphère, est turbulent. Les grands courants, constitués de tourbillons qui naissent et meurent, transportent 90% de l’énergie cinétique de la circulation océanique », indique-t-elle. L’océan est apparu aussi comme un acteur majeur du système climatique. Les chercheurs s’en doutait. Mais l’océanographie spatiale a pu le confirmer. D’autre part, en poussant les performances du système altimétrique jusque dans ces derniers retranchements, les chercheurs ont pu, pour la première fois, mesurer de façon globale la hausse du niveau des mers qui est une des causes du réchauffement climatique. « Nous avons découvert alors que la mer ne monte pas partout à la même vitesse ».

Au-delà de tous les services que les données satellitaires ont pu générer depuis cet essor de l’océanographie spatiale, les chercheurs toulousain du LEGOS et leurs partenaires ont commencé, dès le début des années 2000, à utiliser l’altimétrie pour étudier non plus l’océan mais les eaux continentales. Le problème est que les missions en orbite ne sont pas optimisées pour ce type de travaux. Ce qui a conduit la communauté scientifique toulousaine a imaginer et proposer une nouvelle mission, avec le support technique du Cnes. Baptisée SWOT, celle-ci, dont la résolution au sol sera de 50 mètres partout sur la planète, annonce une nouvelle révolution, notamment en matière de gestion des ressources en eau. Ainsi l’aventure se poursuit, une aventure qui a été rendue possible il y plus de vingt ans en particulier par la mise en place d’une structure originale regroupant chercheurs, ingénieurs et industriels, tous travaillant ensemble avant, pendant et après chaque mission. Autre facteur de réussite selon Annie Cazenave, la création d’une structure opérationnelle de traitement et de distribution des données à laquelle les scientifiques ont été associés. Enfin, le fait qu’un certain nombre d’organismes implantés à Toulouse (Méteo France, Shom, Cerface …) aient été impliqués très tôt dans ces développements de l’océanographie spatiale, a joué un très grand rôle dans la réussite globale de cette filière. « Nous avons démontré que nous n’avions pas besoin d’avoir l’océan à Toulouse pour développer cette extraordinaire filière qu’est l’océanographie spatiale opérationnelle », se félicite Martin Malvie, Président du Conseil Régional de Midi-Pyrénées.

En savoir plus

 
Publié par Pierre Thouverez

News Informatique : juillet 2013

Sécuriser le nuage informatique (Canada)

Un nouvel algorithme serait une solution à l’un des problèmes majeurs du cryptage homomorphe, en permettant aux serveurs Web de traiter des données sans les déchiffrer.

La promesse du cryptage homomorphe est de rendre le nuage informatique (cloud computing) sûr : un utilisateur enverrait des données chiffrées à un serveur du nuage, qui les traiterait sans les déchiffrer et renverrait un résultat, lui aussi crypté. Cependant, il arrive que le serveur ait besoin d’informations sur les données qu’il analyse, sous peine de rendre le traitement extrêmement long, voire impossible.

Des chercheurs du MIT en collaboration avec des chercheurs de l’Université de Toronto et Microsoft Research ont présenté la semaine dernière au 45ème Symposium on the Theory of Computing un nouveau système de chiffrement résolvant cet obstacle : ce système de cryptage fonctionnel permet à un serveur du nuage de lancer une recherche spécifique et unique sur un résultat crypté par homomorphisme, sans pour autant en extraire d’informations.

Les chercheurs ont construit leur système de cryptage fonctionnel par succession de plusieurs systèmes préexistants dont le cryptage homomorphique, chacun possédant un attribut indispensable, mais qui s’avère insuffisant lorsqu’utilisé indépendamment. Ce système ne sera pas déployé tout de suite, mais il ouvre une nouvelle voie qui pourra être exploitée pour de nombreuses applications, comme par exemple l’obfuscation, qui est notamment une stratégie de protection de la vie privée.

En savoir plus

Des petits robots qui se comportent comme des êtres vivants (Espagne)

Des chercheurs de l’Université Polytechnique de Madrid ont mis au point des robots constitués de différents modules qui gèrent leur comportement grâce à des algorithmes génétiques. Le système de contrôle de ces robots doit tout d’abord comprendre de quelles parties ils sont formés avant d’analyser les meilleures solutions à mettre en place pour le déplacement par exemple. Un exemple concret d’un domaine en pleine expansion : la mécatronique.

Chez les êtres vivants, l’apparition du système nerveux est liée aux besoins de coordination des différentes parties de l’être après l’apparition de l’appareil digestif. Ces premiers animaux étaient sans doute des vers dont le corps s’organisait autour du tube digestif. Les chercheurs de l’Université Polytechnique de Madrid ont eux aussi créé des vers, mais cette fois-ci mécaniques.

Ces robots sont constitués de différents modules hétérogènes assemblés les uns aux autres. Pour pouvoir fonctionner, ces robots doivent donc identifier les différents modules qui les composent et assurer la communication entre eux. L’objectif des chercheurs était de développer des robots hétérogènes dont les fonctionnalités gérées par un système de contrôle pouvaient être supérieures à la somme des fonctionnalités de chacune des parties. « La couche de communication est nécessaire pour faire en sorte que les modules comme leurs différents comportements puissent travailler vers un objectif commun, créant ainsi une vision homogène d’un agrégat hétérogène », explique Ernesto Gambao, le responsable du projet.

Pour arriver à ce produit, les chercheurs ont mis au point des modules dotés d’un système de contrôle et d’une interface de communication. Une fois réunis, les modules transmettent des informations à un système central et vice versa. Cette réalisation concrétise des travaux précédent menés sur la mise au point du système de contrôle.

Les chercheurs ont alors travaillé sur les différents modes de déplacement de leurs robots en testant plusieurs possibilités. Le déplacement de type extension-contraction, comme un ver, est celui qui consomme le moins d’énergie, les batteries des modules étant pour le moment limitées. L’objectif est de mettre au point des robots autonomes qui, agrémentés de capteurs, pourraient réaliser des travaux de vérification d’installation de manière autonome. Leur petite taille peut en faire des professionnels de l’exploration de tous types de tubes et de conduits.

Ces vers constituent un très bon exemple de produit issu de la mécatronique, un domaine qui cherche à allier de manière opérationnelle la mécanique, l’électronique et l’information. Ces robots mécaniques sont en effet capables d’échanger et d’utiliser des informations pour modifier leur comportement afin de réaliser des tâches complexes de manière autonome. Un peu comme les êtres vivants.

En savoir plus

L’Internet des objets est en marche

Du compteur électrique à la voiture en passant par le suivi médical d’un troupeau de vaches, de plus en plus d’objets ou appareils du quotidien sont équipés de processeurs, capteurs et dispositifs électroniques. Connectés à des services Internet, ils peuvent reconnaître leur environnement, s’organiser en réseaux et interagir avec l’homme. Il s’agit de la base de l’Internet des objets, qui s’ouvre à de toutes nouvelles applications à fort potentiel économique et social. Toutefois, les exigences de la technologie sous-jacente sont élevées et la gestion de la communication « machine-to-machine » (M2M) comporte des risques.

Le Cercle munichois, organisation internationale de recherche sur la communication, a réuni le 6 mai 2013 quelques 170 experts de l’industrie, du milieu universitaire et de la politique autour de l’implication sociale de l’Internet des objets dans des modèles d’affaires futurs. La communication machine-to-machine (M2M) dans l’industrie est longtemps restée une vision de l’avenir. C’est aujourd’hui une réalité grâce à l’Internet des objets. « Les objets intelligents ont leur propre adresse Internet et peuvent interagir. Il est alors possible de les surveiller et les contrôler, par exemple grâce à l’interface d’un navigateur Web », explique Uwe Kuback, vice-président du pôle ingénierie M2M chez SAP. « Pour la production, cela signifie plus de flexibilité. Grâce à l’échange de données entre les machines, les produits et les pièces, les systèmes de contrôle de l’usine peuvent être adaptés avec souplesse à l’évolution des besoins », a déclaré pour sa part Stefan Ferber, directeur des réseaux partenaires chez Bosch Software Innovations.

Dans cette configuration, même les petites séries peuvent être personnalisées en maintenant une forte productivité. Progiciel de gestion intégrée (pgi), bases de données des machines et planification du personnel, ces trois composantes sont le coeur de la production coordonnée. Mais la communication M2M trouve également des applications hors du secteur industriel, et se résume par le terme de « ville intelligente ». Il est alors question, par exemple, de surveillance en temps réel de l’état du trafic ou de bâtiments, même si pour le moment « ce type de systèmes est encore peu développé, les données recueillies n’étant fournies qu’à des groupes de personnes bien identifiées pour des applications données », comme l’indique Sebastian Wahle, directeur des solutions M2M à l’Institut Fraunhofer pour les systèmes de communication ouverts (FOKUS) à Berlin. « Cette mentalité inhibe le potentiel qui sommeille dans ce domaine. »

En ce qui concerne les solutions de mobilité futures, Christoph Grote, directeur du département recherche et innovation pour le groupe BMW, estime que le cloud computing va prendre de plus en plus d’importance dans la gestion de l’énergie pour les véhicules et l’analyse de l’état du trafic. Un défi majeur réside dans le partage et l’uniformisation des sources de données de manière à les exploiter correctement. C’est ici que l’Internet des objets peut jouer un rôle central dans l’interconnexion entre les différents moyens de transports.

Alexander Duisberg, associé chez Bird & Bird LLP, a insisté sur les questions juridiques qui se posent concernant ces composants technologiques autonomes : « L’attribution des actions et des violations [des appareils ou robots] est beaucoup plus complexe et dépasse la portée de la responsabilité des modèles du passé. » Avec l’Internet des objets, la protection des données constitue un nouveau défi.

En savoir plus

Publié par Pierre Thouverez

La fibre de carbone séduit les fabricants de Smartphone

La coque en plastique du Samsung Galaxy 4 avait été très critiquée, à tel point que le prochain Galaxy 5 est annoncé avec une coque de meilleure qualité. Mais on pensait jusqu’ici qu’il s’agirait de métal, comme l’iPhone 5. Finalement, il semblerait que le géant Coréen s’oriente vers une coque en fibre de carbone, c’est du moins ce que laisse présager ce tout nouveau rapprochement de la firme coréenne avec la société SGL Group, spécialiste mondial de la fibre carbone.

Désormais détenteur de 50% des parts, Samsung se positionne clairement sur le marché des Smartphones en fibre de carbone. Une orientation assumée par communiqué de presse : « Cette association devrait permettre à Samsung d’utiliser la fibre de carbone à long terme dans ses futurs produits et applications, comme de l’électronique, du matériel médical ou encore des applications en ingénierie » pouvait-on y lire.

En se tournant vers la fibre de carbone, Samsung pourra profiter de sa légèreté et de sa facilité de moulage, tout en proposant un produit fini esthétique. La fibre de carbone devrait ainsi s’imposer dans l’univers de la téléphonie très rapidement.

Par Audrey Loubens, journaliste scientifique

Vers des voitures et un monde « smart »

Dans un futur proche, l’automobile va devenir un espace avec beaucoup de nouveaux services. Les utilisateurs pourront, par exemple, retrouver l’ensemble de leur sphère privée : leur musique préférée, les outils téléchargés dans leur smartphone, etc.

En tant qu’utilisateur, « Je ne suis plus forcément propriétaire de ma voiture, ce n’est plus qu’un objet utilitaire. Néanmoins, une fois dedans, j’aurai besoin de la restitution de tous les services qui me sont personnels », précise Frédéric Bourcier, responsable des solutions Automobiles de Wind River.

D’ores et déjà, le véhicule d’autopartage Autolib’ est éco-conçu pour être smart, intégré dans un système d’information intelligent.

Par exemple, le système enregistre les radios et itinéraires préférés des utilisateurs et il les télécharge dans chaque nouvelle voiture réservée. Le véhicule reconnaît également l’utilisateur et « lui dit bonjour avec son nom et son prénom », rappelle fièrement Sylvain Geron, directeur associé du cabinet Polyconseil, responsable de la partie technique du projet Autolib’.

Les recherches sur le véhicule du futur s’axent aujourd’hui sur l’électrification et l’automatisation de la conduite. Dans quelques années, l’automatisation pourra permettre au conducteur de gagner du temps, en particulier en lui proposant de nouveaux services. Imaginez-vous dans un embouteillage : si vous pouviez accéder à vos mails ou regarder un film, comme vous pourriez le faire dans des transports en commun, l’embouteillage ne serait-il alors pas plus supportable ? D’autant plus si la conduite se fait automatiquement !

Les parkings où les voitures pourront se garer toutes seules devraient bientôt arriver sur le marché. Dès lors, les systèmes devront être extrêmement robustes. Quelle serait l’acceptabilité de tous ces systèmes automatiques en cas d’accident? Les industriels prennent toutes ces considérations en compte, ainsi que les évolutions sociologiques de la société. « La société est-elle psychologiquement prête ? », s’interrogent-ils. Ils choisissent de parier sur l’affirmative.

Une voiture autopartagée

« Certaines personnes ne vont plus utiliser la voiture comme un objet, mais plutôt l’approcher comme un élément d’un service de mobilité, c’est-à-dire que pour un voyage, ils vont considérer la voiture comme une part constituante des éléments du voyage qui peut être multimodal », estime Frédéric Bourcier.

Ces nouveaux véhicules demandent des infrastructures et des investissements lourds. Il n’y a donc pas de place pour les technologies jetables et l’obsolescence programmée. D’ailleurs, les professionnels du secteur mutualisent leurs efforts de recherche pour trouver ensemble des solutions, une nouvelle façon de travailler en quelque sorte !

Vers un monde smart ?

Jusqu’à peu, les ingénieurs ont cherché à obtenir de l’intelligence grâce à de gros ordinateurs. Pour Michel Puech, Maître de conférences en philosophie à l’université Paris-Sorbonne, elle passera finalement par la multiplicité de petits équipements grâce au « smart ». « L’intelligence est passée de l’high-tech au small-tech », analyse-t-il. C’est l’ère de l’ « empowerment » où le smart donne du potentiel, des capacités et de la puissance disséminés. Les nouveaux systèmes sont autonomes et reliés en réseau. 

Aujourd’hui, les utilisateurs attendent des applications et des équipements qu’ils soient rapides, mobiles et avec une autonomie suffisante. Tout doit être personnalisé, échangeable sur un réseau collaboratif et partageable. Par exemple, l’application smart du futur pour la mobilité consistera à entrer l’adresse de destination dans un outil qui proposera « non seulement les meilleurs moyens d’y aller en soi, mais surtout par rapport à où je suis actuellement et par rapport à mes préférences », précise le philosophe. Il ne s’agira plus de conseils absolus et universels, mais de conseils dépendant de mon profil et de mes préférences : est-ce que je veux privilégier le trajet le moins cher possible, le plus rapide, avec le moins de marche à pied, etc. ?

Un Big Brother décentralisé ?

Ces projets posent des problèmes de transparence et interrogent sur l’utilisation des données. Les utilisateurs veulent être aidés mais pas espionnés. On le voit bien déjà aujourd’hui avec les questions soulevées par l’utilisation des données collectées via les réseaux sociaux : on ne sait pas quelles données sont enregistrées et ce qu’elles deviennent. D’autant plus que les acteurs ne sont pas toujours identifiables ! Qui nous dit, par exemple, que le programmeur d’une application ne privilégiera pas ses produits ? Pour s’imposer, « Le smart doit être neutre et ne privilégier aucun acteur », insiste Michel Puech.

Des dérives se font déjà sentir. Par exemple, un système d’autopartage japonais propose des réductions immédiates lorsque l’on passe devant un magasin dont on détient la carte de fidélité. Le smart donnera-t-il naissance à une liberté absolue ou à un Big Brother décentralisé qui aura accès à toutes nos données ? La réponse ne devrait pas tarder !

Par Matthieu Combe, journaliste scientifique

L’essentiel de REACH 2/2 (juin)

Nouvelle proposition de classification et d’étiquetage harmonisés

06/06/2013

Deux nouvelles propositions de classification et d’étiquetage harmonisés sont en consultation publique. Cette consultation concerne les composés du tributylétain et le Polyhexamethylène biguanide hydrochloride (PHMB) (N°CAS : 27083-27-8 ou 32289-58-0). Les commentaires sont à soumettre pour le 22 juillet 2013.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/new-clh-public-consultations-launched-on-tributyltin-compounds-and-phmb

L’Allemagne souhaite soumettre une substance supplémentaire au plan d’actions triennal d’évaluation des substances

07/06/2013

L’Allemagne a notifié à l’ECHA la nécessité d’ajouter une substance supplémentaire au plan d’action triennal d’évaluation des substances (CoRAP), dans le cadre du règlement Reach. La substance concernée est le benzènediamine-1,4, mélange de N,N’-dérivés phényles et tolyles (N° CAS : 68953-84-4). Le comité des Etats membres de l’Echa doit maintenant se prononcer sur cette proposition d’inclusion. En cas d’avis favorable du comité, l’Echa inclura la substance dans le CoRAP, le cas échéant avant même la prochaine révision du programme prévue en mars 2014.

http://echa.europa.eu/view-article/-/journal_content/title/additional-substance-proposed-for-evaluation

L’adhésion de la Croatie à l’Union européenne impose de nouvelles obligations pour les entreprises

10/06/2013

Lorsque la Croatie rejoindra l’Union Européenne le 1er Juillet, les règlementations REACH et CLP s’appliqueront immédiatement aux entreprises croates. Les entreprises qui fabriquent ou importent des substances en quantités supérieures à une tonne par an devront pré-enregistrer auprès de l’ECHA avant le 1er Janvier 2014.

Les entreprises devront également faire des enregistrements REACH pour les substances fabriquées ou importées à plus de 100 tonnes ainsi que celles qui sont cancérogènes, mutagènes ou toxiques pour la reproduction, d’ici le 1er Juillet 2014. Ils devront par ailleurs classer et étiqueter les substances sur le marché selon le règlement CLP et soumettre la notification C&L à l’ECHA avant le 1er Août 2013.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/croatian-accession-to-the-european-union-brings-new-duties-for-companies

Classifications harmonisées conformément à la directive sur les substances dangereuses (DSD) désormais disponible dans l’inventaire C&L

11/06/2013

La classification et l’étiquetage de toutes les substances harmonisées visées à l’annexe VI du règlement CLP, selon les critères énoncés dans la précédente directive sur les substances dangereuses (DSD) sont désormais disponibles dans l’inventaire C & L.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/harmonised-classifications-according-to-the-dangerous-substances-directive-now-available-in-the-c-and-l-inventory

Avis scientifique d’une proposition de restriction du 1,4-dichlorobenzène dans les désodorisants et sanitaires

12/06/2013

Lors de sa 19ème réunion à Helsinki, le Comité des analyses socio-économiques (SEAC) a appuyé la proposition de l’ECHA pour limiter le 1,4-dichlorobenzène dans les désodorisants et les sanitaires.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/seac-concludes-its-scientific-opinion-for-a-restriction-proposal-on-1-4-dichlorobenzene-in-air-fresheners-and-toilet-blocks

L’ECHA conclut sur 14 avis scientifiques

12/06/2013

Le comité d’évaluation des risques (RAC) a adopté un avis à la demande du Directeur exécutif et 13 avis de classification et d’étiquetage harmonisés (CLH). Le RAC a accepté de classer : acide nitrique (N°CE 231-714-2), étridiazole (N°CE 219-991-8), metosulam (N°CAS 139528-85-1), acide octanoïque (N°CE 204-677-5), acide nonanoïque (N°CE 203-931-2), acide décanoïque (N°CE 203-931-2),acide benzènedicarboxylique-1,2, ester de dihexyle ramifié et linéaire (N°CE 271-093-5), imazalil (N°CE 252-615-0), tebuconazole (N°CE 403-640-2), dimethenamid-P (N°CAS 163515-14-8), carvone (N°CE 202-759-5, 218-827-2, 229-352-5), tembotrione (N°CAS 335104-84-2), flonicamid (N°CAS 158062-67-0).

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/rac-concludes-on-14-scientific-opinions

Nouvelle consultation pour éviter les tests sur les animaux

14/06/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. La substance concernée est le 6-phenyl-1,3,5-triazine-2,4-diamine (N° CAS : 91-76-9 et N°CE : 202-095-6). Les informations relatives à cette substance sont à soumettre pour le 29 juillet 2013.

Plus d’information sur : http://echa.europa.eu/information-on-chemicals/testing-proposals/current

L’arrêté du 30 mai 2013 modifie l’arrêté TMD

15/06/2013

L’arrêté du 30 mai 2013 modifiant l’arrêté du 29 mai 2009 relatif aux transports de marchandises dangereuses par voies terrestres (dit « arrêté TMD ») est paru au Journal Officiel du 15 juin 2013. Cet arrêté modifie les modalités régissant les relations de travail entre les organismes de formation agréés et l’Imprimerie nationale en vue de la délivrance et du renouvellement de formation des conducteurs procédant au transport de marchandises dangereuses par route (certificat de formation ADR). Il rectifie également certaines redondances ou oublis de nature éditoriale issus de la précédente modification de l’arrêté « TMD ».

Plus d’information sur : http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000027545751&dateTexte=&categorieLien=id

Biocides : un règlement fixe le montant des redevances dues à l’Echa

19/06/2013

Un règlement de la Commission européenne du 18 juin, fixe le montant des redevances et droits dus à l’ECHA en application du nouveau règlement sur les produits biocides qui entre en vigueur le 1er septembre prochain.

Ce règlement est téléchargeable sur : http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:167:0017:0025:FR:PDF

Ajout de 6 nouvelles substances SVHC sur la liste candidate

20/06/2013

La liste des substances candidates a été mise à jour le 20 juin 2013 avec 6 nouvelles substances : cadmium, oxyde de cadmium, pentadecafluorooctanoate d’ammonium (APFO), acide pentadecafluorooctanoïque (PFOA), Dipentyl phthalate (DPP), 4-Nonylphenol, ramifié et linéaire, éthoxylé. La liste contient actuellement 144 substances.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/echa-updates-the-candidate-list-for-authorisation-with-six-new-substances-of-very-high-concern-svhcs-

La liste des substances est disponible sur : http://echa.europa.eu/candidate-list-table

Consultation publique pour l’ajout de 6 nouvelles substances dans la liste d’autorisation (annexe XIV)

24/06/2013

L’ECHA lance une consultation publique sur le projet de recommandation visant à inclure 6 nouvelles substances à l’annexe XIV. Les parties intéressées sont invitées à émettre leurs commentaires avant le 23 septembre 2013.

Plus d’information sur : http://echa.europa.eu/fr/addressing-chemicals-of-concern/authorisation/recommendation-for-inclusion-in-the-authorisation-list

Journée BIocides

25/06/2013

L’ECHA a organisé sa 1ère journée biocides pour les parties prenantes. Plus de 300 personnes y ont participé.

Les présentations de cette journée sont disponibles sur : http://echa.europa.eu/view-article/-/journal_content/2a841ed1-7761-479d-91a8-3e439a11ebbb

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

L’activité humaine déplace le CO2 vers les rivières

En comptabilisant les bilans d’émission et de capture des gaz à effet de serre au niveau des cours d’eau, des chercheurs dont ceux du Laboratoire des sciences du climat et de l’environnement (IPSL/LSCE – CEA/CNRS/UVSQ) et du laboratoire « Géosciences environnement Toulouse » (CNRS/IRD/Université Paul Sabatier Toulouse 3) ont découvert qu’une partie non négligeable du carbone se retrouve dans les sédiments de ce qu’ils appellent le continuum aquatique terre-mer, soit l’ensemble des rivières, lacs, fleuves et estuaires sans oublier les zones côtières.

D’après leur recensement, le carbone piégé dans les écosystèmes n’y reste pas mais migre vers les eaux. Cette migration est due à la déforestation, au déversement des eaux usées et au processus de météorisation. Ces résultats révèlent que la capacité globale de stockage des écosystèmes terrestre est moindre que ce que l’on croyait jusque là. Ces nouvelles données doivent donc être intégrées aux modèles utilisés pour définir les bilans globaux de CO2 au plus juste.

Chaque année, du fait de l’activité humaine, ce ne sont pas moins de 8.9 gigatonnes de carbone qui se retrouvent dans l’atmosphère, dont la moitié environ repart vers les océans (2.3 Gt) et la végétation (2.5 Gt). Le reste s’accumule dans l’atmosphère, accentuant le réchauffement climatique.

Par Audrey Loubens, journaliste scientifique

 

Découvrez la formation
Sols et sites pollués : gérer et prévenir les risques 

Les obligations juridiques, les critères techniques et le plan de gestion à maîtriser

  • Assimiler le cadre réglementaire et normatif de la gestion des sites et sols pollués
  • Identifier les risques et définir une stratégie de réhabilitation pertinente
  • Connaître les principales techniques de réhabilitation
  • Appréhender l’étendue de ses responsabilités et les interactions avec les acteurs de son territoire

Comment stocker l’énergie ?

La réponse est pour beaucoup liée à la faible densité d’énergie des batteries. Les meilleures batteries actuelles (Lithium-Ion) sont capables de stocker environ un quart de kilowattheure par kilogramme de batteries. C’est 8 fois mieux que les bonnes vieilles batteries au plomb, mais c’est 67 fois moins l’énergie contenue dans 1 kg d’essence.

Même si le moteur de votre voiture ne parvient à transformer qu’un tiers* de cette énergie en mouvement, un réservoir d’essence reste au moins 20x plus léger qu’une bonne batterie équivalente. Donc un réservoir de 40 litres d’essence (~ 30 kg)  correspond à au moins 600 kg de batteries. Et même si un moteur électrique est sensiblement plus petit qu’un moteur à combustion de la même puissance, les batteries restent un handicap de poids pour un véhicule.

Evidemment, on peut réduire la taille de la batterie en récupérant l’énergie cinétique d’un véhicule à la descente, ou au freinage. Mais là se pose un autre problème : la puissance de charge ou décharge des batteries est également limitée.. Il faut par exemple 3.5 heures pour recharger complètement le Roadster Tesla de mes rêves, ce qui nécessite une alimentation électrique d’une puissance de 4.8 kW. Or comme je l’avais calculé ici, une voiture qui ralentit de 36km/h à 0 en 5 secondes produit une puissance de 26 kW.  C’est pour cela que les voitures hybrides comme la Toyota Prius n’utilisent pas des batteries Li-ion, mais plutôt des NiMH de densité énergétique inférieure, mais permettant des courants de charge/décharge plus élevés.

Alors on stocke l’énergie, ou la puissance ?

La « Jamais Contente » avait un nom prédestiné pour une voiture électrique : il n’existe pas de technologie de stockage ayant à la fois une forte densité d’énergie et une forte « densité de puissance ». On voit ceci et bien d’autres choses intéressantes dans le graphique ci-dessous [1], qui classe différentes technologies de stockage d’énergie selon leur puissance nominale (horizontalement) et le temps pendant lequel cette puissance nominale est disponible en décharge (verticalement). Evidemment, on peut décharger un système plus lentement en en tirant une puissance inférieure, mais ça ne change rien à l’énergie stockable, donnée par le produit des deux axes.

Remarquez comme les diverses technologies forment des bandes horizontales : la puissance et l’énergie stockée par un système augmentent linéairement avec sa taille, donc le temps donné par le rapport énergie/puissance ne varie pas : il y a des technologies « rapides » capables d’absorber et de restituer des pics de puissance (en bas du dessin) et d’autres « lentes » capables de stocker plus d’énergie par unité de volume (en haut).

Les systèmes adaptés aux véhicules sont sur la gauche du graphique, entre 1 et 10 kW pour les scooters et entre 10 et 100 kW  pour les voitures. Remarquez aussi que les les bonnes vieilles batteries au plomb sont  situées entre les batteries Li-ion de la Tesla et les NiMH de la Prius. Elles sont lourdes, mais bon marché : si on calculait la densité d’énergie par dollar ou Euro investi (pas trouvé = à faire…), elles auraient probablement encore leur mot à dire…

Au dessus des batteries Li-ion, on trouve deux technologies en développement, pas encore commercialisées à ma connaissance :

Les « ultra-batteries » comme celles au difluorure de xénon. L’énergie électrique y est stockée directement dans la structure du matériau comme dans une supercap, mais avec une densité d’énergie bien supérieure.

Les « batteries métal-air ». Les accumulateurs lithium-air (le lithium étant un métal ) sont les plus prometteuses, avec une densité d’énergie environ 10x plus élevée que le Li-ion. Avec de telles batteries, une voiture électrique atteindrait une autonomie comparable à une voiture à essence. Mais sauf progrès inattendu, il faudra toujours des heures pour la recharger.

Au dessous de tous ces types de batteries, on trouve des technologies encore mieux adaptées au stockage de puissance : les supercaps et les volants d’inertie dont j’ai déjà parlé un peu ici pour les véhicules.

Du Gyrobus au Tokamak

L’énergie cinétique d’un volant d’inertie vaut E=½.J.ω² où ω est la vitesse angulaire et J le moment d’inertie du volant, qui augmente comme le carré du rayon. Pour stocker beaucoup d’énergie, il faut donc faire tourner le plus vite possible un volant du plus grand diamètre possible. Mais il y a deux hics :

Le premier est que la vitesse périphérique du volant atteint la vitesse du son plus vite qu’on ne pense : un volant d’1 m de diamètre ( π m de circonférence) devient supersonique à 100 tours/s, soit 6000 tours/minute déjà.

Le second c’est la résistance mécanique du volant sous l’effet de la force centrifuge. Comme on le voit dans ce tableau, un volant en acier bien dense éclate avant d’atteindre la vitesse du son. On ne gagne rien à utiliser du titane, plus résistant mais plus léger. Pour atteindre des densités d’énergie comparables à de bonnes batteries, il faut réaliser des volants en fibre de carbone ou de kevlar, tournant sous vide d’air…

La raison pour laquelle le légendaire Gyrobus stockait son énergie dans un volant d’inertie de 1.5 tonnes plutôt que dans une masse équivalente de batteries au plomb tient à la petite phrase « La recharge du volant prenait de 30 secondes à 3 minutes » : les volants d’inertie stockent plutôt de la puissance que de l’énergie. Si on envisage de les utiliser dans les éoliennes [3] c’est pour lisser l’effet de rafales de vent espacées de quelques minutes, pas pour stocker une tempête nocturne pour un lendemain calme.

Une fois quelques détails réglés, les volants d’inertie pourraient jouer un rôle important dans les centrales à fusion thermonucléaire en stockant une partie de l’énergie produite pendant les courtes réactions de fusion pour alimenter les aimants et réchauffer le plasma entre deux réactions. Avec un rotor de quelques dizaines de mètres de long et quelques dizaines de tonnes, on peut stocker 100 MW pendant 10 secondes. Tout ça pour stocker environ 70 KWh d’électricité, l’équivalent de quelques jours de votre consommation personnelle.

Panoramix, il nous faut de la potion magique…

Si vous rêvez d’être autonome en électricité avec votre petite éolienne personnelle ou vos quelques m² de panneaux solaires, il vous suffira de stocker quelques dizaines de kWh pour les nuits ou les jours sans vent. Vous aurez besoin d’une capacité de stockage assez similaire à celle d’une voiture électrique, et quelques centaines de kg de batteries feront l’affaire. Vous pourriez être tentés d’utiliser votre voiture électrique comme stockage, mais le hic c’est que votre maison doit stocker de l’énergie pour le soir alors que votre voiture doit en stocker pour le jour. Pas de bol : il vous faudra donc 2 batteries.

Si vous êtes une petite ville isolée comme Fairbanks en Alaska, il vous faut la plus grosse batterie du monde pour fournir 40 MW à vos 12’000 habitants en cas de défaillance de votre centrale thermique. Enfin, pendant 7 minutes seulement, le temps de démarrer les groupes de secours, parce qu’à Fairbanks, ils ne sont pas écolos. Et aussi parce que leurs 1300 tonnes de batteries NiCd ne stockent que 5 MWh.

Donc si votre village d’irréductibles possède une vraie éolienne d’ 1MW ou plus, et/ou des hectares de panneaux solaires, et que vous voulez tenir quelques jours sans vent, il vous faut la même batterie que Fairbanks. Ou quelque chose de mieux, parce que si vous faites le calcul, la densité d’énergie de leur batterie n’est que de 4 Wh/kg, que le cadmium, c’est pas « vert » et que le lithium, il n’y en aura pas assez pour tous les écolos du monde.

D’autres types de batteries sont actuellement en développement comme les  batteries sodium-soufre (NaS) ou les batteries à sel fondu type « Zebra », mais la voie la plus prometteuse me semble être les « batteries à flux redox » (« flow batteries » en anglais). Ces sont des sortes de piles à combustible réversibles appelées qui fonctionnent avec diverses soupes d’électrolytes bizarres comme le bromure de vanadium ou du zinc/cérium.

La densité d’énergie de ces systèmes n’est pas vraiment plus élevée que celles de batteries Li-ion, donc on parle toujours d’installations de centaines de tonnes. Leur avantage est que la puissance est stockée/fournir par un élément relativement petit, alors que l’énergie stockable peut être augmentée à volonté en augmentant simplement le volume des réservoirs d’électrolytes. Ceci permet de réduire le coût de ces solutions par rapport à un wagon train de batteries plus classiques.

Je ne vois pas d’autre solution économique et utilisable à cette échelle actuellement ou dans un futur proche, mais dans un futur plus lointain, on pourrait imaginer utiliser  le stockage d’énergie magnétique à supraconducteur (SMES en anglais). L’idée est de faire tourner du courant électrique en circuit fermé dans un anneau supraconducteur. Ceci crée un champ magnétique extrêmement fort, autour de 20 Tesla duquel on peut ensuite retirer l’énergie par induction. Lorsqu’on sait que le champ magnétique terrestre est environ un million de fois moins puissant, on comprend que les pièces métalliques ne sont pas bienvenues à proximité d’un SMES, qui pose une quantité de problèmes technologiques intéressants. Les installations de labo actuelles sont plutôt orientées « puissance », mais on pourrait imaginer des SMES de quelques dizaines de kilomètres de diamètre pour le stockage d’énergie.

Mais sur le graphique on constate un gros trou qui sépare toutes ces « petites » solutions de celles déjà utilisées aujourd’hui dans la production d’énergie centralisée.

Big is beautiful

Il existe en effet déjà trois systèmes de stockage adaptés aux centaines de MWh, voire de GWh. Commençons par les deux les moins connus :

Le stockage thermique dans le sel fondu est particulièrement adapté aux centrales solaires themiques. Par exemple celle d’Andasol en Espagne peut stocker 1GWh, soit  l’équivalent de 7h30 de production de la centrale à pleine puissance en chauffant 28’500 tonnes de sels à 400 °C, soit une densité d’énergie de 35 Wh/kg (0.126 MJ/kg), comparable à celles de batteries au plomb.

Le stockage d’énergie à air comprimé (CAES en anglais). Là encore, la densité d’énergie volumique de l’air comprimé à 300 bars est comparable à celle des batteries, mais deux difficultés apparaissent. D’abord, les compresseurs et moteurs à air doivent tenir compte de la thermodynamique. En comprimant un gaz il s’échauffe, et il refroidit lorsqu’il se détend.  Il faut récupérer cette composante thermique de l’énergie pour obtenir des rendements acceptables. D’autre part, construire des réservoirs de grandes dimensions pour de l’air à haute pression n’est pas une petite affaire. Ces deux obstacles hypothèquent la voiture à air, mais en grand, ça peut marcher. Des installations pilotes comme ADELE en Allemagne arrivent à stocker 350 MWh en comprimant de l’air dans des cavernes et atteignent des rendements de 70% en récupérant la chaleur produite lors de la compression.

Et enfin le « stockage hydraulique gravitaire » réalisé par de nombreuses installations que les français appellent STEP. En Suisse, ça veut dire STation d’EPuration, alors on préfère les appeler « stations de turbinage-pompage ».

L’énergie potentielle d’une masse m élevée d’une hauteur h est de E=m.g.h Joules, où g=9.81 que j’arrondis à 10. Pour stocker 1 kWh = 3.6 MJ, il faut donc élever 3’600 litres d’eau de 100m. Ou 360 litres de 1000m. Donc une montagne, c’est mieux qu’une colline. Et un grand lac aussi parce que pour stocker 1GWh il faut un million de fois plus d’eau. Et stocker une puissance de 1GW, ça veut dire pomper  1000 m³ d’eau par seconde à 10 bars, ou 100 m³ d’eau par seconde à 100 bars. Impressionnant, mais on sait faire depuis assez longtemps. Jusqu’ici, ça nécessitait des pompes spéciales, distinctes des turbines, mais l’arrivée des imprévisibles éoliennes motive la recherche de turbines réversibles, capables de passer rapidement de mode turbinage au mode pompage, comme la turbine Hydrodyna de l’EPFL

D’après cette liste il existe actuellement au moins 50 « STEPs » d’une puissance de plus de 1 GW dans le monde, dont Grand’Maison en France, Linth-Limmern en Suisse et même Coo-Trois-Ponts en Belgique (rien au Québec ?) Avec de nombreuses autres installations de puissance inférieure, la capacité de stockage hydraulique représente au niveau mondial une puissance de 100 GW et une énergie que, fautes de données j’évalue à X TWh en multipliant les 100 GWh par X dizaines d’heures.

Ca parait beaucoup comme ça, mais même pour X=3 ça ne représente pas un millième de la production d’électricité renouvelable mondiale, qui elle-même ne représente que 18 % de la production d’électricité totale.

J’ai lu quelque part (je ne retrouve plus où) que toutes les batteries du monde (démarreurs de voitures + téléphone et ordinateurs portables, toutes) stockent 4 minutes de la production mondiale d’électricité. D’après les calculs ci-dessus, toutes les STEP du monde stockent environ 1.5 heures de production mondiale.

C’est assez tant que des centrales thermiques produisent l’énergie « en ruban », mais si on remplace ces sources d’énergie fiables et régulières par des sources aléatoires, qu’on tient à l’ « indépendance énergétique » et que de plus on ne veuille pas créer de nouvelles lignes de transport qui permettraient de lisser la production et la consommation à l’échelle du continent, il va falloir augmenter énormément la capacité de stockage. Tellement qu’on se sait pas le faire. Il faudra faire des compromis. Ou regarder une fois encore les 3 premières lignes du tableau des densités d’énergie avant de retourner aux arbres…

Par Philippe Guglielmetti dit « Dr Goulu »
Blog Pourquoi Comment Combien

Les fractales sont-elles la clé de l’existence ?

Une figure fractale est une courbe ou une surface de forme irrégulière ou morcelée qui se crée en suivant des règles déterministes ou stochastiques impliquant une homothétie interne. Pour interpréter cette définition, il va falloir analyser sa simplicité dans sa complexité. Mais commençons par les origines, l’époque où la fractale n’existait pas encore dans les livres scientifiques…

Alan Turing et «les bases chimiques de la morphogenèse»

Alan Turing, grand mathématicien anglais, est connu dans le monde scientifique pour son travail sur « L’intelligence artificielle », projet qui a vu le jour en 1950 et qui a abouti quelques années plus tard à l’invention désormais incontournable de l’ordinateur moderne.

En 1952, Turing publie l’ensemble des résultats issu de ses expériences : « Les bases chimiques de la morphogenèse ». La description de son protocole étant d’une grande complexité, il décide de réaliser un modèle mathématique simplifié pour expliquer la morphogenèse. Il la définit comme un ensemble de lois élémentaires déterminant des processus chimiques à l’œuvre dans la croissance des formes. Grâce à l’usage de l’ordinateur, il obtient non seulement la capacité d’accroître la puissance de calcul, mais aussi de traiter de nouveaux types de phénomènes, élargissant finalement le nombre de possibilités de formes différentes en dehors de celles calculées à la main.

Équation 1 : Système d’équations différentielles linéaires dont les solutions donnent 6 cas possibles d’apparition de taches. Des équations élémentaires qui s’employaient habituellement en astronomie ou en physique nucléaire

Son approche fondée sur ces techniques nouvelles est résolument moderne puisque, selon lui, la morphogenèse et l’intelligence artificielle sont deux domaines indissociablement liés. Voici ce que nous pouvons donc retenir des recherches d’Alan Turing : il annonce sans véritables preuves expérimentales l’existence d’un milieu qui s’auto-organise et imagine la façon dont les formes apparaissent sur les végétaux et les animaux.

Boris Belousov et « la réaction oscillante »

L’année 1950 est aussi marquée par l’intervention d’un brillant chimiste russe nommé Boris Belousov. Il mit au point une solution mélangeant cinq composés courants dans l’eau, à température ambiante. Cette solution oscille entre la transparence et la coloration. Elle se réalise avec une grande régularité et ce, pendant près d’une centaine de cycles, jusqu’à épuisement d’un des réactifs. Or d’après les lois fondamentales, les produits chimiques peuvent réagir ensemble mais la réaction n’est en principe pas réversible. En tout cas, pas sans intervention.

Ci-dessus : la réaction oscillante Belousov-Zhabotinsky

Après de nombreuses tentatives, il pense avoir fait une découverte majeure. Pourtant, ses résultats ne sont pas reconnus par la communauté scientifique russe qui les juge impossibles puisqu’ils contredisent les lois de physiques élémentaires. Accusé d’avoir bâclé son travail, il abandonne toutes ses expérimentations.

Ironie de l’histoire, le rideau de fer a empêché Belousov de découvrir les travaux de Turing qui l’auraient sans doute confortés dans sa théorie.

En réalité, la réaction oscillante ne contredisait pas les lois élémentaires de physiques, elle constituait une illustration exacte du comportement décrit par le système d’équations de Turing !

En effet, en laissant les composés de Belousov dans des boites de Pétri, on n’observe plus une oscillation mais une auto-organisation. Des formes se créaient à partir de rien, ressemblant exactement aux mouvements de nos cellules cardiaques ou encore aux motifs qui apparaissent sur le pelage de certains animaux qui peuvent ressembler à des « battements de cœur » (par exemple le jaguar).

Néanmoins, pour comprendre la notion de fractale, il est nécessaire de connaitre la théorie du chaos car ce dernier fait partie des lois élémentaires.

La fin du rêve newtonien

Alors que l’industrie était en pleine révolution, l’univers était considéré comme mécanique. Toutefois, les séries d’expériences effectuées par différents scientifiques vont remettre en question tous les acquis jadis inébranlables. C’est l’effondrement du rêve newtonien : « La relativité a éliminé l’illusion Newtonienne d’un espace et d’un temps absolu ; la théorie quantique a supprimé le rêve d’un processus de mesure contrôlable. Le chaos élimine l’utopie Laplacienne d’une prédicabilité déterministe » (d’après la théorie quantique de Gleick James).

Ci-dessus : Création de structures naturelles via la théorie du chaos

Les travaux de Turing, Belousov et de Lorenz sont arrivés à une même conclusion : l’évidence que la nature pouvait être complètement imprévisible, d’où la création de motifs et de structures. Une connexion cosmique s’établissait entre la capacité de la nature à s’auto-organiser et les conséquences chaotiques de l’effet papillon. Que ce soit les formes de Belousov ou le principe de Turing, ils sont connectés par une formule que seul Mandelbrot saura établir.

De part et d’autre, des illustration de l’auto organisation dans la nature : les nervures de feuilles et les marges des feuilles

Benoît Mandelbrot est un mathématicien franco-américain qui, dans sa jeunesse,  ne connaissait ni l’alphabet ni les tables de multiplications, ce qui ne l’a pas empêché d’entrer en 1950 chez IBM pour étudier les irrégularités dans la nature et les marchés financiers. Tout comme Turing, grâce à l’ordinateur et aux travaux de Gaston Julia et Pierre Fatou, il a pu fournir une étude encore plus poussée sur ces formes complexes qui nous entourent.

Il réussit finalement à unifier toutes les recherches établies dans ce siècle en une formule. Elle décrit les formes rugueuses du monde réel. Sa théorie des fractales voit le jour en 1975 avec la publication de son essai intitulé « les objets fractals : forme, hasard et dimension ». Mandelbrot reste perplexe sur le comportement des autres mathématiciens qui se sont uniquement concentrés sur la géométrie des objets réguliers (droite, cercle, carré, etc.) émanant de la création humaine et non celle qui nous entoure, à savoir la nature.

Equation 2 : Equation de Mandelbrot qui définit le système de la géométrie fractale

Ci-dessus : L’empreinte divine ou ensemble de Mandelbrot.

Conclusion

Si nous devions reformuler la définition de fractale, nous pourrions dire que c’est une géométrie naturelle qui représente des formes complexes, des objets mathématiques dont la création ou la forme ne trouvent leurs règles que dans l’irrégularité ou la fragmentation.

Par Margaux Abello

 

 

En savoir plus :

Sources

  • La fractale de Mandelbrot

http://fr.wikipedia.org/wiki/Ensemble_de_Mandelbrot

http://www.syti.net/Fractals.html

http://fr.wikipedia.org/wiki/Fractale 

http://eljjdx.canalblog.com/archives/2008/08/23/10295349.html 

http://www.youtube.com/watch?v=foxD6ZQlnlU (fractal Mandelbrot zoom de l’empreinte divine)

  • Histoire d’Alan Turing

http://www.uzine.net/article159.html 

http://fr.wikipedia.org/wiki/Alan_Turing : expérience

http://interstices.info/jcms/int_71868/alan-turing-les-motifs-et-les-structures-du-vivant 

http://david.monniaux.free.fr/dotclear/index.php/post/2012/03/16/Ann%C3%A9e-Turing-et-questionnement-sur-la-justice 

  • Histoire et expérience de Belousov Zhabotinsky

http://www.youtube.com/watch?v=3JAqrRnKFHo 

http://www.scholarpedia.org/article/Belousov-Zhabotinsky_reaction 

https://fr.wikipedia.org/wiki/R%C3%A9action_de_Belousov-Zhabotinsky 

http://wiki.scienceamusante.net/index.php?title=Belousov-Zhabotinsky 

  • Chaos, rêve newtonien

http://www.dico-citations.com/la-relativit-a-limin-l-illusion-newtonienne-d-un-espace-et-d-un-temps-absolu-la-th-orie-quantiqu-gleick-james/

http://fr.wikipedia.org/wiki/Effet_papillon

http://fr.wikipedia.org/wiki/Th%C3%A9orie_du_chaos

http://fr.wikipedia.org/wiki/Attracteur_de_Lorenz

http://www.larousse.fr/encyclopedie/divers/fractale/53335 

 

 

 

Les éditeurs de logiciels peinent à rejoindre le Cloud

La faible flexibilité des licences de logiciels entraîne un important manque à gagner pour les éditeurs de logiciels. C’est du moins ce que pensent 53 % des éditeurs interrogés dans le cadre de l’enquête « L’état de la monétisation des logiciels : revenus et propriété intellectuelle en dangers », menée par SafeNet, société axée sur la protection des données  et l’association des professionnels de l’informatique et des logiciels (SIIA).

Ce fait se vérifie sur le terrain, puisque 35 % des utilisateurs professionnels désignent les licences non flexibles comme le principal obstacle lié à l’utilisation des logiciels. Ces licences ne répondent pas en effet pas toujours aux besoins des entreprises. 14 % des utilisateurs professionnels placent les services basés sur le Cloud en tête du classement des modèles de licences préférés, 16 % privilégiant spécifiquement la facturation « à l’usage ».

Les éditeurs peuvent donc mieux faire et ils en ont conscience. 84 % des éditeurs sondés estiment qu’une meilleure stratégie de monétisation pourrait améliorer leurs revenus de 50 %. Cela pourrait se faire notamment grâce à des licences de logiciels flexibles. Dans cette perspective, la présence sur le Cloud apparaît comme une priorité pour beaucoup d’éditeurs. 65 % des éditeurs de logiciels interrogés disent déjà proposer des services sur le Cloud. Pour ces éditeurs, les services du Cloud représentent 24 % de leur portefeuille produits. Ce pourcentage d’offres « Cloud » devrait rester stable à 25 % cette année et augmenter au cours des 5 prochaines années. Toutefois, 25 % des éditeurs devraient rester en dehors du Cloud.

Si 35 % des éditeurs de logiciels interrogés ne proposent pas encore de services basés sur le Cloud, les trois quarts prévoient y commercialiser au moins une partie de leur offre « en tant que service » cette année. Mais il faut du temps pour adapter son offre ! En moyenne, les personnes interrogées déclarent que 16 mois sont nécessaires pour adapter tout ou une partie de leur portefeuille de produits pour le Cloud. En revanche, migrer l’intégralité de son offre n’est pas possible pour tout le monde : 26 % des éditeurs interrogés estiment qu’ils ne pourront jamais faire cette migration. Le coût et la complexité demeurent les principaux obstacles à cette avancée.

Pourquoi adopter le Cloud ?

Les éditeurs de logiciels disent intégrer le Cloud pour réduire les coûts opérationnels, améliorer  l’expérience des clients, accéder à de nouveaux marchés, notamment à des marchés de niche, mieux suivre l’utilisation des logiciels et réduire les délais de commercialisation.

61 % des éditeurs de logiciels ayant déjà fait le choix du Cloud un impact financier positif résultant soit d’une diminution des coûts d’exploitation soit de l’augmentation des revenus. À l’opposé, 6 % des éditeurs interrogés signalent des répercussions financières négatives ou l’apparition de menaces pour la sécurité découlant de l’introduction de logiciels sur le Cloud.

Par Matthieu Combe, journaliste scientifique

Découvrez notre base documentaire

Management des systèmes d’information 


 

Découvrez notre offre de formation informatique


Le cloud computing au travail : quels avantages ?

Avec le cloud computing, de nombreux avantages s’offrent aux entreprises et aux salariés. Mais ceux que l’on retient généralement sont l’accès à l’information et l’aspect collaboratif. Pour les entreprises, qui se doivent d’être réactives, l’accès à l’information est une priorité. Désormais un employé peut à n’importe quel moment accéder aux données qu’il souhaite, 24 heures sur 24. Il lui suffit juste d’une connexion internet pour se rendre aux ressources logicielles de son employeur.

Dans le cas où celui-ci compte s’avancer dans son travail, il pourra ainsi se connecter de chez lui ou bien n’importe où ailleurs. En cela, le cloud est une petite révolution car il modifie nos pratiques de travail. Cette évolution va de pair avec l’essor des tablettes et autres smartphones. Par ses deux outils, le cloud prend toute sa mesure. Nous n’avons jamais été autant mobiles, autant flexibles. 

Impossible de ne pas songer au cloud computing sans aborder l’aspect collaboratif. Car il s’agit d’un merveilleux outil de collaboration qui permet aux salariés d’œuvrer ensemble, dans un but commun. Les salariés peuvent travailler sur un même document en temps réel sans le souci de la distance et synchroniser leurs actions sans perte de temps. Avec la mutualisation des données via le cloud computing, des collaborateurs situés dans différentes régions du monde gagnent ainsi un temps précieux en ne s’échangeant plus une quantité faramineuse de mails. Ce qui a pour effet direct de diminuer le flux d’e-mails.

En prime, le salarié n’a pas à surveiller la mise à jour des logiciels. Un cadre de travail en somme plus favorable à l’émergence de solutions ou d’idées, moins stressant. La clé de cette réussite se situe donc dans le partage et dans l’allégement de certaines contraintes informatiques. 

De la même manière, la gestion des données se veut plus efficace. Grâce au cloud, les documents utilisés sont archivés automatiquement là ou autrefois, il fallait impérativement être dans l’entreprise pour l’utilisation et la sauvegarde de ses données. Les salariés ont la possibilité de suivre le déroulement du développement d’un projet, de suivre une réunion en temps réel, de connaître les activités d’un collaborateur…

Aujourd’hui il est devenu familier pour les salariés d’accéder à un service de messagerie dédié à l’entreprise, ou de quelques applications pour gérer les stocks, le programme du personnel, les temps libres, les vacances, l’agenda… La coordination en est améliorée, la maîtrise d’un projet renforcée. Qui plus est, cette méthode de travail dispense bon nombre de trajets, permet un gain de temps et réduit les frais. Pas mal! 

Malgré toutes ces qualités, le cloud computing provoque encore quelque questionnement. Notamment sur l’aspect sécurité des données. En effet, il n’y a pas de système inviolable pour les hackers. Mais ce qui pose le plus problème concerne les relations humaines. Cette virtualisation des données peut causer une déconnexion avec les autres. Ne plus avoir à se déplacer au bureau d’un collègue par exemple pour obtenir une information, revient finalement à se couper physiquement de lui, à rompre le contact humain, pourtant primordial.

Par Sébastien Tribot, journaliste scientifique
 

Adobe passe à la vitesse supérieure avec le Creative Cloud

Adobe, le célèbre éditeur de logiciels de design et de photographie, de vidéo et de développement web propose désormais le service Creative Cloud. Une nouvelle annoncée le 6 mai dernier. Le temps où l’on devait se rendre au magasin pour acheter son logiciel semble révolu.

Le développement du cloud a visiblement inspiré Adobe pour mettre en place une nouvelle manière de consommer les logiciels. Leur politique de distribution évolue donc, mais pourrait se résumer ni plus ni moins à un système de location puisqu’il n’est plus question d’acheter un logiciel, mais de payer le droit de s’en servir.

Pour pouvoir exploiter le Creative Cloud, il faudra choisir entre les offres proposées par Adobe. Le prix des formules varie, que l’on soit un particulier ou une entreprise. En tant que particulier, il est possible de tester gratuitement la licence pendant une période d’un mois. Ensuite, la formule la moins chère est de 24,59 euros par mois.

Elle permet l’usage de certains logiciels en version complète. Enfin, pour bénéficier de tous les logiciels en version intégrale, il faudra compter sur un budget de 61,49 euros par mois. En tant qu’équipe, la différence principale tient dans la capacité de stockage plus importante ; 100 Go de stockage par utilisateur.

Le service est clairement dédié à la gestion administrative et Adobe met à disposition une équipe afin de répondre aux questions techniques. Chaque utilisateur de l’équipe devra débourser 86,09 euros mensuellement et rajouter 49,19 euros pour les mises à niveau. 

L’abonnement pallie un défaut majeur pour les actionnaires en lissant les bénéfices tout au long de l’année. Alors que les revenus provenaient jusqu’à maintenant de la vente de logiciels, il fallait attendre une nouvelle sortie pour engranger des bénéfices. Forcément, ils avaient tendance à se tasser avec le temps, et ce, jusqu’à ce qu’un autre logiciel arrive sur le marché et relance le chiffre d’affaires. L’abonnement présente de surcroît l’avantage de passer au travers de l’habituel filet d’intermédiaires.

En ce qui concerne les avantages des consommateurs, c’est une autre histoire. La rentabilité, tout du moins financière, dépend principalement du profil et de l’utilisation de chacun. Mais concrètement, les consommateurs profiteront des mises à jour quotidiennes des applications, de fonctionnalités exclusives ainsi qu’un espace de stockage.

Comme toujours avec le cloud, le stockage et le partage avec d’autres utilisateurs tiennent une place prépondérante. Et les éditeurs devront plus que jamais miser sur une innovation régulière de leurs logiciels pour maintenir l’intérêt.

Néanmoins, il subsiste une interrogation. Par ce nouveau service imposé par Adobe, sommes-nous prisonniers de ce mode de consommation ? Car sitôt l’abonnement terminé, plus question de disposer, de modifier ou d’imprimer ses documents. Une façon de rendre indispensable l’abonnement de sorte à le reconduire chaque mois. Rien ne nous garantit non plus que le tarif mensuel n’augmentera pas, une fois tenu par celui-ci.

Une page se tourne, l’avenir des éditeurs est en marche. Il y a fort à parier que d’autres éditeurs seront sûrement tentés de reproduire ce système, spécialement pour les applications mobiles.

Sébastien Tribot, journaliste scientifique