Calculer et réduire son empreinte carbone

Polluer moins, diminuer ses émissions de CO2, autant d’objectifs motivés par le grenelle de l’environnement, notamment pour les prestataires de transports.

En effet, ses derniers ont pour obligation de réaliser un bilan GES tous les trois ans, idem pour plusieurs centaines de collectivités.

Mais comment convertir une activité en kilogramme équivalent CO2 ? Pour y arriver, l’ADEME a créé une base de données recensant plus de 1300 facteurs d’émissions de CO2 (acheter une tonne de papier ou effectuer un trajet en bus par exemple), complété par un millier de données sources comme la consommation moyenne des logements ou le taux de recyclage de l’acier.

Cette base de données commune doit servir de référence à tous les acteurs de la comptabilité carbone (entreprises, collectivités, fédérations, bureaux d’études… et permettre deux objectifs. D’une part elle facilite la réalisation des bilans GES, d’autre part cette harmonisation des données permet de comparer les bilans. Pour utiliser cet outil, rendez-vous sur www.basecarbone.fr. Il suffit de s’inscrire pour accéder aux informations nécessaires à la réalisation d’un bilan GES.

Enfin, cet outil se veut participatif, et chacun peut y contribuer, sous le contrôle du comité de gouvernance de la Base Carbone® présidé par l’ADEME.

Par Audrey Loubens

Modéliser un circuit intégré en graphène, à l’aide d’un crayon ionique

Plus que jamais au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène, matériau « miracle » par excellence, est un cristal bidimensionnel de carbone composé d’une simple couche sans défaut, dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier, de type rayons de nid d’abeille.

L’empilement de ces couches constitue le graphite, existant dans la nature. Le graphène est un des matériaux les plus résistants testés jusqu’à présent, il possède de remarquables qualités de conductivité et d’imperméabilité à la plupart des gaz, ce qui pourrait rendre son utilisation à l’échelle nano très intéressante. Son seul vrai défaut, et pas des moindres : sa production reste encore très problématique, et est particulièrement onéreuse.

Ce sont les fantastiques propriétés électriques de ce cristal bidimensionnel qui ont amené les scientifiques de tous bords à imaginer le futur des circuits intégrés, futur dans lequel le graphène aurait donc une place de choix. Une équipe de chercheurs de l’université de Floride a donc décidé dans cette optique de s’attaquer à l’un des obstacles majeurs à l’utilisation de ces feuilles d’un atome d’épaisseur dans la conception des circuits intégrés, à savoir comment produire le graphène de manière parfaitement fiable et à grande échelle.

Carbure de silicium (SiC)

L’équipe de scientifiques américains aurait récemment développé une nouvelle technique prometteuse de création de modèles de graphène, dont la précision du tracé pourrait se prêter idéalement à la conception et au dessin complexe d’un circuit intégré, technique s’appuyant sur un minéral presque exclusivement artificiel, le carbure de silicium (SiC). La forme monocristalline du carbure de silicium peut être considérée comme un semi-conducteur, alors que sa forme polycristalline est rangée dans la catégorie des céramiques.

L’obtention du graphène à partir du SiC, que l’on appelle graphène « épitaxié », n’a en soi rien de bien nouveau. Il suffit de chauffer sous vide le carbure de silicium, à 1300 degrés, pour que les atomes de silicium composant les couches externes du SiC s’évaporent, ne laissant alors plus que les atomes de carbone, qui finissent par se réorganiser en fines couches de graphène pur.

Ions Or et « crayon ionique »

Idéale pour créer de grandes feuilles de graphène, cette décomposition thermique présente toutefois des limites lorsqu’il s’agit d’imprimer une forme, un circuit ou un dessin précis après évaporation. Le processus de gravure ou de découpe habituellement utilisé pour la mise en forme a pour inconvénient de réduire la mobilité des électrons dans le matériau, une de ses qualités les plus précieuses.

L’idée de génie de l’équipe américaine pour limiter la croissance du graphène, et ainsi le cantonner dans les limites d’un tracé précis d’une épaisseur d’à peine une vingtaine de nanomètres, fut d’ajouter des ions Or au carbure de silicium, à l’aide d’un « crayon ionique ». Les ions Or ont la particularité de baisser d’une centaine de degrés la température à laquelle le graphène se forme, l’amenant à se former autour de 1200 degrés Celsius au lieu des 1300 degrés requis. Les ions Or laissent donc la possibilité à une fine couche de graphène de se former partout où elle est désirée, une fois le carbure de silicium porté à 1200 degrés (à cette température, le carbure de silicium pur ne forme pas de graphène), respectant ainsi le tracé exact voulu pour le circuit intégré, tracé esquissé par le crayon ionique.

Croissance sélective à plus faible température

L’utilisation de cette technique par l’équipe de l’université de Floride a permis à de créer, avec succès, des nanofils de graphène, et ce à plusieurs reprises. En affinant encore cette technique, les scientifiques espèrent pouvoir faciliter la formation et la croissance sélective du matériau miracle, mais à des températures encore moins élevées. Ces travaux ont fait l’objet d’une publication dans le journal de l’Institut Américain de Physique, « Applied Physics Letters ».

Par Moonzur Rahman

L’actualité du Graphène :

Equip’Usine, un salon pour doper le fonctionnement d’une usine

Les 18 et 19 septembre prochain se tiendra au parc des expositions EUREXPO de Chassieu (69) le salon Equip’Usine. Ce salon réunit en un seul lieu les fournisseurs de tous les secteurs d’activité utiles aux besoins quotidiens d’une usine.

On y retrouvera ainsi tous les équipements permettant de faire tourner de manière optimale l’usine, mais aussi les fournitures nécessaires à son fonctionnement quotidien, son informatique industrielle, sa logistique, sa maintenance, ainsi que tout ce qui a trait à la protection des salariés.

Equip’Usine cible l’ensemble des acteurs de l’industrie ayant un rôle décisif dans l’équipement industriel et le négoce. Il s’adresse donc aux décisionnaires et prescripteurs en achats d’équipements et de consommables pour les usines et sites industriels en recherche de solutions concrètes et immédiates, pour des investissements à court terme. Pour sa première édition, ce salon devrait rassembler environ 200 exposants.

Toutes les informations sur http://www.equipusine.com/

Par Audrey Loubens

Gaz non conventionnels

La production de gaz aux États-Unis est en croissance continue depuis 2005 alors qu’il était admis depuis une dizaine d’années que les ressources domestiques s’épuisaient. Cela a été possible par l’accès massif à des ressources dites non conventionnelles, principalement celles des gaz de schistes, à des coûts réduits par l’emploi de nouvelles technologies et de gros efforts de productivité. La recherche et l’exploitation de gaz non conventionnel sont en cours de développement dans de nombreux autres pays. Dans ce dossier, on propose une revue rapide des différents types de gaz non conventionnels : leur origine et leurs caractéristiques, leurs modes de production et les aspects environnementaux de cette production. Une synthèse des estimations actuelles de ressources de gaz non conventionnels techniquement récupérables est également proposée.

Lire la suite

Approche de la sûreté des réacteurs nucléaires de génération III en France

La nécessité d’une amélioration du niveau de sûreté des futurs réacteurs par rapport à celui des réacteurs existants a été progressivement actée au cours des vingt dernières années, au moins au niveau national et dans le cadre européen, avec la définition d’objectifs volontairement ambitieux concernant notamment la réduction de la probabilité de fusion du cœur et la réduction des rejets dans l’environnement. Cet article présente les objectifs et l’approche de sûreté retenus pour les réacteurs nucléaires de génération III en France. Si les grands objectifs de sûreté pour ces réacteurs font aujourd’hui l’objet d’un large consensus, leur déclinaison en termes de choix techniques de conception et d’exploitation diffère fortement en fonction des projets des constructeurs. La démonstration de la capacité de ces projets à répondre à ces grands objectifs de sûreté fait également débat. En effet, les exigences et les approches de sûreté diffèrent selon les pays en fonction de la règlementation et des pratiques historiques notamment. Sans remettre en cause le principe de souveraineté nationale, une harmonisation des pratiques en matière de sûreté nucléaire est recherchée.

Lire la suite

Électricité photovoltaïque – Filières et marché

Avant la fin de la première moitié de ce siècle, la conversion directe de la lumière du soleil en électricité grâce au photovoltaïque (PV) devrait franchir le seuil qui le rendra compétitif par rapport aux autres sources de production d’électricité.

Dans le dossier Électricité photovoltaïque- Principes, les principes de la conversion photovoltaïque ont été donnés. Ils incluent des notions relatives à l’énergie transmise par le soleil, des éléments de physique des semi-conducteurs, les mécanismes de conduction de charges électriques, les caractéristiques électriques fondamentales du dispositif photovoltaïque et son usage en tant que générateur de courant. En conclusion, une application pratique donne une évaluation rapide du dimensionnement d’une installation photovoltaïque.

Dans les pages suivantes, on s’intéresse aux différentes filières d’élaboration du dispositif photovoltaïque. En effet, il reste des verrous technologiques à lever relatifs à la fabrication des cellules solaires, qui sont trop gourmandes en énergie et qui ont des répercussions sur l’environnement : si la cellule photovoltaïque produit de l’électricité sans aucun rejet dans l’atmosphère, beaucoup de procédés actuels de fabrication sont proches de ceux de la microélectronique et mettent en jeu trop d’opérations qui nécessitent l’usage de produits chimiques et de gaz extrêmement toxiques. La dernière partie est consacrée à des exemples d’applications du photovoltaïque en sites isolés ou connectés à des réseaux, ainsi qu’à l’évolution du marché et des prix du kilowattheure photovoltaïque à l’horizon 2040.

Lire la suite

Feu à éclat ATEX

Le feu à éclats XB15 est conforme aux directives ATEX pour zones 1, 2, 21 et 22.
Il répond aux exigences pour les atmosphères explosibles et convient aux applications de signalisation lumineuse industrielle, de sécurité pour l’incendie, l’extinction, installation de Public Adress / General Alarm, PPI-POI, sonorisation et tout autre besoin de sécurité.
Son mode de protection est l’antidéflagrant (EExd), un des plus reconnus pour les zones ATEX.
Fabriquée en GRP (polyester renforcé de fibre de verre), le feu à éclats XB15 dispose d’une très grande résistance mécanique, aux produits chimiques et d’une très faible corrosion.
D’une puissance lumineuse de 15 Joules, il répond à vos besoins de signalisation lumineuse industrielle de sécurité en installation à l’intérieur, extérieur des bâtiments / unités.

Les 5 principales erreurs à ne pas commettre lorsqu’on adopte le Cloud

Pourtant, alors que chaque organisation veut une partie du cloud, toutes n’obtiendront pas les résultats qu’elles désirent. Voici les cinq principales erreurs à éviter :

1.       Ne pas opter pour le bon modèle de cloud

Les entreprises migrant vers le cloud peuvent choisir parmi les clouds publics, clouds privés, clouds communautaires ou clouds hybrides.

  1. Le cloud public : Il appartient à un fournisseur cloud et est accessible à un large public. Le principe est de payer à l’utilisation et la plateforme est partagée avec d’autres utilisateurs.
  2. Le cloud privé : Il appartient et est déployé par une organisation pour sa propre utilisation puisqu’elle en est la seule et unique propriétaire.
  3. Le cloud communautaire : Il est partagé en coopération par plusieurs organisations, souvent de la même industrie.
  4. Le cloud hybride : Il mixe les modèles de déploiement cloud énumérés ci-dessus, permettant aux applications et données de passer facilement d’un cloud à l’autre.

Chaque type de déploiement en matière de cloud a ses avantages. Les facteurs à considérer avant l’adoption sont : le niveau de criticité des applications que l’entreprise veut basculer dans le cloud ; les questions de réglementation et de conformité ; les niveaux de services (SLA) nécessaires ; les modes d’utilisation selon les charges de travail ; et la manière dont les applications doivent être intégrées aux autres fonctions de l’entreprise.

2.       Ne pas intégrer la sécurité cloud dans sa politique de sécurité d’entreprise

Vos politiques de sécurité cloud et sécurité d’entreprise doivent être intégrées. Au lieu decréer une nouvelle politique de sécurité pour le cloud, renforcez plutôt vos politiques de sécurité existantes en considérant cette plateforme supplémentaire. Pour modifier vos politiques cloud, vous devez tenir compte des facteurs suivants: où sont stockées les données, comment elles sont protégées, qui en a accès, mais aussi la conformité avec les règlementations, et les niveaux de services SLA.

Lorsqu’elle est correctement effectuée, l’adoption du cloud computing peut être une occasion d’améliorer vos politiques de sécurité et votre position globale de sécurité.

3.       Compter sur la sécurité de son fournisseur de services cloud

Ne pensez pas que vos données soient automatiquement sécurisées parce que vous utilisez un fournisseur de services. Vous devez faire un examen complet de la technologie et des processus de sécurité du fournisseur, et vérifiez la manière dont ils sécurisent vos données et leurs infrastructures. Plus précisément, vous devriez examiner :

  • La transportabilité des données et applications : votre fournisseur vous permet-il d’exporter  les applications, données et processus existants dans le cloud ? Pouvez-vous  les importer de nouveau aussi facilement ?
  • La sécurité physique des centres de données : Comment les fournisseurs de services protègent leurs centres de données physiques ? Utilisent-ils des centres de données certifiés aux normes SAS 70 Type II? Comment  leurs opérateurs de centres de données sont-ils formés et qualifiés ?
  • La sécurité des accès et des opérations : Comment votre fournisseur contrôle l’accès aux machines physiques? Qui est en mesure d’accéder à ces machines, et comment sont-elles gérées ?
  • La sécurité du centre de données virtuel : L’architecture cloud est la clé de l’efficacité. Sachez comment les parties individuelles telles que les nœuds de traitement, nœuds du réseau et nœuds de stockage sont architecturés, et comment elles sont intégrées et sécurisées.
  • La sécurité des données et des applications : Pour mettre vos politiques en application,  la solution cloud doit vous permettre de définir des groupes et rôles avec un contrôle d’accès basé sur le rôle précis, des règles de mots de passe et une encryption des données appropriées (en transit et à l’arrêt).

4.       Supposer que vous n’êtes plus responsable de la sécurisation des données

Ne pensez jamais que l’externalisation de vos applications ou systèmes signifie que vous n’êtes plus responsable en cas de violation de données. Certaines PME ont cette fausse idée mais sachez que votre entreprise est toujours au bout du compte responsable  vis à vis de ses clients et de tout autre partie prenante lorsqu’il s’agit d’inviolabilité des données. Autrement dit, c’est votre CEO qui risque d’aller en prison, et non le fournisseur cloud.

5.       Ne pas savoir quelles lois locales s’appliquent

Les données qui sont en sécurité dans un pays peuvent ne pas l’être dans un autre. Cependant, dans de nombreux cas, les utilisateurs des services cloud ne savent pas où sont stockées leurs informations. Actuellement dans le processus d’harmonisation des lois sur les données de ses états membres, l’Union Européenne favorise la protection très stricte de la vie privée, tandis que les lois américaines, telles que l’US Patriot Act, permettent au gouvernement et autres organismes d’avoir un accès quasi illimité aux informations appartenant aux entreprises.

Sachez toujours où sont vos données. Si nécessaire, stockez vos données dans plusieurs endroits. Il est conseillé de choisir une juridiction qui vous permet d’accéder à vos données même si votre contrat avec votre fournisseur cloud se termine de manière inattendue. Le fournisseur de services devrait également vous donner l’option de choisir l’endroit où vos données seront stockées.

Par Christophe Auberger, Responsable Technique chez Fortinet

L’invisibilité, bientôt à la portée du monde scientifique ?

L’étude la plus récente et la plus significative dans ce domaine a récemment été publiée par la prestigieuse revue scientifique Science [1] et a été menée en collaboration par des chercheurs espagnols (responsables de la partie théorique) et slovaques (responsables de la partie expérimentale). L’équipe de scientifique a en effet réussi à rendre un cylindre « invisible » pour un champ magnétique donné. Le matériel disposé à l’intérieur de ce cylindre était donc indétectable dans les limites imposées par l’expérience.

Ce n’est pas la première fois que des scientifiques arrivent à rendre un objet indétectable, cependant les résultats atteints jusqu’ici étaient incomplets, exacts d’un point de vue théorique mais imparfaits dans leur réalisation. Alvaro Sánchez, chercheur du groupe Electromagnétisme du département de Physique de l’Université Autonome de Barcelone (UAB) explique en détail le principe de l’expérience réalisée à l’Institut d’Ingénierie Electrique de l’Académie des Sciences de Slovaquie.

L’instrument expérimental est un cylindre constitué de deux couches concentriques. Lorsque ce cylindre est placé dans un champ magnétique, il ne perturbe pas les lignes du champ, ne crée pas d’ombre ni de réflexion, ce qui rendrait un objet situé à l’intérieur de ce cylindre indétectable. Le champ magnétique utilisé est un champ magnétique statique comme celui que peut créer un aimant. Le cylindre ne procure ainsi la soi-disant invisibilité que pour un champ magnétique donné.

Les deux couches utilisées – l’une supraconductrice, l’autre ferromagnétique permettent de compenser réciproquement les distorsions que chacune produit sur le champ magnétique extérieur. L’effet global est un champ magnétique complètement nul à l’intérieur du cylindre et aucune distorsion du champ magnétique à l’extérieur.

Le cylindre utilisé dans l’expérience mesure un centimètre mais le chercheur assure que le résultat ne dépend pas de la taille et qu’il est théoriquement possible de reproduire cette expérience à l’échelle du mètre. Cette « cape d’invisibilité magnétique » relativement facile à fabriquer pourrait se développer pour différentes applications comme par exemple servir de bouclier magnétique à un stimulateur cardiaque ou des implants auditifs lorsqu’une personne doit se soumettre à des examens de résonance magnétique.

Il reste encore un grand pas à franchir avant de construire une cape d’invisibilité à la Harry Potter. Ce cylindre ne fonctionne que pour un champ magnétique bien particulier. Or, l’invisibilité, telle qu’elle s’entend, doit s’effectuer sur une multitude de champs électromagnétiques, de fréquences variables, simultanément. De quoi ajouter de très nombreuses composantes au problème ! Il faudrait trouver des matériaux permettant de généraliser les effets mis en avant dans l’expérience présentée ici. S’il existe des possibilités théoriques pour concevoir un tel matériau, sa réalisation pratique semble pour le moment toujours largement hors de portée.

[1] Experimental Realization of a Magnetic Cloak, Fedor Gömöry, Mykola Solovyov, Carles Navau, Jordi Prat-Camps, Alvaro Sanchez, Science 23 March 2012, Vol. 335 no. 6075 pp. 1466-1468 , DOI: 10.1126/science.1218316 – http://redirectix.bulletins-electroniques.com/OYhxz

(Source : http://www.bulletins-electroniques.com/actualites/69799.htm)

Les microfissures accélèrent la fracture

Une étude parue dans la revue PNAS contredit la croyance selon laquelle les microfissures générées quand un matériau fragile rompt ralentissent la fracture.

En effet, les efforts conjoints de chercheurs du CEA-IRAMIS et des laboratoires SVI (CNRS/Saint-Gobain) et LTDS (CNRS/Ecole Centrale de Lyon/Ecole Nationale d’Ingénieurs de Saint-Etienne) ont permis de mesurer la vitesse de propagation des microfissures générées par une rupture rapide dans du plexiglas®. Alors que la théorie prévoit une vitesse de Rayleigh d’environ 900m/s, les fronts de fissure se déplacent à seulement 200m/s, soit quatre fois moins que prévu. De plus, toutes les microfissures évoluent à la même vitesse, indépendamment de la force appliquée pour ouvrir la fissure.

Pour obtenir ce résultat, ces scientifiques ont imposé une force dans du plexiglas® de façon à rompre ces échantillons. Ils ont ensuite analysé par microscopie optique la surface de rupture et plus particulièrement les empreintes laissées par les microfissures.  À partir de la géométrie du réseau d’empreintes, un nouvel algorithme développé et utilisé spécifiquement pour cette étude a permis de déterminer le point origine de chacune des microfissures, la chronologie de leurs naissances, et enfin la vitesse à laquelle chacune s’est développée. L’enjeu étant de déterminer à quelle vitesse va grandir la fissure pour un jeu de contrainte donné. 

« Nous savions déjà que le formalisme existant était faux. En effet, plusieurs études ont déjà mis à mal sa prédiction en mesurant que la fissure macroscopique, c’est-à-dire celle visible à l’œil nu, n’évoluait qu’à 500 m/s, soit près de deux fois moins vite que prévu » rappelle Daniel Bonamy, ingénieur chercheur au CEA Saclay.

« Cette fois, nous allons plus loin en observant que la vitesse d’un front isolé d’une fissure va quatre fois moins vite que ce que prévoit la théorie. »  s’enthousiasme-t-il. Ainsi, alors que la communauté scientifique croyait que les microfissures ralentissaient la fissure par dissipation d’énergie, il apparait que ces dernières l’accélèrent, soit tout le contraire ! « Nous pensons qu’en fait, la vitesse de fissuration apparente est liée à la coalescence des microfissures avec la fissure principale. »  explique Daniel Bonamy. 

Par Audrey LOUBENS

Sirène Electronique ATEX

La sirène électronique DB3 est conforme aux directives ATEX pour zones 1, 2, 21 et 22. 

Elle répond aux exigences pour les atmosphères explosibles et convient aux applications de signalisation sonore industrielle et de sécurité pour l’incendie, l’extinction et tout autre besoin de sécurité. 

Son mode de protection est l’antidéflagrant (EExd), un des plus reconnus pour les zones ATEX. 

Fabriquée en GRP (Polyester renforcé de fibre de verre), la sirène électronique DB3 dispose d’une très grande résistance mécanique, aux produits chimiques et très faible corrosion. 

D’une puissance sonore de 115 dB à 1 mètre, elle répond à vos besoins de signalisation sonore industrielle de sécurité.

En savoir plus : 

http://www.adf-systemes.fr/pages/ficheproduit.php?numArticle=1&fam=&nomfam=&col=

Bris de Glace et Bouton-Poussoir ATEX

Certification ATEX

  • BG2E : Ex II 2 GD – EExed IIC T6 ou EExedm IIC T4 avec résistances ou diodes 
  • BG2I : Ex II 1 GD – EExia IIC T4

Options

Capot de protection en polycarbonate (double action). 

Résistances ou diodes (2 max.). Valeur minimale résistance série = 100? et résistance fin de ligne = 250?. 

Membrane déformable (au lieu de la glace standard). 

Version étanche non ATEX (IP 66 & 67) : BG2W. 

Barrière SI pour BG2I. 

Informations

Clé de test fournie pour chaque bris de glace. 

Marquages européens standards : marquage frontal «F + flamme», marquage glace « –> • <--". 

Version EExed : les résistances / diodes sont moulées (encapsulage) et raccordées en usine (EExedm). 

Version EExia : alimentation via une barrière de SI adaptée.

En savoir plus :

http://www.adf-systemes.fr/pages/ficheproduit.php?numArticle=85&fam=8&nomfam=8&col=22

Dentro LRX, nouveau dispositif de contrôle non destructif

Une nouvelle vision du contrôle qualité dans l’usine

Dentro LRX utilise la technologie des micro-ondes pour révéler les paramètres physiques – composition chimique, tels que la densité, la teneur en humidité – ou les défauts – inclusions, poches d’humidité, nœuds dans le bois, décollement de fleur du cuir – des matériaux.

Dispositif sans contact, cette caméra linéaire permet une analyse à la fois externe et interne des produits, à un haut niveau de résolution.

Dentro LRX permet notamment de réaliser, sur une chaîne de production en continu, des contrôles qualité permanents en détectant immédiatement les défauts sur toutes sortes de matériaux, non-métalliques.

L’imagerie micro-onde, associée à un traitement informatique des données, permet ces contrôles en temps réel. Cette technologie d’une totale innocuité pour l’environnement, évacue toute prise de risque sur la santé des opérateurs, contrairement aux scanners à base de rayon X ou gamma.

La nouvelle version endurcie Dentro LRX a été étudiée pour résister à l’eau, à la poussière, aux vibrations et aux fortes variabilités de température : elle est donc adaptée à un grand nombre d’environnements industriels.

« Après des premières ventes dans le domaine de la fabrication de la laine de roche, nous abordons en direct, ou via des partenaires de distribution spécialistes du contrôle non destructif, d’autres marchés : l’industrie papetière, les matériaux composites, les matériaux de construction, le bois, le cuir et peut-être, le contrôle de denrées alimentaires dans les IAA», déclare Philippe Garreau, PDG de Microwave Vision.

 

Publié par Carole Hamon

Les vraies leçons de management de Steve Jobs

Dans son article, Walter Isaacson revient sur la manière dont Steve Jobs a géré ses affaires. Pour lui, sa réussite ne tient pas seulement à sa personnalité mais à quelques principes de base que Steve Jobs a développés et appliqués tout au long de sa carrière d’innovateur et de manager. Je vous livre une synthèse des 14 principes énoncés par Walter Isaacson.

  • FOCALISATION SUR L’ESSENTIEL

Quand Steve Jobs est retourné chez Apple en 1997, la société produisait une multitude d’ordinateurs et de périphériques. Steve Jobs a simplifié les catalogues en deux gammes de produits, portable et ordinateur de bureau, pour deux types d’utilisateurs, grand public et professionnels.  Pour Steve Jobs « décider de ce qu’il ne faut pas faire est aussi important que décider de ce qu’il faut faire ». Chaque année, Steve Jobs réunissait les cent personnes les plus importantes d’Apple et demandait quelles seraient les dix choses à faire prochainement. Une fois les dix sélectionnées, Steve demandait de n’en garder que trois.

  • SIMPLIFICATION

Pour Steve Jobs, les produits devaient être simples à utiliser et simples à comprendre. Steve Jobs a appris à aimer la simplicité quand il a travaillé sur le premier jeu d’ATARI, deux instructions suffisaient alors pour apprendre à utiliser le jeu. Néanmoins, la simplicité ne s’acquière qu’à l’issue d’un énorme travail de conception. Durant la conception de l’interface de l’iPod, Steve Jobs essayait de couper des fonctionnalités à chaque réunion. Pour lui, tout devait être accessible en trois clics. Quand il a suggéré de supprimer le bouton on/off, tout le monde a d’abord été choqué, pour finalement se rendre à l’évidence de l’inutilité de ce bouton. En élaborant un écosystème technique, Steve Jobs a pu reléguer les fonctions les plus complexes sur itunes avec l’ordinateur pour simplifier l’iPod.

  • PRENDRE EN CHARGE TOUTE L’EXPÉRIENCE UTILISATEUR

Pour Steve Jobs, le producteur doit prendre toute la responsabilité de l’expérience utilisateur. De la vente de ses produits en passant par le matériel, les logiciels et les périphériques, toutes ces composantes doivent être soigneusement liées ensemble pour procurer une expérience utilisateur optimale. « Les gens n’ont pas le temps, ils ont autre chose à faire que de penser comment intégrer leurs appareils ensemble », disait Steve Jobs. Cette prise en charge de l’expérience utilisateur était liée à sa personnalité très autoritaire mais aussi à sa passion pour la perfection et les produits élégants.

  • ÊTRE EN AVANCE DE PHASE

Il ne s’agit pas seulement pour une entreprise de développer les nouvelles idées mais aussi de sauter à la prochaine quand celles-ci sont dépassées. Lors de la conception de l’iMac, Steve Jobs a développé les logiciels utiles pour gérer la vidéo et la photographie en négligeant la musique, allant même jusqu’à omettre la fonction gravure de CD. Il ne s’est pas contenté de rattraper son retard à la version suivante mais il a inventé une nouvelle façon de gérer la musique avec l’association de itunes et du ipod. Par la suite, il a été beaucoup plus loin dans la téléphonie, n’associant pas seulement l’ipod et le téléphone, mais créant un véritable compagnon numérique avec les Apps.

  • METTRE LE PRODUIT AVANT LES PROFITS

Seve Jobs ne recherchait pas dans un premier temps le profit. La recherche de l’optimisation financière à tout prix tue l’innovation. Lors de la conception du Macintosh, il écrivait sur le tableau blanc « pas de compromis ».  Cela a abouti a une machine très coûteuse, difficilement vendable, mais elle a marqué son époque et a positionné clairement Apple dans la révolution de la micro-informatique. Pour Steve Jobs, quand le marketing et les ventes prennent le pouvoir dans une entreprise, les profits sont condamnés à long terme. La priorité est de faire des bons produits innovants et les profits suivent.

  • NE PAS ÊTRE ESCLAVE DE SON CLIENT

Pour Steve Jobs, « le consommateur ne sait pas ce qu’il veut tant qu’il n’a pas vu le produit ». Les études de marché et les focus groupes sont inutiles. Il préfère aux études l’observation et l’intuition de ce que les clients veulent. Steve Jobs se considère comme un focus groupe à lui tout seul : il a fait les produits qu’il voulait et que ses amis voulaient. Dans les années 2000, Steve Jobs sentait bien que les appareils de musique portable étaient en décalage avec les vrais besoins des clients. Il voulait pour lui un appareil simple qui pouvait contenir des milliers de musique dan la poche. Il l’a fait et on connaît le succès de l’iPod.

  • TORDRE LA RÉALITÉ

Steve Jobs avait le don (ou la malédiction) de mettre les gens dans des situations impossibles. Phénomène que ses collègues ont appelé « champ de distorsion de réalité », en référence à un épisode de Star Trek. Et ça marche. Quand Steve Jobs a embarqué Steve Wozniak dans l’aventure de la création du jeu Breakout, Wozniak demandait un mois de délai. Sous la pression de Jobs, il l’a développé en 4 jours. Steve Jobs pensait que les règles ordinaires de la vie ne pouvaient s’appliquer à lui-même et ses équipes. Il poussait ses collaborateurs à faire l’impossible car ils ne réalisaient pas que c’était impossible. En cas de contestation, il trouvait les arguments. Lors de la conception du Macintosh, il a poussé Larry Kenyon a faire démarrer le système d’exploitation en moins de 30 secondes au prétexte que pour l’ensemble des utilisateurs, cela ferait économiser un siècle de vie d’attente chaque année.

  • IMPUTER UNE SENSATION GLOBALE

Le troisième principe de la doctrine Steve Jobs après Focus et Empathy, était Impute. Pour lui, la première impression d’un produit est essentielle, d’où l’importance d’investir dans le design, le packaging et la présentation sur le point de vente. Tout doit contribuer à donner l’impression que la machine est accessible, « friendly », le design de la machine, le design du système et le packaging qui est aussi une expérience tactile.

  • POUSSER A LA PERFECTION

La recherche de la perfection doit conduire la conception de tout produit. Steve Jobs était capable de mettre en pause la conception et le lancement d’un produit s’il sentait que ce n’était pas parfait. Il a fait refaire tout le design de l’iphone, mettant à la poubelle des mois d’effort, car les premières versions intégraient un bord en aluminium autour de l’écran, trop masculin selon Steve Jobs. De même, il a été jusqu’à faire redessiner la carte mère du Macintosh pour qu’elle soit belle alors que la machine ne pouvait pas être ouverte. Cela semble excessif pour la majorité des personnes, mais la perfection se voit, se ressent, et finalement, cela a contribué aux succès des produits d’Apple. Steve Jobs agissait comme un artiste, ses produits étaient ses créations.

Lire la suite ici

(Source : Isaacson Walter, The real leadership lessons of Steve Jobs, Harvard Business Review n°90 (4), Avril 2012)

 

Par Guy Parmentier, TheInnovation.eu

 

Guy Parmentier

Chercheur en management de l’innovation, Guy Parmentier effectue des recherches sur la gestion de l’innovation avec les communautés d’utilisateurs et l’entreprise face aux mondes virtuels.

Passionné d’innovation, avant de passer à la recherche et au conseil à l’innovation, il a géré successivement des projets éditoriaux dans l’édition de beaux-livres, la production de jeu vidéo et une start-up sur la conception et la gestion des personnages virtuels.

Aujourd’hui, il apporte ces multiples compétences au service de la recherche sur le terrain, de l’enseignement et de l’accompagnement de projets d’innovation.

Ce blog lui permet aussi de contribuer au Web 2.0 en publiant réflexions et analyses sur le management de l’innovation.

 

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

 

 

 

Lithographie par laser appliquée à des structures 3D

Le DiLL. C’est le nom choisit par le nouveau procédé de prototypage mis au point par la société allemande Nanoscribe GmbH, plus précisément le Dip-in Laserlithografie. Protégé par un brevet, ce dispositif de lithographie fonctionnant par écriture laser directe permet de fabriquer des structures complexes en trois dimensions, avec une précision atteignant l’ordre du nanomètre.

Classiquement, lorsque l’intensité du laser dépasse un certain seuil, un processus d’absorption à deux photons prend place, déclenchant une réaction de photopolymérisation dans le volume focal du faisceau. Mais Nanoscribe repousse encore les limites de la photolithographie avec son nouveau système qui ouvre de nouvelles perspectives dans le domaine des réalisations 3D à l’échelle nanométrique : désormais il devient possible de créer des structures de grande hauteur.

En effet,  maintenant la lentille baigne dans un liquide photorésistant qui sert aussi de matériau photosensible. De nouvelles géométries deviennent enfin accessibles, via un simple pilotage par ordinateur. Cette nouvelle prouesse technique trouve des applications  en photonique, microfluidique ou encore en biologie cellulaire.

A découvrir en image (en anglais) :

Par Audrey Loubens

Transistors flexibles à base de graphène

Pour la première fois, des scientifiques du CEA, du CNRS de l’université de Lille1 et de celle de Northwestern ont fabriqué des transistors flexibles sur des substrats de polyimide  en utilisant du graphène solubilisé. La voie de synthèse utilisée permet de ne sélectionner que des feuillets monocouches plutôt qu’un mélange de graphène monocouches et multicouches, assurant ainsi les meilleures propriétés électroniques.

Ces travaux ont fait l’objet d’une publication dans la revue Nano Letters en mars 2012.  On y découvre que le procédé mis au point utilise la technique de diélectrophorèse (DEP), qui permet de maîtriser la direction du dépôt du graphène afin d’obtenir localement une forte densité de feuillets déposés, et donc de très bonnes performances à haute fréquence, avec notamment une mobilité des charges dans les transistors fabriqués d’environ 100cm²/V.s, et la possibilité d’atteindre des très hautes fréquences jusqu’ici inatteignable avec des semi-conducteurs organiques classiques, jusqu’à 8 GHz.

Ces travaux mettent en lumière l’intérêt d’utiliser du graphène sous sa forme solubilisée, et ouvrent la voie à une nouvelle génération de transistors flexibles pour des applications comme les écrans souples, l’électronique intégré dans les textiles ou encore les étiquette RFID.

Par Audrey Loubens

La biomasse pourrait menacer les objectifs de réduction de CO2 de l’UE

Le 29 mars dernier, le Parlement européen a demandé que les règles de calcul des émissions de carbone soient révisées en ce qui concerne les émissions générées par la biomasse. Dans les cercles européens, le sujet est d’importance.

« Nous payons les gens pour qu’ils abattent leurs forêts au nom de la réduction des émissions de gaz à effet de serre et nous continuons d’émettre plus de carbone. Personne ne daigne pourtant analyser la situation », a expliqué à EurActiv une personne proche du dossier.

Environ la moitié de l’objectif européen de 20 % d’énergies renouvelables dans le bouquet énergétique d’ici 2020 dépendra de la biomasse issue de sources telles que le bois, les déchets et les cultures et résidus agricoles, selon les plans d’action nationaux des Etats de l’UE.

Le bois représente une bonne part de cet objectif et est considéré par l’UE comme « neutre en carbone», ce qui entraîne l’octroi de subventions, de tarifs de rachat et de primes au niveau national.

Toutefois, en raison du décalage entre la dette carbone causée par la coupe d’un arbre qui est ensuite transporté et brûlé, et le temps qu’il faut pour qu’un nouvel arbre soit suffisamment développé pour absorber autant de carbone que celui d’avant, la biomasse accroît les concentrations de CO2 dans l’atmosphère.

Neutralité carbone

« Il est faux de prétendre que la bioénergie est neutre en carbone par définition, tout dépend de ce qu’on utilise pour la remplacer », a expliqué à EurActiv Bruxelles le professeur Delfet Sprinz, directeur du Comité scientifique indépendant qui conseille l’Agence européenne pour l’environnement (AEE).

« Si vous remplacez une forêt en pleine croissance par des cultures énergétiques conformément aux règles de calcul actuellement en vigueur dans l’UE, il est possible que vous accroissiez les émissions de gaz à effet de serre. »

En septembre dernier, le Comité scientifique de l’AEE a affirmé dans un avis qu’une législation qui encourageait le remplacement des carburants fossiles par des bioénergies, sans prendre en compte la source de la biomasse, pourrait résulter en une augmentation des émissions de carbone, accélérant ainsi le réchauffement climatique.

Le Groupe intergouvernemental sur l’évolution du climat (GIEC) affirme lui aussi que la biomasse ne peut être considérée comme neutre en carbone que si tous les impacts sur l’utilisation des terres ont été pris en compte.

L’UE est consciente de ce problème. Une proposition visant à établir des critères contraignants pour la biomasse dans la production énergétique est attendue pour cette année. Mais elle pourrait être à nouveau reportée.

Les pays scandinaves riches en forêts s’opposent à ces nouveaux critères, la Finlande et la Suède produisant 20 % et 16 % respectivement de leur énergie à partir de la biomasse. L’industrie, quant à elle, serait surtout en faveur de critères qui ne prendraient pas en compte les émissions de la combustion et les pertes de carbone résultant de la combustion du bois.

Les Etats-Unis ont une longueur d’avance sur l’Europe en matière de critères de durabilité. L’Environmental Protection Agency américaine a déjà mené une consultation publique sur la manière de calculer les émissions issues de la combustion de la biomasse et a soumis une proposition législative.

L’UE au désespoir

Plusieurs fonctionnaires européens ont fait part de leur préoccupations à EurActiv Bruxelles sur le manque d’enthousiasme pour la mise en place de règles de calcul plus strictes par la DG Energie responsable de la biomasse.

« Je ne pense pas qu’ils aient l’intention de prendre en compte les émissions de carbone issues de la combustion du bois. Ils ne sont pas convaincus qu’il s’agit d’un problème suffisamment important », a expliqué l’un d’entre eux.

Le modèle de production et d’utilisation de la biomasse empêcherait-il une réduction de 20 % des émissions de carbone d’ici 2020? « C’est sûr à 100 %, car il est peu probable que la biomasse [tirée du bois] n’accroisse pas les émissions. La seule question est de savoir pour combien de temps », a indiqué cette même source à EurActiv Bruxelles.

Aucune données fiables n’existent sur la durée pendant laquelle l’Europe souffrira du « déficit carbone » causé par l’utilisation de la biomasse pour l’énergie, et surtout par la coupe de bois.

Mais « le risque de générer des émissions pendant trop longtemps est très élevé selon moi », a affirmé ce fonctionnaire. « Il existe un risque significatif que nous voyions les émissions croître pour des décennies. »

Déficit carbone

Tout le monde s’accorde sur le fait que si le déficit carbone s’étend au-delà de 30-50 ans, la stratégie de décarbonisation de l’Europe d’ici 2050 se révèlera inutile.

Le mois dernier, le Southern Environmental Law Center américain qui a utilisé de la biomasse ligneuse pour définir un modèle d’expansion des capacités de production a révélé dans un rapport qu’il faudrait 35 à 50 ans pour que cette technique réduise réellement les émissions de carbone.

La biomasse issue des déchets compostés ou des résidus agricoles est un moyen très efficace pour réduire les émissions de carbone, mais ses détracteurs affirment que dans la plupart des cas, l’UE ne dispose que d’une définition vague et mal conçue de ces résidus.

Elle ne prend par exemple pas en compte l’impact que l’enlèvement des résidus agricoles comme la paille peut avoir sur la réduction du stock de carbone des sols pouvant entraîner un recours accru aux engrais et à l’irrigation, ainsi que des rendements plus faibles.

Un arbre coupé produit immédiatement du bois avec une empreinte carbone plus élevée que le charbon, car brûler un arbre vieux de 100 ans entraînera la libération dans l’atmosphère de tout le carbone qu’il a absorbé et il faudra 100 ans avant qu’un autre arbre puisse absorber la même quantité de carbone.

Les règles de calcul actuelles de l’UE n’opèrent pas de distinction entre les résidus ou le bois utilisé de cette manière et les biomasses plus durables, leur accordant à tous la caquette de « neutres en carbone », sans prendre en compte le temps nécessaire pour la récupération des avantages perdus.

« Ces calculs n’ont tout simplement pas été effectués », estime une source européenne. « Personne n’a examiné ce problème avec suffisamment de sérieux. » EurActiv.com – Rédaction de Bruxelles traduit de l’anglais

Source : Euractiv.fr
 

Comment améliorer la sécurité des systèmes embarqués en cinq étapes ?

Pendant longtemps, les systèmes embarqués ont fonctionné dans une relative autarcie et, de ce fait, ils ont été protégés contre la plupart des menaces de sécurité. Mais ces mêmes équipements sont aujourd’hui reliés à des réseaux d’entreprises, à des clouds publics, voire même à Internet. Cette connectivité généralisée conduit à des gains substantiels en termes de fonctionnalités et d’ergonomie, mais elle rend les systèmes embarqués plus vulnérables aux attaques, aux intrusions et autres piratages.

A l’heure du « tout-connecté », la sécurité qui fût loin d’être le souci principal des concepteurs par le passé se hisse au rang des caractéristiques fondamentales des équipements. Dès lors, les mécanismes de sécurité, ou plus exactement de cyber-sécurité, doivent protéger les systèmes embarqués de toute attaque malveillante qui pourrait entraver un fonctionnement correct et sûr, tout particulièrement lorsque des vies humaines sont en jeu. Ces mêmes mécanismes doivent garantir l’intégrité des données transmises ou stockées lorsque celles-ci sont considérées comme sensibles.

Dans ces conditions, comment les concepteurs peuvent-ils concilier des contraintes de sécurité de plus en plus strictes avec les exigences d’un marché concurrentiel où les délais de mise sur le marché et les budgets de développement sont constamment revus à la baisse ? En fait, les démarches qui visent à garantir aux systèmes embarqués un niveau de sécurité toujours plus élevé peuvent être déclinées selon cinq étapes couvrant l’ensemble du cycle de vie des produits, de leur conception à leur maintenance en passant par les phases de développement, de tests et de déploiement.

Etape 1 : Mener une évaluation des menaces de bout-en-bout

L’amélioration de la sécurité d’un système embarqué commence par une bonne identification des menaces potentielles. Ces menaces doivent être évaluées en procédant à une analyse complète du cycle de vie du produit, en envisageant  en amont toutes les conditions d’utilisation de ce même produit, et en prenant en compte l’impact que les développeurs, les fabricants, les opérateurs, les distributeurs, les revendeurs et les utilisateurs finaux peuvent avoir sur la sécurité globale du système. Ici, la difficulté principale est de prévoir les vecteurs d’infection (i.e. les diverses manières dont une attaque malveillante peut être perpétrée) et d’anticiper les vulnérabilités (i.e. les faiblesses ou défauts matériels ou logiciels exploitables par un programme malveillant).

Etape 2 : Tirer parti de mécanismes évolués de sécurité déjà existants

Un certain nombre de technologies et de méthodes de conception ont déjà été élaborées pour contrer les menaces toujours plus sérieuses qui guettent les systèmes embarqués connectés. Dans ce cadre, les concepteurs ont tout intérêt à s’orienter vers des briques de base commerciales, éprouvées et disponibles sur étagère (COTS) qui ont la capacité d’améliorer la sécurité de leurs équipements sans grever les coûts de développement. Les plates-formes de virtualisation embarquées figurent au nombre de ces briques de base : elles permettent via des mécanismes de partitionnement de répartir et d’isoler les logiciels dans des environnements d’exécution virtuels.

Etape 3 : Choisir une plate-forme d’exécution appropriée

Pour un système embarqué, le choix d’une plate-forme d’exécution commerciale est absolument crucial. L’implantation de composants logiciels COTS préalablement testés, validés et certifiés selon des critères stricts de sécurité et de sûreté fonctionnelle peut accroître la sécurité globale d’un système et réduire les coûts de développement afférents. Soigneusement sélectionnés en fonction de ces critères, les couches de support des composants matériels, les hyperviseurs, les systèmes d’exploitation temps réel, les piles de protocoles de communication, les plates-formes de simulation virtuelle, les outils de développement peuvent grandement contribuer à l’élaboration efficace d’un équipement embarqué sécurisé.

Etape 4 : Sécuriser les applications

Les systèmes embarqués modernes hébergent de multiples applications et voient leurs fonctionnalités évoluer durant tout le cycle de vie de l’équipement grâce à des mises à jour et des mises à niveau matérielles et logicielles. Susceptibles, de ce fait, d’être les cibles de codes malicieux ou de vols de données, les applications doivent donc impérativement être sécurisées. Ceci peut être fait via la technique dite des « listes blanches », beaucoup moins gourmande en ressources que celles des « listes noires » et donc mieux adaptée aux contraintes propres à l’embarqué. Ce mécanisme autorise le téléchargement et l’installation des seules applications dont l’exécution est reconnue comme sûre.

Etape 5 : Opter pour un support couvrant l’intégralité du cycle de vie

Les menaces de sécurité évoluent dans le temps, les parades aussi. Les systèmes embarqués doivent donc pouvoir être mis à niveau sur site, afin d’anticiper de futurs problèmes de sécurité. Aussi l’intégration d’une politique globale de sécurité dans la gestion du cycle de vie du produit s’avère-t-elle critique, ne serait-ce parce que les équipementiers doivent remédier aux nouvelles vulnérabilités dès qu’elles apparaissent, et si possible rapidement. Il est également nécessaire que leurs fournisseurs de briques de base COTS soient tout aussi réactifs en termes de sécurité.

En suivant ces cinq étapes, les entreprises peuvent réellement faire d’énormes progrès dans la minimisation des risques et des niveaux d’exposition aux menaces de sécurité qui affectent leurs produits embarqués à forte connectivité. L’intégration de mécanismes de sécurité dans les systèmes embarqués est devenue une exigence fondamentale qui requiert un investissement toujours plus important à tous les niveaux d’une entreprise.

Par Marc Brown, Vice President, Products Group, Marketing Operations and ToolsView

Japon : le premier distributeur automatique de billets sans carte bleue

11 mars 2011 : un tremblement de terre de magnitude 9,0, dont l’épicentre se situe à 130 kilomètres au large à l’est de Sendai, au nord-est de l’île de Honshu, secoue le Japon. Le séisme en lui-même ne provoque que peu de dégâts et de victimes, contrairement au tsunami qu’il a engendré, ravageant près de 600 kilomètres de côtes, provoquant de très nombreuses destructions dans bon nombre de villes et zones portuaires, ainsi que la catastrophe nucléaire dans la centrale de Fukushima Daiichi, malheureusement toujours en cours.

En pleine apocalypse, des centaines de milliers de Japonais ont tout perdu en quelques minutes, ou ont dû quitter précipitamment leur domicile, se retrouvant souvent sans argent, sans papiers… et sans carte bleue. Ces rescapés se sont vu privés de tout moyen d’accès à leur compte en banque, et ce durant plusieurs jours, compliquant encore la situation d’extrême précarité dans laquelle ils se sont retrouvés.

Contexte post-tsunami

Un distributeur automatique de billets sans carte bleue aurait, dans ce contexte dramatique, facilité les retraits d’argent des sinistrés. C’est notamment en s’appuyant sur cet exemple que la banque japonaise Ogaki Kyoritsu a annoncé, mercredi dernier, sa volonté d’introduire dans son réseau les premiers distributeurs automatiques biométriques, fonctionnant sans carte bleue, d’ici le mois de septembre prochain.

Le porte-parole de la banque a indiqué que les retraits d’espèces, ainsi que d’autres transactions bancaires, seraient disponibles en plaçant tout simplement sa paume sur un lecteur biométrique, rendant inutile et obsolète la carte bleue ou le livret de banque. Il suffira au client de se présenter au préalable dans une des succursales de la banque nippone pour scanner une première fois sa paume, enregistrer quelques informations personnelles telles que sa date de naissance, pour enfin relier l’ensemble de ces données aux comptes en banque du client.

Cartographie du réseau veineux

Une fois la paume posée sur le scanner, une cartographie du réseau veineux de la paume du client est réalisée, réseau veineux dont le caractère quasi-unique en fait un outil biométrique efficace et sûr, au même titre qu’une empreinte digitale. Cette méthode est d’ailleurs déjà utilisée dans certaines banques japonaises, banques dans lesquelles l’authentification du client se fait en couplant le résultat du scanner à d’autres moyens plus traditionnels.

Ces distributeurs ne sont pas les premiers à utiliser une authentification biométrique : la banque russe Sperbank utilise par exemple un système de reconnaissance vocale. Le client doit néanmoins utiliser sa carte bleue pour effectuer un retrait d’espèces, en parallèle à l’identification biométrique. Les clients de la banque japonaise, basée dans la préfecture de Gifu, n’auront eux qu’à entrer leur date de naissance, apposer leur paume sur le lecteur, puis composer leur code secret à quatre chiffres.

Par Moonzur Rahman

 

A lire aussi :

La carte bleue, bientôt complètement obsolète

L’empire de la valeur

André Orléan, qui s’affirme comme l’un des plus grands économistes français, nous livre sa réflexion sur un des concepts fondateurs des sciences économiques et sociales : la « valeur » des produits. Il montre le caractère réducteur du paradigme dominant de l’économie néoclassique – toujours en vigueur – qui justifie la valeur d’usage par les seules notions d’utilité et de rareté, la valeur marchande par le jeu de la monnaie, et la valeur boursière, par l’exercice de conventions financières.

À la notion dite « objective » de « valeur substance » qui relève de « l’économie des grandeurs », il oppose celle de « valeur institution », qui participe de « l’économie des relations ». Il observe que « le prix n’est pas l’expression d’une grandeur définie en amont des jeux marchands mais une création sui generis de la communauté financière en quête de liquidité ».

À la suite de Max Weber, il dénie à la valeur son caractère « naturel » et lui restitue sa nature « sociale », en montrant que sa construction repose moins sur des « actions individuelles instrumentales » ou « des volontés individuelles mues par l’utilité », que sur une « production collective qui permet la vie en commun ». Cette construction est marquée par des effets de mimétisme, par des asymétries d’information, par l’influence de modèles (notamment idéal-typiques), par des comportements spéculatifs…

L’auteur est ainsi amené à revisiter – à la lumière des dernières avancées des sciences sociales – certaines théories de l’économie moderne, comme celles de monnaie, de confiance, d’efficience des marchés, de liquidité et de spéculation.

 

L’EMPIRE DE LA VALEUR

Refonder l’économie

André Orléan

Seuil, 335 pages, 2011

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

Biocarburants : la commissaire au climat tire la sonnette d’alarme

Une ébauche de l’analyse d’impact réalisé par la Commission et consultée par EurActiv.com, montre que les émissions de gaz à effet de serre produites par les biocarburants issus d’huile de palme, de soja ou de colza pourraient être supérieures à celles des carburants fossiles, si l’on prend en compte des facteurs plus larges.

Une situation liée au fait que les forêts tropicales sont souvent déboisées et les marais asséchés, afin de compenser les terres utilisées ailleurs pour les biocarburants, un processus connu sous le nom de «changement d’affectation des sols indirect » (CASI).

« Personnellement, j’ai toujours été très prudente face aux biocarburants », a déclaré Connie Hedegaard lors d’un entretien accordé à EurActiv.com. « Il est très intéressant de prendre en compte le potentiel des nouvelles technologies, mais nous devons être très prudents, en Europe, pour éviter de développer un secteur qui pourrait avoir des conséquences négatives après un certain temps. »

Elle a déclaré que la Commission ne revenait pas sur son engagement de 10 % de biocarburants d’ici 2020 pour les transports, fixé dans le cadre de la directive sur les énergies renouvelables, mais qu’elle appelait simplement à la prudence dans la mesure où cette technologie est encore en pleine évolution.

Une technologie « pas si développée » 

A propos des politiques européennes et des effets de la production de biocarburants sur le monde en développement, Mme Hedegaard a appelé à la prudence.

Dans ses directives sur les biocarburants (2003) et sur l’énergie renouvelable (2009), la Commission a soutenu l’introduction de carburants d’origine végétale pour les transports et l’énergie. Ces initiatives s’inscrivaient dans la volonté européenne de réduire les émissions de dioxyde de carbone et d’autres polluants pour 2020.

Les politiques se sont toutefois heurtés à des critiques virulentes dans la mesure où les biocarburants ne s’avèrent pas aussi efficaces que prévu pour réduire les émissions de gaz à effet de serre. Leurs cultures pourraient en outre porter atteinte à l’écologie et à la production alimentaire des pays en développement, premiers exportateurs de carburants végétaux.

« Prendre en compte l’affectation des sols » 

Mme Hedegaard, commissaire depuis deux ans, a affirmé : « les connaissances et la science derrière ces carburants n’étaient pas si développées à cette époque. Nous tentons à présent de prendre en compte le facteur d’affectation des sols ».

La Commission devrait présenter ses résultats concernant le CASI dans quelques semaines. Selon elle, la Commission « n’a aucun problème avec les biocarburants durables, mais il est vrai que certains biocarburants émettent autant de gaz à effet de serre que les carburants fossiles, sinon plus dans certains cas ».

« Et bien sûr, cette stratégie n’est pas pertinente, dans la mesure où nous demandons aux États membres de remplacer les carburants fossiles par quelque chose qui n’est pas mieux. » 

Le prix à payer

Dans le même temps, deux rapports publiés jeudi 2 février par les groupes des Amis de la Terre et ActionAid laissent entendre que les biocarburants ont un rôle quasi insignifiant dans la lutte contre le changement climatique. Les textes précisent également qu’ils augmentent les prix du carburant pour les automobilistes européens, obligés de payer 18 milliards d’euros supplémentaires, chaque année, pour l’essence et le diesel.

Ces recherches prévoient que, d’ici à 2020, le prix du bioéthanol au litre coûterait entre 0,19 et 0,41 euro de plus que l’essence. Le biodiesel vaudra quant à lui entre 0,35 et 0,50 euro de plus par litre. Cette étude a été menée par le projet Global Subsidies Initiative de l’Institut international pour le développement durable et par l’Institut de recherche de sciences financières de l’université de Cologne (FiFo).

Si ces coûts sont assumés par les consommateurs, d’ici à 2020, les coûts supplémentaires annuels devraient atteindre entre 1,25 et 2,28 milliards d’euros pour les automobilistes britanniques et entre 1,37 et 2,15 milliards d’euros pour les conducteurs allemands. Les auteurs de cette étude estiment pourtant que les subventions agricoles du gouvernement destinées à la production de biocarburants en Allemagne représentent quelque 370 millions d’euros. 

« Mauvaise politique verte » 

« Les consommateurs et les contribuables européens sont condamnés à payer le prix d’une mauvaise politique verte qui ne présente aucun avantage pour l’environnement », a déclaré Robbie Blake, un militant des Amis de la Terre Europe.

« Les automobilistes et l’environnement feront les frais de ces objectifs inconsistants pour les biocarburants, avec des prix supérieurs à la pompe et des émissions de CO2 plus élevées.

Parmi les 27 États membres de l’UE, les frais cachés des biocarburants pour la période 2010-2020 pourraient atteindre 126 milliards d’euros, selon le rapport.

Suite aux critiques sur le fait que les biodiesels importés des pays en développement affectent les sols et l’eau et détournent l’attention portée aux cultures vivrières au profit des cultures destinées aux carburants, les politiques européennes encouragent l’utilisation de sources plus durables, comme les résidus d’huile végétale issus de la restauration ou de la production industrielle.

Source : EurActiv.fr

L’essentiel de Reach (avril) 1/2

 

De nouveaux contrôles sur 2012

Une circulaire interministérielle relative aux contrôles des substances et produits chimiques est parue le 14 mars 2012. Cette circulaire vise à définir le cadre général des contrôles à réaliser pour l’année 2012. Les orientations retenues reposent sur la poursuite et le renforcement des actions engagées par les circulaires interministérielles des 8 janvier 2009, 30 mars 2010 et 30 mars 2011. Les bilans globalement positifs des actions menées les années précédentes méritent d’être confortés et amplifiés pour l’année 2012. 

En 2010, 7500 contrôles ont été réalisés auprès des opérateurs économiques (importateurs, fabricants, responsables de la première mise sur le marché, distributeurs et utilisateurs de produits chimiques). Sur l’ensemble de ces contrôles, plus de la moitié des contrôles effectués ont permis de vérifier le respect des règlements REACH et CLP. S’agissant du contrôle des autres produits chimiques, plus de 800 ont porté sur le respect des exigences de la réglementation relative aux produits biocides, 120 contrôles ont concerné le respect de l’interdiction du diméthylfumarate (DMFu). La circulaire indique également que de nombreuses anomalies ont été détectées au cours des 7500 contrôles, mais la plupart ont été régularisées sans difficulté suite à l’envoi d’un courrier de rappel. Ces écarts aux règlements ont porté notamment sur la non-conformité de la fiche de données de sécurité (FDS) qui doit accompagner les produits classés dangereux et les manquements dans l’étiquetage des produits biocides et dans les notices, dont les objectifs d’information et de prévention des risques rejoignent ceux des FDS.

L’intégralité de la circulaire est disponible sur : 

http://circulaire.legifrance.gouv.fr/pdf/2012/03/cir_34888.pdf

L’ECHA publie une nouvelle version du guide sur le partage des données

(03/04/2012)

L’ECHA a publié une mise à jour du Guide sur le partage des données. Cette modification fait suite aux conclusions du processus de consultation. Ce nouveau guide est consultable sur : http://echa.europa.eu/documents/10162/13631/guidance_on_data_sharing_en.pdf

News de l’ECHA : http://echa.europa.eu/en/web/guest/view-article/-/journal_content/9fe416a2-1f85-4ec2-a98b-e298f421c87b

Webinar pour les utilisateurs en aval : 23/04/2012

(03/04/2012)

Un webinar destiné aux utilisateurs en aval aura lieu le 23 avril prochain. Ce webinar a pour objectif d’aider les utilisateurs en aval à remplir leurs obligations dans le cadre de REACH et à présenter les nouvelles mesures mises en place par l’ECHA. Une partie de ce webinar sera également consacrée à la question de la communication des usages pour les enregistrements de 2013.

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/8b812ac7-4b78-4de5-b6f4-609f02308ade

http://echa.europa.eu/support/training-material/webinars (en bas du tableau)

7ème journée des parties prenantes

(04/04/2012)

L’ordre du jour de la 7ème journée des parties prenante est en ligne sur le site de l’ECHA. Cette conférence aura lieu à Helsinki le 23 mai 2012 et sera suivi par le Forum annuel des produits chimiques les 24 au 25 mai.

Pour s’inscrire à la journée du 23/05/2012 et connaître le programme : 

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/40bb6ef5-03b0-496f-8c4c-a8f8d04ab68c

Rapport général de 2011 publié

(05/04/2012)

L’ECHA a publié le rapport général pour l’année 2011. Ce rapport n’est disponible qu’en version anglaise mais le sera dans 22 autres langues d’ici peu. Pour consulter ce rapport : 

http://echa.europa.eu/documents/10162/13560/mb_06_2012_general_report_2011_final_en.pdf

Pour consulter les autres rapports : http://echa.europa.eu/en/web/guest/view-article/-/journal_content/22c22fe1-f670-426f-903f-541586de45e7

Nouvelle version de REACH-IT et IUCLID 5

(11/04/2012)

L’ECHA va publier une nouvelle version de IUCLID 5 d’ici la fin mai 2012 et par la suite, une nouvelle version de REACH-IT. La nouvelle version 5.4 de IUCLID va entraîner des changements principalement sur la façon dont l’information sur les substances incluse dans le rapport sur la sécurité chimique (CSR) est signalé. De plus, certaines informations incluses dans la fiche de données de sécurité (FDS) seront mises à la disposition du public. Quant au nouveau système REACH-IT, il n’acceptera que les dossiers venant de IUCLID 5.4dossiers. Pour faciliter cette mise en place, l’ECHA publie une FAQ pour informer les parties prenantes à l’avance de l’impact sur les enregistrements à venir et sur les autres dossiers.

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/22c22fe1-f670-426f-903f-541586de45e7

Accès à la FAQ :

http://echa.europa.eu/documents/10162/13651/questions_and_answers_iuclid5_4_en.pdf

La Lettre de l’ECHA

(11/04/2012)

Dans ce deuxième numéro de l’année 2012, l’ECHA fait un bilan des étapes franchies depuis le début de l’année, à savoir la publication de l’inventaire C&L (Classification & labelling – classification & Etiquetage), le Rapport 2011 d’évaluation, le coup d’envoi de l’’évaluation des substances sous REACH et la publication d’informations sur les articles de consommation contenant des substances extrêmement préoccupantes. Cette lettre vous donne également des éléments pour l’enregistrement de 2013 : les meilleures pratiques dans le partage des données, de précieux conseils sur la façon de préparer des dossiers de qualité conformes. Alors, bonne lecture.

http://echa.europa.eu/documents/10162/13584/echa_newsletter_2012_0212_en.pdf

Consultation publique sur le Programme tri-annuel de l’ECHA (2013-2015)

(11/04/2012)

L’ECHA vous invite les parties prenantes à lire et à commenter la version préliminaire du programme tri-annuel de l’Agence. Vous pouvez envoyer vos commentaires jusqu’au 4 mai 2012.

Programme tri-annuel 2013-2015 : 

http://echa.europa.eu/documents/10162/13609/mawp_2013_15_draft_en.pdf

Consultation publique : http://echa.europa.eu/about-us/the-way-we-work/plans-and-reports/public-consultation-on-the-multi-annual-work-programme-2013-2015

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Les impacts environnementaux des TIC (3/3)

Comme dans les deux premiers cas, l’étude s’attache, à travers différents scenarii, à calculer les émissions de gaz à effet de serre de cet outil de stockage et de transmission de documents et son impact environnemental sur les trois indicateurs déjà évoqués : le réchauffement climatique, l’épuisement potentiel des métaux et celui des ressources fossiles.

Pour étudier l’impact de la clé USB, le rapport part de la situation suivante : lors d’une conférence, un rapport d’étude de 200 pages est remis à une personne, via cette clé. Cette personne en transfère le contenu sur son ordinateur, et survole le document à la vitesse de 30 secondes par page (on estime à 3 minutes le temps nécessaire à la lecture intégrale de la page). L’étude compare alors les résultats de trois scenarii : l’enregistrement du document puis le survol des 200 pages, l’enregistrement du document puis la lecture intégrale des 200 pages (environ 10 heures devant son ordinateur tout de même…), l’enregistrement puis la lecture complète de 40 pages, type diapositives de Powerpoint (un temps de lecture estimé à 30 secondes par page).

Si 100 personnes recevant la même clé USB contenant ce document lisent complètement les 200 pages, les émissions de CO2 uniquement liées à la transmission de l’information sont multipliées par 8. Elles représentent 80 kg éqCO2, soit 20 % supplémentaires par rapport à l’empreinte carbone d’une conférence sans distribution de clé :

« La lecture sollicite l’utilisation d’un ordinateur pendant un temps relativement long dans le cas d’une lecture complète (10 h, pour lire 200 pages lors d’une lecture complète). On constate que multiplier par 12 le temps de lecture d’un document multiplie par 8 les impacts sur le potentiel de changement climatique. »

Dans le même cas, si 10 % des personnes présentes impriment le document en mode brouillon, 15 kg de CO2 peuvent être évités, soit l’équivalent de 110 kilomètres en voiture. En effet, selon l’étude, « régler son imprimante par défaut en mode noir et blanc, recto/verso, 2 pages par face permet de diviser par 3 les émissions de gaz à effet de serre ». Pour arriver à ce résultat, le rapport calcule le point d’équilibre entre le temps de lecture sur l’écran et l’impression, et l’établit à 2 minutes 12 secondes par page. Tout dépend donc de la rapidité de compréhension du lecteur :

«  Si le temps de lecture n’excède pas 2 à 3 minutes par page, il apparaît que la lecture à l’écran a moins d’impact sur le potentiel de réchauffement climatique que l’impression. Au-delà, l’impression noir et blanc, recto/verso et 2 pages par feuille devient préférable. »

Par contre, les résultats ne montrent pas de variations importantes en fonction du matériau utilisé pour la coque de la clé USB : PVC/aluminium, PVC ou bambou : en effet, les impacts liés à la production de la coque ne représentent que 2 % des impacts environnementaux de production de la clé.

En fonction de tous ces éléments, il reste à chacun le choix d’utiliser son ordinateur de manière rationnelle. C’est pour cela que sur la base de ces résultats, l’ADEME met en avant quelques gestes simples à appliquer au quotidien et qui permettront de contribuer à limiter les impacts environnementaux des TIC. Les derniers sont les suivants :

  • À l’achat, choisir de préférence un ordinateur certifié par l’écolabel européen ou Energy Star ;
  • Éviter de distribuer systématiquement des clés USB de type publicitaire.

Par Claudine / blog EcoCO2

 

À lire aussi :

Les impacts environnementaux des TIC (2/3)

Les impacts environnementaux des TIC (1/3)

Les TIC sont bonnes pour l’environnement

Plus d’éthique dans les STIC

 

EcoCO2

La réduction des émissions de gaz à effet de serre est un enjeu planétaire. Certes, mais pourquoi ? Comment puis-je y contribuer à mon niveau ? D’ailleurs quelle est mon empreinte carbone ? Mes consommations d’énergie sont-elles normales ?

Par une approche pédagogique et participative, Eco CO2 fournit des clés pour progresser : un portail et une lettre d’informations pour découvrir les actions de ceux qui agissent déjà ; des outils simples pour comprendre, évaluer, mesurer ; un blog pour partager nos bonnes pratiques ; une boutique pour trouver des solutions aidant à comprendre et maîtriser ses consommations d’énergie et son empreinte carbone.
 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin : 

Découvrez la base documentaire Techniques de l’Ingénieur :

Participez à la formation Techniques de l’Ingénieur :

La démarche qualité stimule l’innovation des entreprises : c’est prouvé !

Sylvie Rolland, directrice scientifique de la chaire, et Sanja Pekovic*, chercheuse, ont présenté jeudi 29 mars 2012 les premiers résultats des travaux cherchant à déterminer le lien de causalité entre les démarches qualité, représentées par la certification ISO 9001, et l’innovation. L’innovation est un facteur central de survie pour les entreprises et, au delà, pour les sociétés humaines ; mais quelle est l’influence d’une démarche qualité sur la capacité d’une organisation à innover ? Telle était l’hypothèse de départ.

En analysant un échantillon de plus de 1 100 entreprises industrielles françaises d’au minimum 20 salariés, l’étude démontre que les entreprises les plus performantes sont celles qui sont certifiées selon la norme ISO 9001. Cela est d’autant plus avéré lorsque ces mêmes entreprises ont engagé d’autres démarches qualité et que leurs fournisseurs sont eux-mêmes certifiés. Plusieurs indicateurs permettent de tirer ces conclusions : augmentation des dépenses en recherche & développement, du nombre de produits nouveaux ou améliorés introduits sur le marché, développement de nouveaux procédés de fabrication…

La puissance d’une démarche Qualité globale

A contrario, mettre en place une démarche qualité a minima, ou ne se reposer que sur celles des fournisseurs, n’offre pas un environnement propice à l’innovation. La réussite des entreprises ne peut se faire que si les dirigeants sont eux même convaincus du bien fondé de l’ISO 9001 et intègrent à la stratégie de l’organisation les pratiques prévues par la norme : orientation client, leadership, implication du personnel, amélioration continue, etc. Ces entreprises, afin de s’assurer une performance optimale, doivent également sensibiliser leurs parties prenantes à s’engager dans la même voie.

Cette étude vient corroborer le fait que « les organisations engagées dans de telles démarches organisationnelles et managériales (ISO 9001, ISO 14001, EFQM…) résistent mieux en temps de crise, intègrent plus facilement l’évolution des contraintes et réagissent avec une plus grande pertinence face aux évènements externes », a souligné Olivier Peyrat. La qualité est donc résolument une valeur durable, facteur d’innovation.

La chaire « Performance des organisations »

La chaire « Performance des organisations » réunit douze chercheurs et quatre doctorants/étudiants. « Nous avons la volonté de rester en connexion avec les organisations tout en gardant une approche académique pluridisciplinaire », a déclaré Laurent Batsch. « Une formule gagnante pour AFNOR, l’Université et les chercheurs ; une approche originale dont nous tirons une certaine fierté. »

Les études de la chaire mesurent l’impact des systèmes de management (ISO 9001, ISO 14001…) sur le fonctionnement d’une organisation (entreprises, administrations publiques, organisations non gouvernementales, associations…). Ils analysent en particulier les incidences d’une certification (ou labellisation) sur sa performance : croissance des ventes, image de marque, hausse du cours boursier, attractivité de l’entreprise…

 * « From Quality to Innovation: Evidence from French Employer Survey » (Sanja Pekovic, Fabrice Galia).

Par Jérémy Cicéro, responsable et auteur du Qualiblog

 

Jérémy CICÉRO

Jérémy Cicéro est consultant, formateur, et auditeur ICA pour le Qualipole Languedoc-Roussillon. Il est aussi formateur pour le Laboratoire National de Métrologie et d’Essai (LNE).

Ancien commercial puis responsable qualité dans les poids et mesures, il accompagne depuis plusieurs années les TPE et PME de la région Languedoc-Roussillon (tous secteurs d’activités) pour la mise en place et l’amélioration de leurs systèmes de management.

Il intervient également comme expert qualité sur le site Manager-Go! en répondant aux questions des internautes soucieux de comprendre les mécanismes de la qualité.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Les retardateurs de flammes, encore plus dangereux ?

Moquettes, revêtements de mobilier, produits plastiques, berceaux, matelas ou encore sièges automobiles ou d’avions : tous ces objets ont pour point commun d’être généralement traités avec un retardateur de flammes, une substance chimique ajoutée aux matériaux lors du processus de fabrication, dont le but est de réduire le risque que le produit fini ne s’enflamme, ou pour en ralentir la combustion. Ce terme a trait à la fonction et non à une classe de produits chimiques, englobant un large choix de combinaisons de substances qui répondent à la variété des matériaux à protéger, dont les propriétés mécaniques et les natures chimiques entrainent des comportements au feu très variés.

Retardateur de flammes halogénés

Pourtant, une étude menée par le professeur Anna A. Stec, de l’université de Central Lancashire, au Royaume-Uni, tendrait à prouver que certains retardateurs de flammes, loin d’atténuer les dangers, augmenteraient les risques de décès lors d’un incendie. En effet, ces retardateurs auraient tendance, en ralentissant la combustion d’un matériau, à dégager des gaz toxiques, première cause de décès lors d’un incendie. L’étude menée par le professeur Stec s’est concentrée sur la catégorie de retardateurs de flammes la plus largement utilisée à travers le monde, que les scientifiques ont nommé « retardateurs de flammes halogénés », car ils contiennent du brome, élément chimique de la famille des halogènes (dont le fluor, le chlore et l’iode font aussi partie).

« Les retardateurs de flammes halogénés sont efficaces pour réduire l’inflammabilité des matériaux [traités] », explique le professeur Stec. « Nous avons cependant découvert que ces retardateurs de flammes ont un effet secondaire indésirable, celui d’augmenter les quantités de monoxyde de carbone et de cyanure d’hydrogène libérées durant la combustion. Ces gaz, et non l’élévation de chaleur ou les flammes, sont la première cause des décès lors d’un incendie », ajoute-t-elle.

Toxicité du monoxyde de carbone et du cyanure d’hydrogène

L’émanation de monoxyde de carbone provient d’une combustion incomplète de composés carbonés et est accentuée par une mauvaise alimentation en air frais ou une mauvaise ventilation. La densité du monoxyde de carbone a une densité proche de celle de l’air, lui permettant de se mélanger à lui assez facilement. Les conséquences de son inhalation peuvent aller de simples vertiges à des troubles neurologiques plus graves, allant jusqu’au coma.

Le cyanure d’hydrogène est bien plus dangereux encore. Utilisé dans les camps d’extermination nazis sous le nom de « Zyklon B », une concentration de 300 parties par million (ppm) dans l’air étant suffisante pour tuer un homme en seulement quelques minutes.

Agents intumescents

Chaque année, près de 10 000 personnes vivant dans des pays industrialisés trouvent la mort dans des incendies. Contrairement à ce que l’on pourrait croire, l’inhalation des gaz libérés par la combustion de matériaux est bien la première cause de décès et de blessures graves.

L’équipe du professeur Stec n’a pas uniquement conduit des tests sur les retardateurs de flammes halogénés, mais aussi sur certains retardateurs à base minérale, ainsi que sur les agents dits « intumescents » qui, en contact avec de la chaleur, gonflent et forment une barrière que les flammes ont le plus grand mal à pénétrer. Les retardateurs à base minérale auraient un effet, bien que minime, sur la toxicité, alors que les agents intumescents réduisent de manière plus significative la libération de ces gaz.

Polluant avéré

D’autre part, les retardateurs de flammes halogénés sont devenus un contaminant courant de l’environnement, sous forme de polybromodiphényléthers (PBDE), que l’on retrouverait dans tous les organismes animaux de filtreurs ou prédateurs de la planète, facteurs de délétion de la spermatogenèse et facteurs de débilité mentale à faible dose, selon un rapport de l’Union Européenne concernant l’évaluation des risques.

Le docteur Stec a présenté les conclusions de cette étude devant un parterre de scientifiques réunis lors du 243eCongrès de la très prestigieuse American Chemical Society, ayant eu lieu le 27 mars dernier à San Diego, en Californie. Plus d’une soixantaine d’interventions sur le thème « incendie et polymères » ont eu lieu lors de ce congrès annuel.

Par Moonzur Rahman

 

À lire aussi :

Incendie : extinction d’un foyer en moins de 2 minutes

Combattre le feu avec de l’électricité

Nouveau centre d’essais de résistance au feu des structures

 

 

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur :

Les volcans islandais à la conquête de l’Angleterre

Mesurant entre 1000 et 1500 kilomètres, et partant d’Ecosse ou alors directement du littoral de l’Angleterre plus au sud, il sera le plus long câble sous-marin du monde, volant ainsi la vedette à NorNed 1 (480 km) qui relie les Pays-Bas et la Norvège. La technologie HVDC permet d’acheminer l’électricité sur de très grandes distances avec moins de 3% de perte pour 1000 km de transfert.

Cette interconnexion anglo-islandaise facilitera la concrétisation de l’objectif britannique de parvenir à un mix électrique à haute teneur en énergies renouvelables fortement fluctuantes comme l’éolien maritime et l’énergie houlomotrice, deux filières qui sont actuellement activement développées outre-manche.

Ile de glace et de feu, 100% de l’électricité est d’origine renouvelable en Islande, ce qui constitue le record absolu à l’échelle mondiale: 81% provient de l’hydroélectricité et 19% de la géothermie. Les lacs, alimentés par des précipitations 30% plus abondantes qu’en France, représentent 2,7% de la surface insulaire. Située sur la dorsale médio-océanique Atlantique, l’Islande possède 200 cratères dont 130 volcans actifs, dont certains perturbent le trafic aérien entre l’Europe et l’Amérique de temps en temps.

100% de l’électricité est d’origine renouvelable en Islande

Les lacs de barrage et les centrales géothermiques permettent de moduler à volonté la production et ainsi une adaptation parfaite à la demande. Lors d’un déficit de la production éolienne par rapport à la demande des consommateurs, le Royaume-Uni pourra grâce au câble HVDC importer de l’électricité islandaise. A l’inverse, lors de surproduction éolienne, les électrons pourront voyager en sens inverse et alimenter les islandais ainsi que les industries implantées sur place, notamment dans le domaine de la production d’Aluminium. Ou alors être dirigés vers les autres pays avec lesquels la Grande-Bretagne est déjà reliée – France, Belgique, Pays-Bas et Irlande – ou envisage d’être reliée dans un futur proche : une liaison anglo-norvégienne (900Km) va par exemple être mise en service dès 2019, ce qui permettra à la Grande-Bretagne de jouir de l’énorme réservoir hydro modulable scandinave (84 TWh). Ce dernier a permis au Danemark de passer à 26% d’éolien dans son mix électrique en 2011, et va permettre au royaume de la petite sirène de franchir le seuil symbolique des 50% d’éolien dès 2020.

Au total, pas moins de neuf nouvelles interconnexions HVDC sont en projet entre la Grande-Bretagne et ses voisins européens. « Les interconnexions électriques constituent une manière incroyablement efficace pour contrer l’argument selon lequel il serait nécessaire d’installer un GW de centrale à gaz en back up pour chaque GW d’éolien installé » a déclaré au quotidien The Guardian le ministre de l’énergie britannique Charles Hendry, qui va se rendre en Islande en mai 2012 pour boucler l’accord anglo-islandais.

Le projet anglo-islandais s’inscrit dans la perspective de la mise en place d’une supergrid paneuropéenne (super réseau électrique), projet soutenu par le premier ministre britannique et qui permettra notamment de libéraliser le marché de l’électricité à l’échelle européenne en plus de faciliter la pénétration des énergies renouvelables fluctuantes et de mutualiser les outils de stockage de l’énergie électrique.

Vers une supergrid paneuropéenne

Les câbles HVDC sous-marins peuvent être déployés à la vitesse de 30 km par jour avec des bateaux spécialisés. Les investisseurs sont très attirés par les projets de connexions électriques, car il s’agit d’un business très fiable. L’obtention d’un accord politique bilatéral, qui semble en très bonne voie entre la Grande-Bretagne et l’Islande, est en général l’étape la plus consommatrice de temps dans ces projets d’interconnexions. L’obtention des autorisations, d’une part pour installer les stations de conversion du courant continu en courant alternatif à terre, et d’autre part pour installer les lignes électriques terrestres afin de distribuer l’énorme quantité d’électricité véhiculée par les câbles sous-marins constitue un autre défi.

La France est reliée à la Grande-Bretagne par un câble de 2 GW, auquel va s’ajouter FABLink (4 GW), une nouvelle interconnexion sous-marine passant par les eaux territoriales de l’île anglo-normande d’Aurigny où vont être installées plusieurs GW d’hydroliennes tirant profit des importants courants de marée du secteur. Par effet de domino, les volcans islandais pourront ainsi potentiellement réchauffer les français durant les hivers très froids.

Par Olivier Danielo

La balance la plus sensible au monde : peser au yoctogramme près

Un milliardième de milliardième de millionième de grammes : des chercheurs catalans de l’Institut Catalan de Nanotechnologie, à Barcelone, ont réussi à mettre au point la balance la plus sensible au monde, suffisamment sensible pour mesurer les plus petites unités de masse… au yoctogramme près, soit 10 puissance moins 27 kilogrammes. Peser un atome jusqu’à son dernier proton pourrait alors presque devenir un jeu d’enfant !

Les balances les plus sensibles sont actuellement capables de mesurer des masses à une centaine de yoctogrammes près, et s’appuient sur la vibration des nanotubes lorsqu’une masse leur repose dessus. En effet, il suffit de calculer la fréquence de vibration de ces nanotubes pour en déduire la masse de la particule ou de la molécule reposant sur ces derniers.

Adrian Bachtold et ses collègues de l’Institut Catalan de Nanotechnologie ont, pour mesurer des masses encore plus petites, utilisé des nanotubes plus courts. La résolution s’en est trouvée améliorée, à basse température. L’équipement a été placé dans des conditions proches du vide, pour minimiser les interférences avec d’autres atomes, en prenant bien soin d’éliminer les derniers atomes égarés en augmentant la température des nanotubes, perturbant ainsi toutes liaisons potentielles avec d’autres atomes. Les catalans ont alors été capables de peser un atome de xénon, au yoctogramme près, et donc capables d’en mesurer le moindre proton (soit 1,7 yoctogrammes).

Une telle balance pourrait aider à distinguer les différents éléments dans un échantillon, certains ne différant que de quelques protons. Elle pourrait également aider à identifier des différences de poids de l’ordre du proton au niveau moléculaire, pouvant être marqueur d’une maladie, facilitant potentiellement certains diagnostics.

Par Moonzur Rahman

Passage à IPV6, résistance au changement ?

Qu’est ce que l’IPV4 ?

En 1983, l’internet naissant avait adopté la norme IPV4, les concepteurs avait choisi des adresses codées sur 32 bits, comprises entre 1.0.0.0 et 127.255.255.255. Du coup, l’internet avait à disposition potentiellement 4 milliards d’adresses, de quoi largement voir venir… Sauf que les concepteurs de l’internet n’avait pas prévu le formidable succès de leur création, ni le changement de paradigme de l’informatique : le passage d’un ordinateur par entreprise à plusieurs ordinateurs par individu… Vous comprendrez alors que 4 milliards, c’est largement insuffisant pour couvrir les besoins du développement de l’internet.

La pénurie d’adresse internet IPV4

Aujourd’hui, le monde est en rupture d’adresse IP. Le 3 février 2011, l’IANA a annoncé que les cinq derniers blocs/8 libres ont été attribués aux cinq registres Internet régionaux (RIR). Il en reste un petit peu en stock en Europe, mais c’est la rupture en Asie et aux États Unis. Pour le moment, ce n’est pas une catastrophe, quelques détournement techniques tel que le NAT, déjà utilisé dans les réseaux locaux, permettent de pallier cette pénurie. Néanmoins, cette pénurie va vite se faire sentir, et si vous pouvez conserver votre adresse en IPV4, tous les nouveaux entrants de l’internet risquent d’avoir des problèmes à terme. C’est pourquoi il y a quelques années, les instances de l’internet avaient prévues de déployer une nouvelle norme l’IPV6.

Qu’est ce que l’IPV6 ?

Il s’agit de coder les adresses IP sur 128 bits, soit 3,4×1038 adresses disponibles… une quantité difficile à concevoir. Elle correspond à 667 millions de milliards d’adresses IP disponibles par mm2 de la surface de la Terre… bref une infinité d’adresse IP. Avec ce système, on passe à des adresses qui, par exemple, ont la forme suivante : 2a01:mac1:2e18:5587:5add:35ff:fe72:a70e. Ce système n’est pas nouveau, il a été été finalisé par l’IETF en décembre 1998 dans la RFC 2460.

Alors pourquoi en 2012, IPV6 n’est toujours pas massivement déployée ?

Revenons sur les stratégie de déploiement. À l’origine, IPV6 devait être déployée progressivement avant que internet n’épuise les adresses IPV4. Il fallait mettre à jour les routeurs, – c’est à dire le matériel –, qui traitaient des blocs fixes de données afin qu’ils acceptent des blocs de 128 bits. C’est chose faite aujourd’hui. Reste le problèmes des logiciels. Les principes de routage entre l’IP4 et l’IPV6 ne changent pas. Les problèmes viennent principalement du fait que certains programmes utilisent les adresses IP plutôt que les noms de domaine pour fonctionner. Du coup, si les structures des adresses changent, le programme plante. Pour les systèmes d’exploitation les plus récents et les logiciels libres les plus connus, pas de problèmes, les modifications ont été faites. Pour les autres, logiciels commerciaux et utilitaires, développements sur mesure, c’est très variable. Les administrateurs réseaux doivent donc examiner attentivement les solutions utilisées avant de passer à IPV6, ce qui prend du temps, donc engendre des coûts.

Lire la suite ici

 

Par Guy Parmentier, TheInnovation.eu

 

Guy Parmentier

Chercheur en management de l’innovation, Guy Parmentier effectue des recherches sur la gestion de l’innovation avec les communautés d’utilisateurs et l’entreprise face aux mondes virtuels.

Passionné d’innovation, avant de passer à la recherche et au conseil à l’innovation, il a géré successivement des projets éditoriaux dans l’édition de beaux-livres, la production de jeu vidéo et une start-up sur la conception et la gestion des personnages virtuels.

Aujourd’hui, il apporte ces multiples compétences au service de la recherche sur le terrain, de l’enseignement et de l’accompagnement de projets d’innovation.

Ce blog lui permet aussi de contribuer au Web 2.0 en publiant réflexions et analyses sur le management de l’innovation.

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

Découvez les fiches pratiques Techniques de l’Ingénieur :

Japon : Vers une exploitation du potentiel géothermique de l’archipel

Situé sur la « ceinture de feu » du Pacifique, le Japon est avec les USA, le Mexique et l’Indonésie l’un des pays jouissant du plus grand potentiel géothermique au monde. Le pays, secoué régulièrement par des séismes qui dégénèrent parfois en redoutables tsunamis, compte 200 volcans et pas moins de 28 000 sources géothermales. Mais jusqu’à présent le pays n’a que très peu exploité ce potentiel pour produire de l’électricité, les autorités ayant préféré développer opter pour le nucléaire. La puissance géothermique installée n’est que de 0,5 GW, et aucune nouvelle centrale n’a été construite depuis celle d’Hachijojima en 1999. Cette situation est d’autant plus paradoxale que les deux tiers des turbines pour centrales géothermiques dans le monde sont produites par trois entreprises japonaises, Fuji, Toshiba et Mitsubishi.

Les sources géothermales japonaises inondent des chaînes hôtelières spécialisées dans le thermalisme, une activité qui fait partie de la culture japonaise. Jusqu’à présent, les représentants de l’industrie touristique se sont opposés aux projets électro-géothermiques, car ils craignaient un appauvrissement du gisement dont ils tirent profit.

« se fixer un objectif de société qui ne dépend pas du nucléaire »

L’accident nucléaire de Fukushima et la contamination radioactive de l’environnement, pas vraiment bénéfiques pour l’attractivité touristique du pays, ont changé l’équation et aujourd’hui plus de quatre japonais sur cinq sont opposés au nucléaire selon les enquêtes d’opinion réalisées dans le pays.  Le premier ministre japonais, Naoto Kan, dans un discours historique concernant la politique énergétique du pays, a déclaré que « considérant les risques énormes associés à un accident nucléaire, j’ai pris conscience que cette technologie ne peut pas être contrôlée par des mesures de sécurité conventionnelles. J’ai ainsi compris que le Japon doit se fixer un objectif de société qui ne dépend pas du nucléaire, en sortant de cette technologie, étape par étape. » Le gouvernement central a décidé de mettre en place dès juillet 2012 un cadre réglementaire favorable aux énergies renouvelables permettant d’attirer les investisseurs, et autorise à présent les forages géothermiques au sein des parcs nationaux.

Ce nouvel environnement réglementaire japonais est le plus attractif au monde, et les analystes estiment que l’archipel va connaître un développement très important des filières renouvelables. C’est dans ce contexte qu’un consortium d’entreprises nippones s’est formé pour lancer un premier méga-projet géothermique au sein du parc national Bandai-Asahi qui comprend trois volcans actifs, consortium dont font notamment parti les entreprises Mitsubishi, Sumitomo, Japan Petroleum Exploration, Mitsui Oil Exploration et Idemitsu Kosan. Il reviendra au gouverneur de la préfecture de Fukushima de trancher concernant l’autorisation administrative définitive du projet. Un comité de réflexion regroupant les différentes parties prenantes a été constitué par les autorités locales. Si le projet est approuvé, la phase d’exploration par forage durera environ quatre ans, afin d’identifier le site le plus favorable pour l’implantation de la centrale. Une partie des 100 millions de dollars alloués par le gouvernement central japonais en faveur de la R&D dans le domaine géothermique pourrait être utilisé pour financer partiellement le projet. La mise en service de la centrale est prévue pour 2020.

Un potentiel géothermique très élevé

Contrairement à l’éolien et au solaire dont le potentiel au pays du soleil levant est également considérable mais qui nécessitent de faire appel à des outils de flexibilité comme l’hydro modulable, les batteries ou le stockage hydrogène pour adapter l’offre à la demande, la production électro-géothermique est modulable à volonté et disponible 24H sur 24, 365 jours sur 365. En recourant aux technologies classiques, il est possible d’installer 80 GW de centrales géothermiques au Japon selon l’Earth Policy Institute, un think tank basé à Washington et fondé par Lester Brown, expert du développement durable de renommée internationale. C’est équivalent à la puissance d’environ 80 réacteurs nucléaires. Mais en recourant aux technologies les plus modernes (Enhanced Geothermal Systems, EGS), technologies qui ont notamment fait leurs preuves aux Etas-Unis, le potentiel géothermique japonais est encore bien plus élevé.

Selon la synthèse de la littérature scientifique mondiale réalisée par le GIEC dans son rapport sur les énergies renouvelables (SRREN, 2011), le potentiel théorique de la géothermie est fabuleux à l’échelle mondiale : 12600 milliards d’ExaJoules (1 EJ = 278 TWh) sont stockés dans le globe terrestre, comme dans un thermos à café géant, dont 5,4 milliards d’EJ au niveau de la croûte terrestre. Pour avoir un ordre de grandeur, la France produit chaque année environ 2 EJ d’électricité, soit environ 3% de la production électrique mondiale. Le potentiel technique, c’est-à-dire l’énergie concrètement exploitable avec les technologies actuelles, est en réalité bien inférieur au potentiel théorique et est estimé par les experts, selon les différentes hypothèses retenues, entre 118 et 1109 EJ électriques, ce qui reste loin d’être négligeable.

La chaleur géothermique résulte de la désintégration nucléaire naturelle d’isotopes au sein de la planète Terre, principalement d’uranium, de thorium et de potassium. Cette chaleur est à l’origine de l’activité interne de la planète Terre et s’échappe par bouffées, profitant de zones de faiblesse au niveau de la croûte terrestre. Résultant d’un séisme sous-marin, le tsunami qui a provoqué l’accident à la centrale nucléaire de Fukushima-Daiichi a ainsi une origine… nucléaire. Tirer profit de la chaleur libérée par cette méga-centrale nucléaire terrestre 100% naturelle est peut-être une approche plus judicieuse que celle qui consiste à construire des centrales nucléaires artificielles sur un archipel très vulnérable aux activités volcaniques, sismiques et tsunamiques.

Par Olivier Danielo