News Informatique : décembre 2011

Vers de meilleurs algorithmes capables de se « battre » en eux

Deux touristes se promènent dans la savanne Africaine et ils entendent un lion rugir un petit peu plus loin. Immédiatement, l’un des deux ouvre son sac et sort ses chaussures de course. « Mais tu es fou » lui dit son ami, « tu ne pourras jamais courir plus vite que le lion! ». Le deuxième répond alors, « Pas grave, il suffit que je cours plus vite que toi! ».

Traditionnellement en informatique, l’objectif d’un algorithme est de fournir la solution optimale et de tenter de minimiser le temps de calcul pour obtenir cette solution. Cependant à part dans des problèmes mathématiques bien définis pour lesquels une solution optimale existe vraiment, la plaisanterie ci-dessus démontre que dans une situation pratique il n’est pas toujours avantageux de trouver une solution « parfaite », mais simplement de mettre en place une stratégie supérieure à celle proposée par la compétition. Un groupe de mathématiciens travaillant au département de recherche et développement de la branche Israelienne de Microsoft ainsi que au Techion à Haifa vient de faire des progrés importants dans la compréhension des propriétés des algorithmes, non pas « optimaux » mais plutôt « compétitifs ».

De manière à mieux illustrer le coeur du sujet, imaginons qu’une séries de 10 morceaux d’informations (page webs par exemple) soient organisées en une liste allant de la page la plus populaire (n1) jusqu’à la page la moins populaire (n10) dans le sens le plus naturel (n1 > n2 > … > n9 > n10). Une telle organisation correspond à un algorithme « glouton ». En l’absence de compétition, il est évident que cette organisation est optimale. Imaginons maintenant une compétition entre deux agents dont le but est de fournir un « moteur de recherche » permettant aux utilisateurs de retrouver les informations qu’ils souhaitent le plus rapidemenent possible. Dans ce cas, il est clair que l’organisation « naive » proposée ci-dessus représente un cas très spécial qui n’est « optimal » que dans un sens abstrait. Si la page la plus populaire représente la demande de 40% des utilistateurs, l’organisation présentée ci-dessus laisse 60% des utilisateurs insatisfaits. Cela signifie que dans un environnement compétitif, il suffit qu’une compagnie offre un « moteur de recherche » qui donne plus d’importance à des pages un peu moins populaires (et donc devient non-optimal) pour en fait se rapprocher de la demande des utilisateurs. Typiquement, après plusieurs étapes de réajustement, il est attendu que tous les compétiteurs finissent par converger vers un une solution « équilibrée ». Il s’agit d’une situation dans laquelle les agents, ayant finalement compris leurs stratégies réciproques, ne peuvent plus changer de stratégie sans affaiblir leur propre position. En théorie des jeux, on parle d’équilibre de « Nash ».

Pouvoir déterminer à l’avance quelle sera la solution d' »équilibre », représente donc un problème d’importance capitale. Malheureusement, il est extrèmenent difficile d’aborder ce genre de question de manière satisfaisante car la complexité du temps de calcul augmente exponenetiellement avec la taille des informations. Un groupe de chercheurs de Microsoft Israel et du Technion viennent de prouver un certains nombres de théorèmes mathématiques qui ouvrent une nouvelle avenue de recherche dans ce domaine. En se basant sur un modèle simplifiée ne contenant que 2 participants (situation déjà non-triviale en terme de complexité), les mathématiciens ont développé une théorie probabilistique permettant de prouver l’existence ou non, de stratégies compétitives capables de « battre » la stratégie optimale (mais sans compétition). Dans quelques examples particuliers, ils ont même réussi à construire explicitement des stratégies compétitives.

Ces travaux offrent une excursion dans un domaine des mathématiques encore très peu étudiées. Les applications possibles des techniques mises en place par Microsoft Israel vont bien au-delà de l’informatique et des mathématiques. Par exemple, des questions du genre: « Sous quelles conditions est-ce que la compétition entre plusieurs stratégies engendre une amélioration ou une dégradation du niveau de performance attendue? », intéressent également de nombreuses autres disciplines allant de la politique à l’économie.

En savoir plus : http://www.bulletins-electroniques.com/actualites/68493.htm

Une connexion sans fil aussi rapide qu’avec la fibre optique

Alors que la fibre optique est encore en cours de déploiement en France, des chercheurs japonais de l’université d’Osaka et le fabricant de composants électroniques Rohm sont parvenus à créer une puce capable de transférer des données sans fil à des vitesses comparables… à celles obtenues par la fibre optique.

En effet, deux de ces puces ont échangé des données sans fil à un débit de 1,5 Gb/s (un record du monde ! ) en utilisant des ondes « térahertz », ondes situées entre la lumière et les ondes radio sur le spectre électromagnétique. Ces puces ont été développé en utilisant l’effet tunnel [1], découvert par un chercheur japonais (Leo Esaki) qui a reçu le prix Nobel de physique en 1973 pour cette avancée. Les chercheurs affirment qu’il est possible, grâce à cette technologie, d’atteindre une vitesse de 30 Gb/s.

Le semiconducteur, d’une longueur de deux centimètres et d’une hauteur d’un centimètre, est attaché à une antenne de la taille d’un grain de riz. Il peut être produit pour seulement quelques centaines de yens (soit quelques euros). Cela diffère fortement des puces actuelles de 20 cm, coûtant plusieurs millions de yens (plusieurs dizaines de milliers d’euros) et n’atteignant qu’au maximum 100 Mb/s en débit de transmission.

Le processus de fabrication en série de ces puces devra être développé, afin de pouvoir équiper de futurs téléphones portables et autres équipements électroniques dans trois ou quatre années.

En savoir plus : http://www.bulletins-electroniques.com/actualites/68321.htm

Vers des moteurs de recherche plus intelligents

Rechercher des informations détaillées sur un sujet précis sur Internet est parfois une opération assez frustrante. Il est souvent nécessaire d’ajuster de manière astucieuse les « mots clefs » en plus d’utiliser au mieux toutes les options des moteurs de recherche de manière à obtenir un lien vers un le site souhaité. Ce problème est du au fait que le moteur de recherche n’interprète pas toujours nos requêtes de la même manière qu’un être humain comprend naturellement.

Soucieuse de remédier à cette situation et avec l’objectif d’améliorer la qualité de ses services, la compagnie Américaine Google vient de commencer une collaboration avec des informatitiens à l’Université de Tel Aviv. Spécialisée dans le domaine de l’intelligence artificielle, l’équipe de chercheurs est dirigée par le Prof. Yishay Mansour.

Grâce à une série de travaux récents, les scientifiques israéliens ont mis au point de nouveaux algorithmes capables de changer et d’influencer les décisions d’ordinateur en temps réel. L’idée consiste à « éduquer » l’ordinateur en lui « apprenant » à mesurer le degré de chevauchement entre le résultat souhaité et le résultat proposé par le moteur de recherche. Après une période d’apprentissage pendant laquelle le moteur de recherche « fait connaissance » avec les besoins d’un internaute particulier, il devient ensuite beaucoup plus rapide et ne répète pas les erreurs d’interprétations originales.

Il convient de noter que ce nouveau projet contribue à des liens déjà trés forts entre Google et le milieu académique israélien. En fait, le directeur de la branche israélienne de Google, le Prof. Yossi Matias, est d’ailleurs lui même un membre du département d’informatique de l’Université de Tel Aviv. Dans le cas du Prof. Yishay Mansour, l’investissement de la part de Google vient de l’espoir que le travail de son équipe pourrait déboucher sur une amélioration des algorithmes utilisés dans des programmes commerciaux tels que les plateformes publicitaires AdWords et AdSense.

En savoir plus : http://www.bulletins-electroniques.com/actualites/68492.htm

Sources : Bulletins électroniques

Une pénurie mondiale de disques durs, provoquée par les inondations en Thaïlande

Le constat est le même un peu partout, des grandes enseignes informatiques aux célèbres détaillants de la rue Montgallet à Paris : le prix des disques durs a sensiblement augmenté (il a parfois même doublé), et la rupture de stock n’est souvent pas loin. « Les disques durs d’une capacité de stockage d’un téraoctet se trouvaient à 70 € il y a un mois et demi. Aujourd’hui, on les vend entre 120 et 160 € ! », explique Gauthier Picquart, co-fondateur du site Internet Rueducommerce.com. En cause, les dramatiques inondations en Thaïlande.

Alors qu’elle a fait plus de 500 morts depuis juillet dernier, et que les dégâts sont estimés à près de 1 300 milliards de bahts (environ 31,5 milliards d’euros), la catastrophe a paralysé la production de nombreuses usines du nord du pays. Sept parcs industriels et 15 000 usines ont été fermés, parmi lesquelles de nombreuses usines spécialisées dans l’électronique, qui ont fini… dans l’eau.

La Thaïlande, alternative à la Chine

Un grand nombre de sociétés étrangères (allant du textile à l’électronique, en passant par le secteur automobile) implantées en Thaïlande, sont très touchées telles Samsung, Pioneer, Canon, Ford, Mitsubishi, Toyota, Honda et Panasonic en tête. C’est aussi le cas des géants mondiaux du disque dur, Seagate, Toshiba, Hitachi et surtout l’Américain Western Digital, leader mondial avec près de 50 % de parts du marché mondial. La Thaïlande représente en effet une alternative à la Chine car la main d’œuvre y est bon marché, alors que de nombreux maillons de la chaîne de production des disques durs y sont déjà présents.

Un manque de 60 millions de disques durs

Bien que l’une des usines du site de Bang Pa-In, une zone industrielle au nord de la capitale thaïlandaise, ait redémarré la production le 30 novembre dernier, après plus d’un mois sous deux mètres d’eau, les autres bâtiments du site n’en sont qu’au stade de la réparation des machines et de la remise en état des lieux. Pire, d’autres sites du fabricant Western Digital restent inondés. L’eau restante devrait être drainée en partie dans moins d’une semaine, ce qui permettra aux autres usines de redémarrer après une phase de nettoyage et de lourds travaux , afin d’assurer la reprise complète de la production, espérée pour le prochain trimestre.

À la fin de l’année 2011, période de fêtes oblige, la demande en disques durs devrait être approximativement de 180 millions, alors que le secteur table sur près de 120 millions d’unités livrées, soit 60 millions d’unités manquantes. 60 % des disques durs de Western Digital étaient produits en Thaïlande, ce qui explique le recul de la production mondiale de disques, estimé lui à 30 %. Western Digital aurait chiffré le préjudice subi, pour le seul dernier trimestre 2011, entre 225 et 275 millions de dollars.

Un quart de la production mondiale de sliders

Une des usines Western Digital du site de Bang Pa-In était responsable du quart de la production mondiale d’une toute petite pièce indispensable à tout disque dur : le « slider », qui permet d’assurer la lecture et l’écriture des données sur le disque. Les Américains doivent donc pour le moment se fournir chez d’autres fabricants. Certains constructeurs de disques ont même d’ores et déjà relocalisé une partie de la production en dehors du royaume. Le Japonais Nidec, pesant plus de 70 % du marché mondial des moteurs de disques durs, connaît lui aussi de grandes difficultés avec ses usines thaïlandaises.

Les conditions extrêmes et strictes de l’assemblage d’un disque dur ne simplifient pas la donne : salles « blanches » d’assemblage, où la concentration particulaire est maîtrisée, humidité contrôlée au plus près… Le prix des disques durs externes, des ordinateurs de bureau comme celui des ordinateurs portables, risque donc de souffrir, un temps, de ces inondations, alors que certains observateurs y voient déjà la fin de l’ordinateur « bon marché ».

Par Rahman Moonzur

Innovation : sortez de votre garage !

Le mythe du garage

En premier lieu, il y a une légende qui a la vie dure : celle du garage. Compagnon de route du mythe de la Silicon Valley, le garage est le lieu « magique » où les innovations voient le jour.

Vous connaissez certainement messieurs Hewlett et Packard : l’histoire dit que c’est dans leur garage qu’ils inventèrent leur premier ordinateur. Steve Jobs et Steve Wozniak firent de même. Et plein d’autres. Le point commun de ces personnes : leur capacité à inventer, en véritables héros solitaires, sans avoir besoin d’être connectés au monde autour d’eux. Pour une raison simple : jusque dans les années 70, le monde concurrentiel était segmenté, la liberté d’échanges partielle, et la diffusion du savoir fragmentée.

Puis Internet arriva. Et plus ne serait vraiment comme avant.

Diffuser et innover, est ce compatible ?

Par sa capacité à propager instantanément une information, il devenait possible de connaître ce que les autres faisaient immédiatement, partager les informations par centres d’intérêts, et communiquer beaucoup plus rapidement où que vous soyez sur la planète avec vos pairs. Un risque pour certains de voir leur avantage concurrentiel éventé, une formidable opportunité pour les autres qui voyaient s’ouvrir un fabuleux potentiel de mixer les tendances, les opinions et les compétences.

Le monde a donc changé en 30 ans… et s’est mis à se dématérialiser et se connecter. Nous passons d’une économie sectorisée à une économie du savoir et de la connaissance communautaire : voilà désormais l’enjeu.

Innover, c’est risquer

Mais, autant se l’avouer : si l’innovation est un sujet sexy qui a pour objet d’ouvrir de nouvelles sources de revenus ou d’améliorer une offre existante, la criticité du sujet réside en un mot : survivre.

Dans un environnement concurrentiel exacerbé où la pression des coûts réduit la marge de manœuvre, la prise de risque est nécessaire et trouver « du nouveau » devient un défi schizophrénique : comment proposer le bon produit (ou service), au bon moment, en maximisant l’accueil des consommateurs tout en réduisant les cycles de développement, et en faisant attention à ne pas se faire doubler – voire piller – par d’autres ?

C’est là que les réseaux sociaux ont pleinement leur rôle à jouer.

L’innovation réseau

L’innovation est devenue le fruit d’un travail collectif, où c’est désormais la pertinence globale d’un puzzle de contributions diverses qui fait le succès d’une idée. A l’heure de la mondialisation, toutes les suggestions et propositions peuvent désormais percoler, se diffuser facilement… et doivent être prises en compte.

Pour l’entreprise, cette dématérialisation et fluidification des données innovantes ne doivent pas se faire n’importe comment. Il est nécessaire d’organiser ces flux de la manière la plus fluide et productive qui soit : c’est à dire sous forme de réseau social.

En intégrant l’ensemble de son écosystème (partenaires, fournisseurs, clients, consommateurs) dans un ensemble de conversations communautaires, distinctes ou convergentes, l’entreprise devient un lieu de discussion permanente au sujet des évolutions possibles de ses produits et services.

Cette mécanique conversationnelle s’articule en deux phases qui interagissent en temps réel :

Phase 1 : conversation ouverte à tout l’écosystème

L’entreprise nourrit son réseau social interne de tendances marché et de retours clients captés sur internet (via des blogs, des alertes twitter…) et irrigue les conversations des équipes marketing, R&D, commerciaux…

Parallèlement, les partenaires et fournisseurs, partie prenante du réseau social de l’entreprise, échangent avec elle sur les nouveautés à venir, les prochaines gammes, et travaillent de manière rapprochée avec les équipes développement.

Ces conversations se déroulent en interne et en externe à l’entreprise, de concert et sans ligne de démarcation, tout en conservant l’intégrité et la confidentialité des données. C’est l’entreprise et ses équipes qui pilotent, depuis sa plateforme sociale, les échanges et qui peuvent intervenir dans les débats

Phase 2 : conversation restreinte à l’entreprise

Peu à peu, les éléments récoltés viennent s’agréger et se concaténer à des projets internes. La synthèse des signaux issus des clients, consommateurs et partenaires permet d’alimenter dynamiquement le débat, et d’impliquer les bonnes personnes au bon moment. Les compétences sont mélangées et optimisées, et il est même possible à nouveau de faire intervenir certaines personnes externes pour tester des hypothèses (design, fonctionnalités, prix…) concernant un nouveau produit ou service.

Les projets collaboratif naissent, jusqu’à leur conclusion (sortie de l’innovation ou arrêt), avec une identification des talents qui ont participé au processus.

Ces deux phases itératives et interactives, proches des méthodologies de design thinking et d’open-innovation, sont très orientées « essai-erreur » et permettent d’accélérer la prise de décision par la confrontation de points de vues autour d’hypothèses successives. Et seule une plateforme sociale permet de la mettre en œuvre sans perdre de temps (réunions…) ni d’informations (e-mails…)

Éradiquer le syndrome « Not Invented Here »

Si je devais résumer les facteurs clés de l’innovation en entreprise, je donnerais ces quatre points :

  • C’est avant tout un état d’esprit collectif, basé sur le partage ;
  • C’est être ouvert sur son écosystème : clients, partenaires, salariés ;
  • Ça ne se décrète pas, c’est une dynamique à susciter ;
  • C’est être à l’écoute de l’interne et de l’externe.

L’innovation n’est plus l’apanage de certains experts ou « pensants ». Il faut imaginer les nouvelles idées comme un flux constant où chacun peut apporter sa pierre au bon moment, selon ses compétences et ses attentes. Décréter que l’innovation se partage, qu’elle est une sorte de « cocktail » dont il s’agit de trouver le bon dosage pour le meilleur goût, est le meilleur moyen d’éradiquer le syndrôme « Not Invented Here » et de le remplacer par « Prenons le meilleur de partout ».

Par Damien Douani, Social media expert chez blueKiwi Software, spécialiste européen du logiciel de Réseaux Sociaux pour Entreprise

 

À lire aussi :

L’innovation en France : 8 priorités pour la dynamiser

Les entreprises européennes ont augmenté leurs dépenses de R et D en 2010

Un analyseur énergétique, lauréat du prix « Fibre de l’Innovation 2011 »

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

REACH : les news du mois de décembre (1/2)

Poste à pourvoir à l’ECHA

(29/11/2011) L’ECHA a publié une nouvelle offre d’emploi. Cette offre peut être consultée à l’adresse http://echa.europa.eu/opportunities/positions_en.asp. La date limite d’envoi des candidatures est le 16 janvier 2012.

La Cour de cassation assimile le toluène au benzène au titre des maladies professionnelles

(01/12/2011) Dans un arrêt du 1er décembre, la Cour de cassation fait entrer le toluène (solvant couramment employé à la place du benzène) dans le cadre des produits pouvant provoquer des hémopathies au titre du tableau n° 4 des maladies professionnelles.

La preuve de la dangerosité du benzène n’est plus à faire. Celui-ci figure au titre des produits provoquant des maladies professionnelles, notamment dans les tableaux n° 4 (hémopathies) et 4 bis (affections gastro-intestinales). Mais concernant des substances proches comme le toluène, la réglementation, aujourd’hui, ne fait pas de lien entre leur nocivité et certaines pathologies professionnelles normalement attribuées à l’exposition au produit qu’ils sont censés remplacer.

Seules 20% des entreprises sont non conformes à REACH

L’Agence européenne des produits chimiques (ECHA) a achevé une deuxième campagne de contrôle de la conformité des entreprises avec le règlement REACH. Le rapport révèle des résultats à peu près semblables à la première campagne menée en 2009.

La campagne de contrôle qui s’est déroulée de mai 2010 à avril 2011 a porté sur près de 800 entreprises dans 19 pays de la zone économique européenne. Elle fait suite à la première série de 2009 qui s’inscrit dans le programme REACH in Force 1 (REF1) du Forum d’échange de l’Echa.

Certaines inspections ont porté à la fois sur la conformité concernant l’enregistrement (ou le pré-enregistrement) et sur les fiches de sécurité (FDS) dans 94 % des cas (les 6 % restant n’ont porté que sur les FDS). Les inspections ont été effectuées chez des fabricants, des importateurs, des représentants et des utilisateurs en aval. Ces contrôles représentent la vérification de près de 2000 substances (ou mélanges).

Le rapport précise que des non-conformités ont été observé dans 152 entreprises, c’est-à-dire 20 % des entreprises inspectées. Les non-conformités concernent la procédure d’enregistrement (25), les FDS (123) et d’autres défauts (18). Au final, les inspecteurs ont infligés 2 blâmes, 36 lettres de rappel, 42 injonctions administratives, 6 amendes, 3 plaintes et 108 autres procédures.

Pour l’ECHA, les résultats de cette campagne de contrôle sont sensiblement identiques à ceux de 2009 bien que les non-conformités soient en baisse (20 % contre 24 % en 2009).

http://echa.europa.eu/news/na/201112/na_11_52_report_survey_successful_registrants_en.asp
http://echa.europa.eu/doc/about/organisation/forum/forum_for_exchange_on_enforcement_en.pdf

IUCLID

(07/12/2011) Pour garder les utilisateurs à jour sur l’état actuel du projet IUCLID, et les jalons futurs importants, les sections « IUCLID 5 projets » du site web IUCLID ont été mises à jour. Les informations importantes concernant les futures versions sont disponibles sur le « développement » de la page Web.
http://iuclid.eu/index.php?fuseaction=home.project
Développement et maintenance : http://iuclid.eu/index.php?fuseaction=home.development

Adoption de 13 avis sur des propositions de classement et d’étiquetage harmonisées

(09/12/2011)
Le comité d’évaluation des risques (CER) a adopté 13 avis sur des propositions de classement et l’étiquetage harmonisés dans toute l’Europe, au cours des 18è et 19è meetings. Les substances concernées sont :

  • brai de goudron de houille à haute température (Pitch, coal tar, high temp) (CTPH)
  • 1-éthylpyrrolidine-2-one (NEP)
  • 1-Octadecanamine (Octadecylamine)
  • (Z)-octadec-9-enylamine
  • Amines alkyles de suif hydrogéné
  • Amines alkyles de coco
  • Amines alkyles de suif
  • Phosphure d’aluminium
  • Diphosphure de trimagnésium
  • Pentadécafluorooctanoate d’ammonium (APFO)
  • Acide perfluorooctanoïque (PFOA)
  • 1,3-cyclohexanedione, 2-[2-chloro-4-(methylsulfonyl)benzoyl] (Sulcotrione)
  • Arséniure de gallium

Plus d’information sur : http://echa.europa.eu/news/na/201112/na_11_54_rac_18_19_en.asp

Site de l’ECHA

Le site internet de l’ECHA (http://echa.europa.eu) évolue à partir du 15/12/2011.

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Le Canada, premier pays à se retirer du protocole de Kyoto

Le retrait du Canada du protocole de Kyoto « va à l’encontre des efforts de la communauté internationale et est regrettable », a déclaré le porte-parole du ministère chinois des Affaires étrangères, Liu Weimin, lors d’un point de presse régulier.

Premier émetteur de GES (Gaz à Effet de Serre) au monde, la Chine, en tant que pays émergent, n’est pas concernée par les contraintes de réductions d’émissions prévues par Kyoto.

De retour de la conférence sur le changement climatique de Durban, en Afrique du Sud, le ministre canadien de l’Environnement, Peter Kent, a justifié cette décision notamment par le fait que le Canada, dont les émissions ont fortement augmenté, courait le risque de devoir verser des pénalités de 14 milliards de dollars s’il restait signataire du protocole.

Le protocole de Kyoto, signé en 1997 et entré en vigueur en 2005, est le seul outil juridique contraignant limitant les émissions de gaz à effet de serre, à l’origine du réchauffement de la planète.

Kyoto « ne couvre pas les deux plus grands pays émetteurs, les États-Unis et la Chine et donc ne peut pas fonctionner », a poursuivi Peter Kent devant la presse à Ottawa.

Le train de mesures adopté à Durban à l’issue d’incroyables tractations qui ont failli tourner au fiasco, prévoit une feuille de route vers un accord en 2015 (entrée en vigueur après 2020) englobant tous les grands pays émetteurs de gaz à effet de serre, États-Unis et Chine en tête.

(Source et crédit photo : AFP)

 

À lire aussi :

Chiffre clé : réduire de 70 % les émissions de gaz à effet de serre sauvera la banquise

CO2 : Plus il y en a, mieux c’est !

Des câbles blindés pour protéger les données

La première étude indépendante au monde évaluant la résistance des câbles à paires torsadées non blindées et à paires torsadées blindées aux rayonnements électromagnétiques dans les environnements 10 Gigabit Ethernet a été financée par les six principaux fabricants de câbles au monde. Elle a été menée par le GHMT (Gesellschaft für Hochfrequenz- Messtechnik mbh AG), un important laboratoire de test allemand indépendant, spécialiste de la sécurité des transmissions physiques dans les réseaux, les data centers et les environnements industriels.
 
Lors de ces tests pratiques, les systèmes ont été exposés aux sources de perturbations habituelles des bureaux et des centres informatiques, talkies-walkies, téléphones GSM, cordons d’alimentation et lampes fluorescentes. D’après le rapport, les analyses issues des mesures en laboratoire sur trois systèmes U/UTP (paires torsadées non blindées), un système F/UTP (paires torsadées écrantées) et deux systèmes S/FTP (paires torsadées super-blindées) ont montré que les systèmes blindés présentent des caractéristiques électromagnétiques nettement plus sûres que les systèmes de câblage non blindés.

Bien que les systèmes S/FTP  et U/UTP de pointe puissent afficher d’excellentes propriétés de transmission, les résultats de l’étude montrent que d’autres facteurs liés à l’environnement des câbles doivent être pris en compte. Les systèmes blindés offrent de bien meilleures valeurs de paradiaphonie exogène cumulée (PS ANEXT) et d’affaiblissement de couplage. L’étude indique que les systèmes de câble ayant les meilleures valeurs d’affaiblissement de couplage obtiennent également de meilleurs résultats de compatibilité électromagnétique aux tests d’immunité (actifs). L’affaiblissement de couplage est le seul paramètre qui permette de comparer les caractéristiques de CEM des systèmes de câblage.
 
« Cette nouvelle étude démontre que, pour les data centers de haute performance, les câbles S/FTP sont les plus à même de garantir l’intégrité des échanges de données, explique dit Zoran Borcic, Directeur Produits Câbles de données chez Draka. Grâce à GHMT et aux autres partenaires de l’étude, nous avons pu démontrer que les câbles blindés constituaient un élément essentiel pour sécuriser  le trafic en 10 Gigabit Ethernet. »
 
Le trafic de données dépassant aujourd’hui 10 Gb/s, et l’espace disponible se raréfiant en raison du nombre de câbles, l’influence de la CEM sur les flux de données ne doit pas être négligée. Pour Draka qui conçoit et fabrique des câbles Ethernet UTP et STP, ce rapport apporte aux clients des informations aussi essentielles que rassurantes, leur permettant de mieux appréhender les multiples facteurs susceptibles d’influer sur la sécurité et l’intégrité des transmissions de données de haute performance.
  

La liste des ICPE soumises à la TGAP se voit modifiée

La TGAP (Taxe Générale sur les Activités Polluantes) a été créée par la loi de finances pour 1999, dans le but de regrouper cinq taxes fiscales ou parafiscales auparavant affectées à l’ADEME (Agence De Maîtrise de l’Énergie). Elle est dûe notamment par certains exploitants dinstallations classées pour l’environnement (ICPE) soumises à autorisation, au moment de la délivrance de cette autorisation, puis chaque année, au titre de l’exploitation de l’installation.

Les installations concernées sont définies dans l’annexe figurant à l’article R 511-9 du code de l’environnement. Le décret n°2011-1563 du 17 novembre 2011 modifie cette liste, afin de la mettre en cohérence avec les modifications précédemment apportées à la nomenclature des ICPE, et d’aligner l’expression des différentes capacités des activités concernées.

Les rubriques ICPE concernées par ces modifications sont les suivantes :

  • 1150 : fabrication industrielle de, ou à base de, substances et mélanges particuliers ;
  • 1175 : emploi ou stockage de liquides organohalogénés pour la mise en solution, l’extraction, etc., à l’exclusion du nettoyage à sec visé par la rubrique 2345 et du nettoyage, dégraissage, décapage de surfaces visé par la rubrique 2564 et des substances ou mélanges classés dans une rubrique comportant un seuil AS ;
  • 1200 : fabrication, emploi ou stockage de substances ou mélanges de comburants tels que définies à la rubrique 1000 à l’exclusion des substances visées nominativement ou par famille par d’autres rubriques ;
  • 2630 : fabrication de, ou à base de, détergents et savons ;
  • 1151 : emploi ou stockage de ou à base de substances et mélanges particuliers.

Le calcul de la taxe résulte de la mise en œuvre d’un cœfficient multiplicateur compris entre 1 et 10, défini par décret en Conseil d’État pour chaque activité, en fonction de sa nature et de son volume. Le montant de la taxe dûe chaque année par l’établissement au titre de chacune de ses activités est ainsi égal au produit du tarif de base (335 euros pour les installations EMAS ou ISO14001 et 375,54 euros pour les autres installations au 01/01/2007) et du coefficient multiplicateur.

Or, contrairement à ce qui est annoncé par la notice de présentation du décret n°2011-1563 du 17 novembre 2011, les conditions de taxation (seuils et coefficients) sont modifiées pour certaines rubriques. Les installations de fabrication industrielle de détergents et savons par transformation chimique, visées par la rubrique 2630 de la nomenclature des ICPE, sont désormais soumises à un coefficient égal à 6, quelle que soit leur capacité. Les autres fabrications industrielles sont toujours soumises à un coefficient de 2, mais, désormais, quelle que soit leur capacité. Enfin les installations d’emploi ou de stockage de substances et mélanges particuliers, relevant de la rubrique 1151, sont soumises à la TGAP avec un coefficient multiplicateur égal à 6. Celles classées sous le régime AS, au titre de la même rubrique, se voient appliquer un coefficient de 10.

Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement

 

À lire aussi :

Un contrôle périodique renforcé pour les installations classées soumises à déclaration

Le dispositif des certificats d’économies d’énergie (CEE) se renforce

ICPE : deux dispositions jugées contraires à la Constitution

 

Pour aller plus loin :

Téléchargez gratuitement la nomenclature ICPE ici

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Gaz de schiste : suite ou fin ?

Le gouvernement a annulé le 4 octobre dernier trois permis d’exploration de gaz de schiste, dont celui de Total car ces trois explorations ou exploitations prévoyaient la fracturation hydraulique qui a été interdite par une loi votée en juin car elle présente des risques de pollution des nappes phréatiques.

Pour autant, on ne se dirige pas encore vers une interdiction totale de l’exploitation des gaz de schiste en France. Le point sur la situation en France et les développements probables pour l’année qui vient, alors que d’autres pays, comme l’Algérie, ont annoncé des projets d’exploitation pour 2012.

Dans le cas de l’Américain Schuepbach (permis en Ardèche et dans le Larzac), les rapports de l’entreprise mentionnaient distinctement le projet d’utiliser la fracturation hydraulique, donc la demande par l’entreprise américaine de permis d’exploitation a été purement et simplement annulée.
En ce qui concerne l’entreprise Total, également candidate à l’obtention de permis d’exploitation, la situation est différente. L’entreprise française s’engageait dans son rapport à ne pas utiliser cette technique à Montélimar.

Or, d’après la Ministre de l’Écologie, Total veut « continuer à rechercher du gaz de schiste avec d’autres techniques que la fracturation hydraulique, mais on sait qu’aujourd’hui que toutes autres techniques ne sont pas opérationnelles ». Le groupe français s’est dit « très surpris » par cette décision de la ministre et dit attendre « de recevoir la notification de cette abrogation pour comprendre sur quelles bases légales ce permis serait abrogé ».

De nombreuses recherches sur les techniques de fracturation

Depuis, lors d’un débat contradictoire entre José Bové, député européen Europe Écologie Les Verts, et Christophe De Margerie, président de Total, celui-ci a annoncé que le pétrolier allait faire prochainement des recours en justice contre la décision du gouvernement d’annuler son permis d’exploration « gaz de schiste » à Montélimar. Affaire à suivre donc. La question qui se pose est la suivante : existe-t-il d’autres techniques que celle de la fracture hydraulique, interdite en France, pour exploiter les gaz de schiste ? Plusieurs techniques sont actuellement développées par les chercheurs et pourraient, à terme, devenir des solutions alternatives à la fracturation hydraulique.

Ces techniques de fracturation de la roche font aujourd’hui l’objet de recherches intenses : la première est la fracturation par arc électrique. Il s’agit de faire subir à la roche de violents chocs électriques pour la fracturer. Une autre, brevetée et commercialisée de manière très limitée pour le moment par une entreprise canadienne, consiste à remplacer l’eau par du propane. Une dernière formule de fracturation, celle dite de « fracturation pneumatique », consiste à injecter non pas de l’eau mais de l’air comprimé dans la roche mère afin de la désintégrer.

Ces techniques ont même déjà fait l’objet du dépôt de plusieurs brevets, même si leur efficacité et leurs effets sur le sous-sol ne sont pas encore bien connus, comme l’a précisé la Ministre de l’Écologie. Selon les écologistes, toutes ces techniques feraient courir les mêmes dangers à l’environnement et à la santé humaine avec comme conséquence irrémédiable la disparition des sources, des nappes phréatiques endommagées, des glissements de terrain et même comme en Angleterre récemment (juin 2011) des mini tremblements de terre.

3 permis abrogés sur 64 !

Mais ce n’est pas tout. Au-delà des trois permis refusés il y a quelques mois, d’autres demandes restent pour le moment en suspens : en effet, 61 autres permis de recherche de pétrole ou de gaz sont en effet toujours en vigueur. D’après le gouvernement, pour ces autres permis toujours valides, les entreprises n’entendent pas rechercher des gaz et huiles de schiste. Tous se sont engagés à ne pas recourir à la fracturation hydraulique et des « inspections » doivent être menées pour s’en assurer.

Par la voix de son porte-parole Guillaume Vermorel, référent « gaz de schiste », les écologistes ont dénoncé loi UMP (du 13 juillet 2011) interdisant la fracturation hydraulique. Après avoir accordé 64 permis en 2010, le gouvernement a tenté en 2011 une opération de démobilisation des opposants en votant une loi « anti fracturation hydraulique ». Selon ce dernier, « cette loi volontairement très permissive n’annule que 3 permis sur les 64 existants, les permis où les citoyens et les élus se sont le plus mobilisés ».

Le rôle décisif de la Commission nationale d’orientation 

Dans le permis d’Alès, il s’agit d’une recherche d’hydrocarbures tout à fait conventionnelle comme il en existe dans notre pays depuis des décennies. Il concerne quelques communes de l’Ardèche directement limitrophes avec le Gard.
Cette exploration ou exploitation traditionnelle d’hydrocarbures conventionnels mérite une vigilance des pouvoirs publics : en effet, tout naturellement depuis la promulgation de la loi du 13 juillet au Journal Officiel de la République, la fracturation hydraulique est interdite. Il faudra donc que l’État se soucie du style d’exploitation qui a eu lieu depuis lors, afin d’en apporter si nécessaire, toutes modifications utiles.

La loi (n°2011-835) du 13/07/2011 a été publiée le 14/07/2011 et s’appuie sur la Charte de l’environnement de 2004 et sur le principe d’action préventive et de correction prévu à l’article L110-1 du Code de l’environnement, pour interdire sur le territoire national ce type d’exploration et d’exploitation.

L’article 2 porte création de la Commission nationale d’orientation, de suivi et d’évaluation des techniques d’exploration et d’exploitation des hydrocarbures liquides et gazeux. Elle a notamment pour objet d’évaluer les risques environnementaux liés aux techniques de fracturation hydraulique ou aux techniques alternatives.

Elle émet un avis public sur les conditions de mise en œuvre des expérimentations, réalisées à seules fins de recherche scientifique sous contrôle public. Pour les écologistes, la composition de cette Commission nationale d’orientation sera à suivre de près ainsi que les contrôles qu’elle effectuera. En effet, les amendes correspondant à l’usage de méthode de fracturation interdites par la loi atteignent 75 000 euros au maximum. De nombreuses organisations environnementales affirment qu’une telle amende n’a pas d’effet suffisamment dissuasif pour les entreprises qui exploitent ces ressources naturelles.

Par Pierre Thouverez

À lire également :

L’optimisation des process dans un centre de tri

En 1989, une des plus modernes installations de tri a été mise en service à proximité de Lille. Avec 75 000 tonnes de déchets ménagers annuels, ce qui correspond approximativement à un tiers de la quantité totale de déchets ménagers de la ville, avec un taux de valorisation de 90 %, Triselec fait partie des plus grosses installations françaises.

Triselec est une usine bi-flux : elle reçoit deux grandes familles de déchets à l’entrée pour donner 16 produits recyclables en sortie. D’un côté, les matériaux usagers en verre, plastique et métal, et, de l’autre, les papiers et les cartons, sont pré-triés puis triés. Réalisées auparavant manuellement, les opérations de tri sont actuellement largement automatisées. A partir d’une position centrale, les matériaux usagers sont acheminés par tapis roulants vers les process de tri qui font appel à des technologie variées (tri aérolique, courant de Foucault, cribles divers, régulateurs…).

Les papiers et les cartons sont triés immédiatement et manuellement par types. Concernant les verres, les papiers, les métaux et les déchets en plastique, une première distinction est faite entre les matériaux ultra légers, de bonne qualité et granuleux, les matériaux ultra légers étant immédiatement séparés. Le verre est séparé en trois types – fin, gros et moyen.

En 2010, Lille a augmenté la production de matériaux secondaires à 85 000 tonnes, ce qui correspond à un taux de valorisation de 91 %. De ce fait, cette installation de tri qui constitue d’ores et déjà un modèle pour les professionnels de l’industrie du recyclage, est la plus productive en Europe.

L’installation de tri de Lille a été développée et construite par le groupe Vauché, situé à Sedan, spécialisé dans les unités complètes de tri et de compostage. « Pour  Lille, il a fallu optimiser les différentes étapes de tri. En effet, la performance et la rentabilité des installations de tri sont cruciales, exactement comme pour les autres installations industrielles », explique Fabrice Van de Voorde, directeur des projets chez Vauché.

Preformance et rentabilité restent les maîtres mots

Afin d’optimiser les process, Vauché a opté pour une solution d’automatisme de la société Pilz : un système de commande programmable PSS 3000 qui pilote l’ensemble des process et surveille les fonctions de sécurité de l’installation, combiné au système d’entrées / sorties décentralisées PSSuniversal. Cette solution permet de s’adapter avec flexibilité aux exigences de l’application. Une installation complète et physiquement mixte est possible, mais en plus, des applications purement standard peuvent être couvertes pas le système. Les deux parties de commande – standard et sécurité – sont liées par une structure physiquement mixte sans rétroaction et séparées logiquement.

Avec PSSuniversal, le « principe de validation local » compare les signaux de commutation en entrée de la commande de process au niveau du terrain avec les informations de validation de sécurité d’un système de commande PSS. La commande de process peut commuter une sortie uniquement lorsque l’on est en présence d’une validation de sécurité. Grâce au principe de validation local ou l’association étroite des techniques de sécurité et de commande, il est possible de réduire les temps de réponse de 60 %. L’absence de rétroaction est aussi bien garantie que la séparation claire avec des mécanismes de sécurité adaptés qui empêchent toute « fraudabilité », qu’elle soit involontaire ou intentionnelle.

Le système d’entrées / sorties décentralisées est composé d’une tête de station qui gère l’ensemble des tâches de communication et de traitement. Il prend en charge la connexion à tous les bus de terrain standard et courants ainsi qu’à Profinet et au bus de sécurité SafetyBUS. En fonction des besoins particuliers, des supports sont placés à côté de la tête de station et prennent en charge des modules électroniques raccordables. Il est ainsi possible de connecter jusqu’à 64 modules par plate-forme. Sans borniers externes, ni opérations de câblage, les erreurs de câblage sont exclues. Cette conception modulaire présente aussi des avantages lors du remplacement d’un appareil. En effet, même les modules d’entrées / sorties de sécurité peuvent être ôtés de la combinaison de modules pendant le fonctionnement, sans que cela entraîne pour autant un arrêt ou un démantèlement du système.

La mise en service de l’installation a été facilitée par deux outils logiciels : PSSuniversal Assistant qui permet de configurer rapidement et simplement une solution personnalisée sur le PCet l’outil de démarrage PSSuniversal qui autorise le test de la périphérie indépendamment de la mise en service du réseau et de la commande.

K.E.

De nouveaux smartphones Panasonic bientôt en Europe

Panasonic, qui propose déjà des smartphones au Japon, espère en vendre 1,5 million pour commencer l’année prochaine en Europe avec un premier modèle, avant d’élargir son offre pour profiter de l’expansion de ce marché sur le Vieux continent où dominent des rivaux étrangers, dont l’américain Apple.

Le groupe japonais espère par la suite augmenter progressivement ses ventes de téléphones mobiles pour atteindre 15 millions d’unités en 2015-2016 dans le monde, dont 6 millions au Japon et 9 millions à l’extérieur (Europe, Asie, Chine et États-Unis).

À l’instar de plusieurs autres fabricants nippons de téléphones portables, Panasonic avait été forcé de délaisser le marché étranger, à cause de difficultés à concevoir des modèles convenant tant aux Occidentaux qu’aux Japonais, en termes de fonctions, esthétique et prix. Panasonic s’était replié en 2005 sur le marché nippon.

Toutefois, grâce à l’emploi du système d’exploitation (OS) Android de Google et à des appareils de forme quasi-standard équipés d’un grand écran tactile, Panasonic est désormais plus à même de répondre aux attentes de la clientèle étrangère. La société compte en outre commercialiser des appareils basés sur son expérience au Japon.

Le premier modèle occidental sera « ultra-fin », étanche et doté d’un écran organique électroluminescent (OLED).

Les mobiles destinés au marché étranger seront produits dans une usine de Malaisie, tout comme le sont déjà ceux pour le Japon où Panasonic est un des acteurs majeurs du secteur aux côtés de ses compatriotes Sharp, NEC ou Fujitsu.

(Source : AFP)

 

À lire aussi :

Transformer son smartphone en microscope, c’est possible !

iPhone 4S : déjà plus d’un million de préventes

Déployer des applications d’entreprise sur les smartphones

Grid4EU : un projet européen ambitieux sur les smart grids

Piloté par ERDF, ce programme rassemble un consortium de six distributeurs européens, outre la France, l’Espagne (Iberdrola), l’Italie (Enel), la Suède (Vattenfall), l’Allemagne (RWE), et la République Tchèque (CEZ Group). Selon le communiqué d’ERDF, son programme est conséquent : « Il contribuera à expérimenter le potentiel des smart grids dans le domaine de l’intégration des énergies renouvelables, du développement des véhicules électriques, de l’automatisation des réseaux, du stockage de l’énergie, de l’efficacité énergétique et des solutions d’effacement. Grid4EU repose sur six projets qui seront testés pendant quatre ans dans chaque pays européen représenté dans le consortium. Ce programme favorisera la complémentarité entre les différents projets avec notamment des actions transverses de recherche et de partage des résultats entre les différents distributeurs concernés. »

Pour la France, le projet se dénomme Nicegrid, et est basé dans la ville éponyme, Nice dans les Alpes-Maritimes. Il bénéficiera à lui seul d’un budget total de 28 millions d’euros. Selon le représentant de la Commission Européenne, Patrick Van Hove, ce programme doit répondre à trois objectifs :

  • favoriser la coopération entre les acteurs ;
  • favoriser l’innovation (tester de nouvelles technologies, de nouveaux modèles économiques) ;
  • et partager le savoir en diffusant les résultats obtenus sur les démonstrateurs.

Ceux-ci devront évaluer les différentes technologies de réseaux intelligents dans tous les domaines énoncés par ERDF. Chaque projet pourra ainsi évoluer en fonction des avancées des cinq autres partenaires. Grid4EU s’appuie également sur les compétences d’autres partenaires industriels et scientifiques, il fédère ainsi une trentaine de partenaires en provenance d’une dizaine de pays de l’union européenne.

(Sources : ERDF, Actu-Environnement)

Par Claudine / blog EcoCO2

 

À lire aussi :

La « filière smart grid » reste à inventer

Optimiser l’énergie électrique des baies informatiques avec les ePDUs d’Eaton

« En ce qui nous concerne, deux facteurs principaux régissent aujourd’hui l’activité des centres de données : la demande croissante en électricité et la hausse des coûts de cette dernière », déclare Stefan Coote, en charge des solutions Eaton pour petits et moyens datacenters.

Pour aider les responsables des datacenters à relever ces défis, Eaton a doté ses ePDU Managed et Advanced Monitored de fonctionnalités telles que la surveillance ultra précise de la consommation en kilowattheures. Eaton a également lancé une nouvelle gamme à commutateur (Switched) qui permet de couper et de redémarrer les matériels informatiques à distance.

« Grâce à ces fonctions de surveillance et de gestion, les plus évoluées du marché, les nouveaux ePDU donnent une parfaite compréhension de la consommation énergétique du datacenter, quelle que soit sa taille », explique Stefan Coote.

Des mesures précises pour un contrôle total de l’alimentation

« La plupart des centres de données tombent en panne d’électricité parce qu’ils ne connaissent pas leurs véritables besoins ou à quel point ils sont proches de leur limite de consommation maximale. Le meilleur moyen d’obtenir des informations précises consiste à gérer chaque serveur de manière individuelle. Nos ePDUs offrent une vision exhaustive de ce qui se passe dans la salle informatique et permettent aux responsables de contrôler leurs coûts d’exploitation et de suivre leur consommation au niveau des baies ou des serveurs individuels », poursuit Stefan Coote.

Au-dessus de 2 ampères, les modèles d’ePDU les plus évolués d’Eaton peuvent mesurer la consommation d’un serveur avec une marge d’erreur de 1 %. Ils permettent également de commuter et de séquencer des prises et des groupes de prises.

Tous les ePDU d’Eaton bénéficient de leur intégration dans Intelligent Power Manager (logiciel de gestion intelligente de l’énergie). A partir d’un écran et d’un navigateur internet standard, l’utilisateur peut visualiser la consommation de tout le centre de données en un seul coup d’œil, puis descendre au niveau de la prise individuelle s’il le souhaite.

Grâce au système de montage breveté d’Eaton, les ePDUs s’adaptent à tout type de baie, de 42U par exemple.

Electrical Sector d’Eaton est un acteur majeur au niveau mondial en contrôle, distribution de puissance, onduleurs et automatismes industriels. Eaton propose une offre électrique globale, comprenant les gammes de produits Cutler-Hammer®, Moeller®, Powerware®,Holec®, MEM®, et Santak®, pour fournir la qualité d’énergie indispensable à de nombreux applications.

Eaton Corporation est une société diversifiée, spécialisée dans la maîtrise et la transmission d’énergie, avec un chiffre d’affaires de 13,7 milliards de dollars en 2010. Célébrant son centième anniversaire en 2011, Eaton est un leader mondial dans les systèmes assurant la qualité, la distribution et le contrôle de l’alimentation électrique ; les composants, systèmes hydrauliques et services associés pour équipements industriels et mobiles ; les systèmes d’alimentation en carburant pour l’aérospatiale, les systèmes hydrauliques et pneumatiques pour avions civils et militaires ; les chaînes cinématiques et systèmes de propulsion pour camions et automobiles, optimisant performance, consommation et sécurité. Eaton compte environ 73 000 employés et commercialise ses produits dans plus de 150 pays dans le monde.

Pour plus d’informations, consultez www.eaton.com

Le pneu du futur : sans air, increvable

Fournir le même niveau d’absorption des chocs qu’un pneu haut de gamme traditionnel, à savoir un pneu « gonflable », tout en en minimisant l’usure et en le rendant increvable : c’est le défi que s’est lancé le fabricant de pneus japonais Bridgestone, qui présente cette semaine son pneu increvable sans air, au salon de l’automobile de Tokyo 2011, le Tokyo Motor Show.

Se basant sur un système complexe de rayons en résine thermoplastique – résine rendue malléable par application de chaleur lui permettant d’être aisément coulée dans un moule ou « extrudée », puis durcissant à nouveau en refroidissant – le pneu conçu par Bridgestone serait à même de relever le défi, c’est-à-dire un niveau d’absorption des chocs équivalent à un pneu standard, mais éliminant les contraintes habituelles telles que surveiller la pression des pneus ou changer de roue en cas de crevaison.

Le « Tweel » de Michelin

L’idée semble assez similaire au Tweel du fabricant français de pneumatiques Michelin, dont le premier prototype avait déjà été présenté en 2005, ainsi qu’aux pneus des Rovers lunaires développés par la NASA, à l’époque des missions Apollo. Le pneu de Bridgestone comprend à la fois le pneu et la jante, tout d’un bloc. La semelle du Tweel, elle, était soutenue par des lamelles de caoutchouc relativement fermes afin d’empêcher que la roue se déforme de manière excessive, créant toutefois un ensemble d’une assez grande souplesse capable d’absorber des impacts autrement plus dommageables pour un pneu traditionnel.

Deux jeux de rayons

Bridegestone se serait inspiré de ses deux prédécesseurs, tout en améliorant le modèle et la conception du pneu. Les rayons en résine thermoplastique partent du centre de la roue, le moyeu, jusqu’aux extrémités, au pourtour de la roue, dessinant ainsi un angle de 45 degrés. Ce premier jeu de rayons est complété d’un second jeu, de l’autre côté de la roue, dessinant aussi un angle de 45 degrés, mais dans la direction opposée. Cette combinaison de deux jeux de rayons doit ajouter force, résistance, stabilité et flexibilité à l’ensemble.

En plus de pouvoir rouler sur du verre cassé, voire même sur une herse dressée par la police, ce pneu increvable est conçu à base de caoutchouc et de résine thermoplastique recyclable. Lorsque la chape du pneu est lisse et usée, rendant alors le pneu dangereux et inutilisable, le pneu peut être recyclé.

Tokyo Motor Show 2011

La 42e édition du salon de l’Automobile de Tokyo se tient du 2 au 11 décembre 2011. À compter de cette année, il aura lieu entre le Salon de Los Angeles, à la mi-novembre, et le Salon International de l’automobile de Détroit, à la mi-janvier. Ayant élu domicile au Tokyo International Exhibition Center (le fameux Tokyo Big Sight), le salon dispose de 72 290 m² d’espaces d’exposition.

Par Rahman Moonzur

 

À lire aussi :

Des pneus qui « roulent mieux »

DIAPORAMA – Ces prototypes qui nous racontent le monde de demain

DIAPORAMA – Salon de l’Automobile de Shanghaï 2011

Les voitures en libre service Autolib’ enfin disponibles à Paris et en Ile-de-France

Le lancement grandeur nature d’Autolib’ est, selon le maire PS de la capitale, « une révolution » qui améliorera « la qualité de vie » dans Paris et sa métropole.

« Il y a un peu plus de quatre ans, ici même nous inaugurions Vélib, c’était une innovation et un risque qui déclenchaient le scepticisme et le sarcasme », a rappelé le maire aux côtés de Jean-Paul Huchon, le président de la région Ile-de-France qui cofinance le projet à hauteur de 4 millions d’euros. « La naissance d’Autolib’ aujourd’hui correspond à un engagement pris devant les Parisiens avant qu’ils ne me réélisent », a-t-il ajouté.

Pour Vincent Bolloré dont le groupe industriel produit les voitures électriques mises en service, « maintenant il faut imaginer la ville sans l’odeur et les bruits du pot d’échappement ». « On pourra passer derrière une voiture Autolib’ avec une poussette d’enfant sans être intoxiqué. C’est une première mondiale », a-t-il lancé.

Autolib’ se veut un mode complémentaire de déplacement en milieu urbain, aux côtés des transports en commun et des Vélib’ qui connaissent un franc succès.

« D’ailleurs les stations Autolib’ ont volontairement été installées vers les stations de métro et les gares », avait expliqué à l’AFP Annick Lepetit, adjointe PS aux transports et présidente du syndicat mixte Autolib’, avant le lancement.

Philosophie du projet : inciter à renoncer à sa voiture en offrant l’usage ponctuel de véhicules disponibles, peu chers et écolos. Une voiture de ce type est à même de se substituer à 5 voitures privées, selon une étude municipale.

L’utilisateur pourra ainsi, comme pour Vélib’, prendre une voiture dans une station et la déposer dans une autre, selon un système de « trace directe ».

Si de nombreuses communes ont adhéré au projet, d’autres jugent le système coûteux et doutent de sa rentabilité. Certains loueurs professionnels dénoncent même une « concurrence déloyale ».

De même, les écologistes et élus EELV, hostiles au projet, estiment qu’Autolib va « réorienter vers l’automobile ceux qui avaient choisi les transports en commun », et que le choix de moteurs électriques conforte l’énergie nucléaire.

 

À lire aussi :

Le smart grid tremplin de la voiture électrique ?

Venez recharger votre voiture électrique… chez des inconnus !

 

Comment définir la procédure de maîtrise des documents ?

Pourquoi une procédure de maîtrise des documents?

Dans tout système de management (qualité, environnement, sécurité…), il est important de maîtriser non seulement les documents crées en interne (procédure, instruction, par exemple), mais également ceux qui proviennent de l’extérieur (normes liées aux produits, réglementations, informations clients, par exemple).

Quels mécanismes faut-il maîtriser?

Toute information utilisée dans le cadre des activités d’un organisme doit être exacte afin d’éviter toute situation non conforme. Pour cela, il est important de maîtriser les mécanismes suivants :

Pour les documents internes

  • Approuver les documents avant diffusion : L’information doit être exacte.
  • Identifier les modifications apportées aux documents ayant été modifiés : L’information modifiée doit être facilement identifiable pour le lecteur.
  • Assurer la disponibilité des documents applicables : L’information doit être accessible pour le lecteur. Aucune ambiguïté ne doit exister quant à la version du document. Le document est dans sa bonne version.
  • Identifier les documents périmés seulement s’ils cohabitent avec les documents applicables : L’information doit être exacte.

Pour les documents externes

  • Identifier les documents d’origine externe utiles à l’entreprise : interaction avec les clients, les fournisseurs, les parties intéressées en général.
  • Diffuser les documents aux personnes concernées : L’information doit être exacte.

Que faut-il comprendre du mot « revue »?

L’exigence des référentiels de management (ISO 9001, ISO 14001…) évoque le terme de revue : « Revoir, mettre à jour si nécessaire… » selon l’ISO 9001 : 2008. Le terme de revue documentaire est un mécanisme permettant de s’assurer que le document est toujours valable en terme de contenu. Dans l’absolu, et vous avez raison, on ne devrait pas effectuer de revue documentaire. Si une activité évolue ou si une information externe évolue, nous devons toujours nous poser la question suivante : Cet événement a t-il un impact sur la documentation applicable ?

C’est vrai, mais dans la réalité on s’aperçoit que les documents « dérivent » dans le temps. Le mécanisme de revue permet ainsi de s’assurer que la documentation applicable est toujours exacte. Il faut donc définir la responsabilité de la revue documentaire dans votre procédure. Dans la pratique, c’est le rôle du pilote de processus.

Remarque : Ce n’est pas le rôle de l’audit interne de faire la revue documentaire d’un processus. Il ne faut pas se tromper sur la finalité de l’outil d’audit : Réussir les audits internes en 4 étapes

Comment simplifier la maîtrise des documents?

La meilleure façon de simplifier la maîtrise documentaire est de dématérialiser la documentation, en utilisant un espace disque sur le réseau informatique de l’entreprise. Cela va vous garantir un lieu unique pour trouver l‘information pertinente. En déclarant cette « zone », en lecture seule (gestion des droits des répertoires), vous allez pouvoir garantir que les documents applicables sont maîtrisés. Donnez les droits à quelques personnes. Pourquoi pas les pilotes de processus?

Il existe également des applications logicielles permettant de gérer les documents (version, workflow d’approbation, …). Dans tous les cas, allez-au plus simple dans la solution mise en œuvre pour la gestion de votre documentation. Vous pouvez vous affranchir des signatures des documents, dans la mesure où vous définissez clairement les responsabilités liées à la maîtrise documentaire.

Donnez un titre à un document, mettre en place une pagination par lot ( page x/xx) et une version (numéro et/ou date du document) sont les éléments nécessaires et suffisants pour garantir une maîtrise documentaire.

Comment formaliser votre procédure ?

Télécharger un modèle de procédure de maîtrise des documents répondant entièrement aux exigences de maîtrise documentaire : Procédure de maîtrise des documents (à télécharger via le blog « améliorationcontinue »

Par Pascal Weber

Source : http://www.ameliorationcontinue.fr

Nouvelle fuite d’eau radioactive à Fukushima

Des techniciens ont été dépêchés sur les lieux pour trouver la cause de cet écoulement qui s’est produit à proximité d’un système de décontamination des eaux usées, a précisé Tepco.

Une nappe de 45 tonnes d’eau polluée a été découverte autour d’un condensateur, et une barrière de sacs de sable a été dressée à la hâte pour empêcher l’eau de s’échapper.

La majeure partie du liquide contaminé est restée à l’intérieur du bâtiment abritant le système de décontamination, mais quelques 300 litres auraient coulé vers un caniveau débouchant dans l’océan, a indiqué un responsable de Tepco.

L’eau contenait des substances radioactives comme le césium 137 et l’iode 131, mais à des niveaux « similaires ou légèrement supérieurs » à ceux détectés dans l’eau de mer près du site nucléaire, a-t-il ajouté.

D’autres substances dangereuses, comme le strontium radioactif qui peut provoquer des cancers des os, seraient également présentes dans l’eau contaminée, mais il faudra deux à trois semaines avant d’en avoir confirmation, selon Tepco.

« Nous allons continuer notre enquête sur le problème survenu » au système de décontamination, a indiqué le porte-parole.

Dans les semaines qui ont suivi l’accident atomique du 11 mars, causé par un séisme et un tsunami géants, Tepco a déversé 10 000 tonnes d’eau légèrement radioactive dans l’océan Pacifique.

Les tests effectués par la suite ont démontré que la radioactivité s’était dispersée dans la mer sans menacer directement la vie animale ou celle des humains.

Tepco a précisé que cette fuite n’allait pas l’empêcher de parvenir d’ici à la fin du mois à un « arrêt à froid » des réacteurs, c’est-à-dire au maintien stable du combustible nucléaire sous la barre des 100 degrés Celsius.

La catastrophe de la centrale Fukushima Daiichi, la plus grave depuis celle de Tchernobyl en 1986, n’a fait aucun mort direct, mais a contraint des dizaines de milliers de personnes à fuir les zones contaminées par les rejets hautement radioactifs des réacteurs endommagés.

(Source et crédit photo : AFP)

 

À lire aussi :

Fukushima : craintes de nouvelle réaction de fission à la centrale

Accident nucléaire de Fukushima : Causes et conséquences

Clean Tech Open 2011 : quelles sont les startups les plus prometteuses des technologies propres ?

Origine du Clean Tech Open

Le Clean Tech Open est, comme il se définit depuis 2005, « l’Academy Awards des technologies propres ». Cet évènement se tenait dans une des capitales mondiales de l’innovation : San José, au coeur de la Silicon Valley. Le principe de l’Open est simple : décerner la palme de la meilleure startup dans le monde des cleantechs. En pratique ce n’est pas si simple car les sujets sont variés. Les technologies propres n’étant pas un secteur industriel en soi, la compétition a été décomposée en différents domaines industriels : transports, énergie intelligente, efficacité énergétique, « air, eau, déchets », bâtiments verts, et énergies renouvelables. Dans chaque secteur des vainqueurs sont nommés, avant de sélectionner un lauréat tous secteurs confondus.

La compétition était de plus divisée en deux sous-catégories :

  • une catégorie nationale : la « Business Competition » pour les 21 sociétés/startups américaines choisies parmi les 300 dossiers reçus suite à un processus de sélection régional (groupe d’états) ;
  • une catégorie internationale : La « Global Ideas Competition » pour les 25 sociétés gagnantes de la compétition de leur pays ou de leur région d’origine. Le CleanTech Open n’est pas encore présent partout dans le monde et cherche à se développer. La compétition française a été organisée par le groupe Ecosys, et la remise des prix s’est tenue le 14 novembre dernier au Ministère de l’Écologie. Parmi 12 jeunes entreprises éco-innovantes lauréates des meilleurs concours et prix régionaux et nationaux, c’est Biométhodes (dirigée par Gilles Amsallem) qui a été sélectionnée pour représenter la France.

Toutes ces sociétés sont en compétition pour la gloire et la visibilité qu’un tel évènement peut apporter. Mais surtout certaines cherchent des investisseurs et des partenaires pour se développer. Les gagnants bénéficient d’ailleurs de dotations en services et en financement allant jusqu’à 250k$ pour le vainqueur du prix américain.

Que retenir de cet évènement ?

  • La présence Française

L’hexagone était bien représenté à cet évènement international : parmi les 6 entreprises finalistes du Global Ideas Competition se trouvait Biométhodes, lauréate du chapitre français de l’Open. Une autre américaine, Resolute Marine Energy, était représentée par le français Olivier Ceberio, qui présentait des projets de désalinisation d’eau à l’aide d’énergie provenant de centrales houlomotrices. Au final, c’est la startup chilienne Biofiltro qui remporta la compétition internationale, avec ses unités de traitement des eaux usées à l’aide de vers de terre !

  • Des exercices de présentation variés

Pendant ces deux jours, les startups auront pu présenter leurs projets de plusieurs manières :

– par le fameux elevator speech d’une minute très prisé des capitaux-risqueurs ;

– puis par une présentation de la technologie en 3 minutes ;

– enfin, par des présentations approfondies de 30 minutes comportant une session de questions/réponses.

Il était difficile pour les présentateurs de réussir parfaitement ces trois exercices, mais tout le monde s’y prêtait dans une ambiance à la fois dynamique et décontractée. Pour l’elevator speech, l’exercice peut être difficile : condenser en une minute le marché, la différenciation et donc les opportunités devant un public non expert dans la technologie n’est pas simple. L’aisance des intervenants américains dans ce domaine, où l’on pouvait les voir ajouter une note humoristique à un discours technique et commercial rodé, était flagrante, même si certains intervenants étrangers leur tenaient la dragée haute.

Au contraire, pendant les présentations de 30 minutes, le jury en apprenait suffisamment pour cerner les problèmes éventuels mais les candidats n’avaient pas suffisamment de temps pour argumenter leurs points de vue. Mais l’exercice est obligatoire pour qui veut aborder et convaincre les capitaux-risqueurs.

L’un des plus prestigieux dans le domaine des technologies propres, Khosla Ventures, était présent : Andrew G. Chang, tout nouveau partenaire, était venu pour faire la promotion du portfolio technologies propres de ce fonds et également pour donner ses recommandations aux entrepreneurs. La philosophie de Khosla Ventures pourrait se résumer à marier des technologies de rupture à des « rockets scientists », mais plus pratiquement, 6 critères sont pris en compte :

– une technologie en rupture ;

– de grands marchés ;

– un modèle financier innovant ;

– adaptatif aux flux de capitaux ;

– faisabilité de la mise sur le marché ;

– des entrepreneurs de premier rang.

Évidemment, remplir tous ces critères n’est pas évident et peu de startups y arrivent concrètement. Cette présentation se terminait sur une note d’optimisme : « Continuez à entreprendre car vous allez améliorer la société, l’économie et vous-même ». En effet, voir autant de startups venues concourir sur des sujets aussi variés permet d’espérer que ces technologies auront effectivement un impact positif sur la société.

  • Une grande variété dans les sujets et technologies

L’innovation ne connaît pas la crise, et les idées présentées étaient aussi diverses qu’originales et concrètes. La liste complète est disponible sur le site Web de l’Open mais voici une petite sélection des nos préférées :

– Silicon Solar Solution, société commercialisant un procédé de cristallisation du silicium amorphe des panneaux solaires qui permet d’obtenir des grains 30 fois plus grands, plus rapidement et en utilisant une température deux fois plus faible. Le patron de cette jeune société était le « roi » de l’elevator speech ;

– Grid Test Systems fournit une valise de test aux installateurs et producteurs de bornes de recharge de voiture électrique. Cette valise permet d’homogénéiser cette procédure, d’avoir un rapport de test homologué tout en utilisant un outil fiable et performant ;

– Indow Windows propose une méthode permettant rapidement et économiquement d’ajouter une deuxième vitre sur une fenêtre déjà existante. La solution repose sur une mesure précise ainsi qu’un joint flexible assurant une isolation sonore et thermique. Cette solution d’une facilité déconcertante convient particulièrement bien au marché américain où le double vitrage n’est vraiment pas courant ;

– Me-Mover est un tricycle repliable destiné au transport urbain. Entre la trottinette et le step, l’énergie du conducteur est récupérée par un système de pédales minimisant les efforts ;

– Biométhodes a développé un procédé pour une exploitation durable de la biomasse végétale appliquée à la chimie renouvelable et aux biocarburants de seconde génération. Le procédé biochimique, baptisé OPTALYSIS, permet de fragmenter la biomasse non alimentaire pour en extraire séparément les composants à forte valeur ajoutée pour diverses applications (biocarburants, bioplastiques, fibres de carbone, colles…) ;

– Resolute Marine Energy propose un système simple, modulaire et compacte pour récupérer l’énergie des vagues pour la réutiliser directement pour la désalinisation, coupé du réseau. Ce système s’adresse notamment à la population n’ayant pas d’accès à l’eau potable (1,2 milliards de gens), alors qu’une grande partie de la population mondiale vit près des côtes. Cela en faisait un très intéressant projet avec un impact humanitaire énorme.

Au final, il est clair que l’éventail des sujets couverts par les différentes startups était extrêmement large. Le dynamisme des entrepreneurs venus de tous les pays était vraiment communicatif et donne à penser que nous allons voir fleurir beaucoup d’innovations dans les technologies propres dans les années à venir, et cela dans le monde entier. En attendant la prochaine édition, la recherche de la nouvelle grande idée peut continuer.

(Source : http://www.bulletins-electroniques.com/actualites/068/68403.htm)

 

À lire aussi :

Pollutec 2011 : les meilleures éco-innovations (1/2)

Cahier « Recherche et innovation : quels nouveaux défis ? »

L’innovation en France : 8 priorités pour la dynamiser

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

L’AFNOR pilote les travaux de la future norme sur les nanotechnologies

Sur proposition d’AFNOR, de nouveaux travaux de normalisation consacrés à la « nanoresponsabilité » viennent d’être lancés. Ce sujet est à présent inscrit au programme du comité technique européen dédié aux nanotechnologies, le CEN/TC 352 et a été confié à un pilote français, Madame Arila Pochet de la Direction Générale de la Santé.

Les autorités européennes souhaitent notamment que les industriels développent leurs nanotechnologies et nanomatériaux d’une manière responsable et puissent fournir ainsi des informations claires et transparentes aux utilisateurs potentiels.

Le document normatif permettra, grâce à des lignes directrices et des recommandations, d’identifier les impacts (bénéfices, risques et le niveau d’incertitude lié) des produits ou applications issues des nanotechnologies.
Les professionnels pourront s’appuyer sur la démarche proposée afin de limiter au maximum les effets de l’incertitude sur l’impact des nanotechnologies. L’ensemble de la filière concernée par un produit pourra ainsi gérer de manière responsable sa mise sur le marché en fonction des incertitudes potentielles résiduelles et de la capacité à en limiter les effets.

Rappel du contexte actuel

Il n’existe, à ce jour, ni document législatif ni document normatif au niveau européen pour guider les fabricants vers un développement responsable des produits issus de la nanotechnologie ou intégrant des nanomatériaux.
On comprend bien l’intêret de proposer un texte normatif de référence à tous les fabricants et industriels concernés et répondre aux besoins du marché européen. Cela  aidera les entreprises dans la gestion d’un projet impliquant les nanotechnologies et/ou des nanomatériaux.
Ce document servira en effet de guide aux entreprises qui produisent, transforment et utilisent des produits nano-technologiques ou des produits incorporant des nanomatériaux.

Les nanotechnologies peuvent susciter quelques craintes tant au plan sanitaire et environnemental qu’au plan éthique. Il est désormais possible d’être exposé aux nanotechnologies ou aux nanomatériaux qui rentrent dans la composition de produits du quotidien. Il devient nécessaire de pouvoir évaluer les impacts de la production, la commercialisation et l’utilisation des nanotechnologies et des nanomatériaux.

L’intérêt de la démarche normative porte également sur la traçabilité des informations ayant justifié les décisions prises à chaque étape du développement d’un produit. En cas de problème ou d’avancée des connaissances, il sera possible d’en identifier l’impact rapidement et à chaque niveau de la filière.

Le rôle de la commission de normalisation AFNOR

Les travaux du CEN/TC 352 sont suivis au niveau français par la commission de normalisation AFNOR X457 « Nanotechnologies et nanomatériaux ». Une commission de normalisation réunit les expertises indispensables à l’élaboration des normes et documents de référence et nomme les délégués nationaux dans les structures européennes et internationales de normalisation.

En participant à une commission de normalisation, il est possible de  faire valoir ses intérêts dans l’élaboration des documents normatifs, échanger avec les acteurs du marché, anticiper les évolutions et assurer un suivi efficace de la normalisation européenne et internationale.

Qu’est-ce qu’une norme ?

Etablie par un organisme reconnu, une norme est un document de référence qui fournit les caractéristiques et les règles volontaires pour les activités ou leurs résultats. Elle est le consensus entre l’ensemble des parties prenantes d’un marché ou d’un secteur d’activité. Les normes permettent d’harmoniser les pratiques et de définir un niveau de qualité et de sécurité, notamment  des produits ou services.

A lire également :

« Des présomptions de toxicité sur des nanoparticules ont été établies »

Les nanotechnologies ont désormais leur guide

La France est-elle toujours dans la course aux nanos ?

Nanomatériaux : l’Afsset recommande la prudence

Découvrir le Guide des Nanotechnologies

Face au très bon accueil réservé à la publication 2010, les Techniques de l’Ingénieur ont décidé de réaliser cette année la deuxième édition du Guide des nanotechnologies.
> Commander le Guide des nanotechnologies 2011

Pour toute information complémentaire, contacter Céline Chartier

Formations

  • Formation sur les nanomatériaux : évaluer et prévenir les risques HSE
  • Formation sur les nanomatériaux : propriétés et applications

Corée du Sud : des robots gardiens de prison

 La prison de la ville de Pohang, au sud-est de la capitale coréenne, va accueillir trois gardiens de prison d’un genre nouveau, pour un essai d’un mois qui aura lieu en mars de l’année prochaine. Ces gardiens de prison seront en effet… des robots.

Les robots en question auront pour mission la détection des comportements suspects des prisonniers, notamment lors des patrouilles de nuit, permettant en principe de réduire la charge de travail des gardiens de prison afin qu’ils puissent se consacrer à la réhabilitation des détenus. Développés par le groupe de chercheurs « Asian Forum for Corrections », spécialisé en criminalité et en innovation pénitentiaire, les trois robots d’un mètre cinquante environ pour près de 70 kilos sont montés sur quatre roues et sont équipés de nombreux capteurs et caméras de vidéosurveillance permettant d’avoir un visuel de qualité et de prévenir les comportements à risques tels que les actes de violence ou encore les tentatives de suicide.

Si un robot-maton découvre le moindre problème, il devra alerter les gardiens humains, qui pourront alors intervenir. La patrouille du robot se fait à la vitesse d’un homme qui marche (autour de 4km/h), et un soin tout particulier a été accordé par l’équipe de concepteurs pour rendre l’aspect du robot le plus avenant possible. L’« Asian Forum for Corrections » a investi près de 640 000 euros dans le projet, cette somme provenant presque intégralement du gouvernement sud-coréen. Si l’expérience s’avère concluante après la période d’essai d’un mois, les robots feront alors partie intégrante du staff pénitentiaire, et d’autres prisons pourraient bien vouloir s’octroyer les services de ces matons du futur.

Par Rahman Moonzur

 

À lire aussi :

Un robot chinois précieux dans la gestion des accidents nucléaires

Un robot défie les champions du Jeopardy

L’innovation en France : 8 priorités pour la dynamiser

« Si les tendances actuelles se poursuivent, l’Occident (l’Europe notamment) pourrait d’ici 10 à 20 ans perdre son leadership scientifique et technologique au bénéfice de l’Asie, qui deviendrait la principale base pour l’innovation et la R&D. Pour la France, le déficit d’innovation se traduit depuis 2003 par un déficit commercial qui s’est élevé à 50 milliards d’euros par an en moyenne sur les quatre dernières années. La part de marché du made in France au sein des pays de l’OCDE déjà divisée par deux entre 1998 et 2004 régresse. Faute d’innovation suffisante, la balance commerciale restera structurellement déficitaire et pèsera sur la croissance, l’emploi et en définitif le bien-être de nos concitoyens ».

C’est par ces mots, qui décrivent une situation de l’économie française très préoccupante et constate un déficit d’innovation de la France, que commence le livre que nous propose le Think Tank Innovation de l’Association des Centraliens. Mais point de pessimisme dans ces 211 pages, le titre de cette ouvrage publié chez l’éditeur Armand Colin, 8 priorités pour dynamiser l’innovation en France, résumant parfaitement l’état d’esprit et la démarche enthousiaste de la dizaine de membres de ce Think Tank Innovation dont le travail s’est appuyé sur l’expérience de terrain de quelques 1 142 ingénieurs centraliens, dont 20 % travaillent à l’étranger.

Force est de constater en effet que si durant les années 1960 et 1970, la France avait réussi à se positionner en leader au plus haut niveau mondial dans de grands secteurs industriels tels que l’énergie, en particulier le nucléaire, l’aéronautique, notamment avec Airbus, la gestion de l’eau, le BTP, l’automobile, mais aussi dans les domaines du luxe, de l’hôtellerie ou encore de la banque, depuis la situation a beaucoup changé, et en particulier parce que la France innove beaucoup moins depuis plus d’une décennie. Rappelons qu’en termes d’innovation, la France occupe aujourd’hui la 10e place du tableau de bord de la Commission Européenne !

Qui plus est, on note l’absence des entreprises françaises dans le classement des 50 entreprises les plus innovantes du monde. « Nous n’avons pas la place que nous méritons », déclare Guy Delcroix qui a participé aux travaux de ce Think Tank Innovation. Autres constats préoccupants, la faible implication des PMI/PME, pourtant très nombreuses, en termes d’innovation et la relative timidité des entreprises françaises dans les projets européens de R&D. Qui plus est, l’enseignement supérieur français reste, en moyenne, relativement éloigné des meilleurs dans les classements mondiaux.

Dans ce contexte, c’est donc tout naturellement que l’Association des Centraliens a décidé de lancer une réflexion autour de l’innovation dans le cadre d’un Think Tank animé par Olivier Ferrary. Une démarche d’autant plus légitime que les ingénieurs de l’École Centrale ont une tradition de l’innovation. Quelques-uns de ses « grands anciens » en sont la preuve : Gustave Eiffel, Louis Blériot, Pierre-Georges Latécoère, Jules Peugeot et, plus récemment, Francis Bouygues. « Et puis il y a tous ces anonymes, ces 35 % d’ingénieurs centraliens qui sont ou ont été dans la R&D et contribuent par leurs activités à l’innovation », souligne Olivier Ferrary.

L’innovation est donc une problématique centralienne, pour laquelle les Centraliens se passionnent. D’où la question à laquelle ils ont tenté d’apporter une réponse à travers cet ouvrage, fruit d’un an de travail : Que faut-il faire pour dynamiser l’innovation en France ? Après avoir posé un diagnostic réaliste et sans concession et constaté que si beaucoup avait été fait en France depuis plus d’une dizaine d’années pour soutenir l’innovation, inciter la recherche et l’industrie à travailler ensemble, financer cette innovation, notamment via le crédit impôt recherche, Oseo et l’ANR (Agence Nationale de la Recherche), ils ont observé aussi qu’il existait encore beaucoup de freins à cette innovation. Un frein culturel pour commencer.

« Manifestement, nous n’avons plus cette culture de l’innovation », regrette Guy Delcroix. À cela, il faut ajouter une certaine faiblesse de la recherche, des problèmes de financement, des lourdeurs administratives qui subsistent, le coût de l’innovation qui reste élevé et le management de l’innovation au sein de l’entreprise qui semble déficient.

« Il y a donc une multiplicité de causes concernant le déficit de la France en termes d’innovation », explique l’animateur du Think Tank Innovation. Partant de ce constat, celui-ci propose donc 8 priorités, présentées dans l’ouvrage sous la forme d’un arbre où chaque branche correspond à une priorité, elle-même étant ensuite déclinée en recommandations – les feuilles des branches – qui font l’objet de propositions concrètes développées dans le corps du rapport.

Parmi ces 8 priorités, on retiendra tout particulièrement la première recommandant de « créer en France une culture et une fierté de l’innovation », et la huitième et dernière intitulée « innover au service d’une vision : définir et mettre en oeuvre une politique d’innovation industrielle adaptée aux enjeux de l’économie mondiale du XXIe siècle ». Deux priorités emblématiques du travail qu’il est urgent d’entreprendre. Un travail titanesque, à n’en pas douter, mais que la France va devoir mettre en chantier si elle ne veut pas sombrer dans la profondeur des classements mondiaux de l’innovation.

Pour en savoir plus : Association des Centraliens

(Source : http://www.bulletins-electroniques.com/actualites/68383.htm)

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

REACH : les news du mois de novembre (2/2)

Rapport sur « Travail et produits chimiques : liaisons dangereuses »

(15/11/2011) La DIRECCTE des Pays de la Loire a publié un rapport intitulé « Travail et produits chimiques : liaisons dangereuses ».

121 questions-réponses y sont classées selon le sommaire ci-dessous :

  • généralités (définitions et réglementation)
  • évaluation des risques
  • mesures de prévention
  • conséquences de l’exposition
  • dédommagements

Accord provisoire sur la directive biocides

(15/11/2011) La directive « biocides » actuellement en discussion au niveau européen pourrait voir le jour au premier semestre 2012 après l’accord trouvé entre le Parlement européen et le Conseil européen. Cette directive qui concerne la mise sur le marché et l’utilisation des produits biocides (insecticides, désinfectants et repoussants mais pas les médicaments ou les pesticides agricoles) vise à harmoniser les législations nationales tout en assurant la protection des hommes, des animaux et de l’environnement.
Plus d’informations sur le helpdesk biocides : http://www.helpdesk-biocides.fr/

Informations pour éviter les essais inutiles sur les animaux – 4 nouvelles substances concernées

(17/11/2011) L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • acide orthoborique, composé avec 2-aminoéthanol (N° CAS : 26038-87-9 et N° CE : 247-421-83)
  • 2-aminoéthanol, monoester avec acide borique (N° CAS : 10377-81-8 et N° CE : 233-829-3)
  • isothiocyanate de méthyle (N° CAS : 556-61-6 et N° CE : 209-132-5)
  • huiles de schiste (N° CAS : 68308-34-9 et N° CE : 269-646-0)
  • huiles de schiste légères (N° CE : 923-592-0)
  • huiles de schiste lourdes (N° CE : 930-690-7)

Les informations sur ces substances sont à soumettre pour le 2 janvier 2012.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Série de webinars pour les déclarants principaux lancée le 22 Novembre

(22/11/2011) L’Agence européenne des produits chimiques a organisé le premier d’une série de webinar relatif aux déclarants principaux : « L’importance de l’identification d’une substance pour l’échéance de 2013 » le 22 Novembre 2011. Le webinar a consisté en une séance d’information interactive destinée aux personnes inscrites en tant que déclarant principal et leur a permis de mieux comprendre les étapes qui doivent être prises pour l’enregistrement de 2013. Les présentations et les enregistrements sont désormais disponibles à l’adresse
http://echa.europa.eu/news/webinars_en.asp

Notification des substances dans les articles

(23/11/2011) La notification des substances contenues dans les articles doit avoir lieu au plus tard six mois après l’inclusion desdites substances dans la liste des substances extrêmement préoccupantes candidates à l’autorisation. L’ECHA rappelle aux producteurs et importateurs d’articles contenant l’une des 7 substances incluses dans la liste candidate en Juin 2011 qu’ils doivent notifier à l’ECHA au plus tard le 20 décembre 2011.

  • Liste des substances candidates sur :

http://echa.europa.eu/chem_data/authorisation_process/candidate_list_table_en.asp

  • FAQ sur les substances contenues dans les articles :

http://echa.europa.eu/reach/sia/sia_faq_en.asp

  • Notification des substances dans les articles :

http://echa.europa.eu/reach/sia/notification_in_sia_en.asp

Trois nouvelles demandes de classification et d’étiquetage harmonisées

(25/11/2011) L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de trois nouvelles substances :

  • (1-methylethylidene)di-4,1-phenylenetetraphenyl diphosphate (aka Bisphenol A Diphosphate; aka Bisphenol A Polyphosphate) (N° CAS : 5945-33-5 et N° CE : 425-220-8)
  • alcool tétrahydrofurfurylique (THFA) ((N° CAS : 97-99-4 et N° CE : 202-625-6)
  • Formaldéhyde ((N° CAS : 50-00-0 et N° CE : 200-001-8)

Les commentaires sont à soumettre avant le 9 janvier 2012 :
http://echa.europa.eu/consultations/harmonised_cl_en.asp

Atelier pour les déclarants principaux les 2 et 3 février 2012

(30/11/2011) L’ECHA a publié une page relative à l’atelier dédié aux déclarants principaux qui aura lieu les 2 et 3 février 2012. L’événement s’adresse tout particulièrement aux déclarants principaux  les inscriptions sont d’ores et déjà ouvertes. L’atelier sera diffusé en direct sur le Web et les présentations seront publiées sur le site de l’ECHA après l’événement. Retrouvez toutes les informations relatives à cette évènement sur :
http://echa.europa.eu/news/events/lead_registrant_workshop_2012_en.asp

L’ECHA publie un guide sur l’identification et la désignation des substances sous REACH et CLP

(30/11/2011) L’ECHA a publié un nouveau guide et une fiche d’orientation sur l’identification et la désignation des substances sous REACH et CLP. L’objectif de ces documents sur l’identification et la désignation des substances dans le contexte de REACH et CLP est de donner des orientations pour les fabricants et les importateurs sur l’enregistrement, et notamment, sur l’identité d’une substance dans le cadre du règlement REACH et CLP. Il explique brièvement comment nommer une substance et donne également des conseils sur le fait que des substances peuvent être considérées comme identiques dans le contexte de ces règlements.
Plus d’information sur : http://echa.europa.eu/news/na/201111/na_11_51_corap_guidance_nutshell_en.asp

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Pour un nouveau modèle énergétique français

Le débat actuel crispe les positions sur deux visions manichéennes : sortir en quelques années d’une filière nucléaire désormais vouée aux gémonies ou rester accroché ad vitam aeternam à un modèle monolithique du siècle passé.

Entre ces choix extrêmes, nous pourrions suivre des chemins médians plus crédibles, plus souhaitables, et permettant de conserver la possibilité de faire de vrais choix à l’horizon 2030. Mais pour rédiger une feuille de route ambitieuse et réaliste, encore faut-il revenir sur la longue liste des préjugés qui entourent les énergies renouvelables. Comme le nucléaire, les énergies renouvelables sont prisonnières d’une logique du tout ou rien nourrie par les intégristes des différentes chapelles. La réalité est plus complexe et se prête mal aux choix guidés par l’idéologie.

La réflexion sur notre avenir énergétique doit être précise et rationnelle. Les bénéfices attendus constituent le cahier des charges que le bouquet énergétique devra remplir. Nous devons donner la priorité à quatre préalables pour construire un mix énergétique performant :

  • Garantir un taux élevé d’indépendance énergétique et un haut niveau de sécurité d’approvisionnement ;
  • Prémunir tous les consommateurs de fortes hausses de prix ;
  • Préserver l’environnement par le développement de productions propres et sûres dont les risques sont maîtrisés ;
  • Assurer la sûreté du système énergétique et garantir l’équilibre entre l’offre et la demande.

Les énergies renouvelables peuvent relever en partie ce défi, même si elles ne répondront pas seules, à court terme, à ces exigences, dans la mesure où :

  • Elles sont produites localement et peu sujettes à une quelconque tension géopolitique ;
  • Leurs coûts diminuent avec leur développement et leur exploitation. C’est le principe des systèmes aux coûts d’investissement élevés et aux coûts d’exploitation faibles. Elles suivent une courbe d’apprentissage inverse de celle des énergies conventionnelles dont le coût ne cesse d’augmenter ;
  • Les énergies renouvelables ne produisent ni CO2 ni déchet. Leur réversibilité est avérée. Quoi de plus simple que de démonter un parc éolien ou solaire ? ;
  • Leur intermittence est gérable, selon le réseau de transport d’électricité, d’autant que des progrès dans le domaine du stockage et des réseaux intelligents sont déjà une réalité ;
  • Les équipements domestiques utilisant une source de chaleur renouvelable, chauffage au bois, chauffage solaire ou pompe à chaleur performante diminuent, en hiver, l’appel de puissance et réduisent les importations d’électricité.

Ne considérons pas avec arrogance les pays qui ont déjà fait le choix de s’engager dans la voie des renouvelables, mais tirons-en des leçons des retours d’expérience. J’ajouterai que le développement d’un mix énergétique performant doit contribuer à la réindustrialisation de notre pays, à l’heure où, quels que soient les choix énergétiques qui seront faits, nous devrons investir dans le renouvellement des outils de production. Le décrochage industriel, souligné par Patrick Artus dans son dernier ouvrage, ne fait plus débat. Il est urgent de construire de nouvelles filières industrielles. Les énergies renouvelables nous offrent cette opportunité. Avec déjà 100 000 emplois, et des projections à 250 000 emplois en 2020, elles répondent à cet enjeu et entrent dans la catégorie des filières industrielles d’avenir. Ce sont des filières technologiques où PMI et grands groupes peuvent jouer un rôle majeur sur les produits haut de gamme.

Elevons le débat pour que nous puissions jouir des bénéfices de ces énergies. La guerre de religion à laquelle se livrent les pourfendeurs des renouvelables d’un côté et du nucléaire de l’autre ne permet ni de convaincre nos concitoyens ni d’arbitrer de façon sensée un choix de société qui nous engagera pour plusieurs décennies. Nous devons construire un nouveau modèle énergétique, basé sur une consommation rationnelle, dans une Europe exemplaire dans la préservation du climat. C’est autour de cet enjeu que le débat doit s’articuler.

Par Jean-Louis Bal, président du Syndicat des énergies renouvelables

(Source : Le Monde)

 

À lire aussi :

Dangers du téléphone portable : quelles précautions ?

  • Comment connaît-on la puissance du portable qu’on vient d’acheter ?

Les notices des téléphones doivent préciser le DAS ou débit d’absorption spécifique, qui mesure le niveau de radiofréquences émis par le portable lorsqu’il fonctionne à pleine puissance. Il est mesuré en W/kg, avec une limite en France fixée à 2W/kg.

  • Quel est l’intérêt du kit mains libres et du haut-parleur ?

Le kit mains libres et le haut-parleur permettent d’éloigner l’appareil émetteur d’ondes de l’oreille, et donc du cerveau. « Quand le téléphone est plaqué à l’oreille, les niveaux d’exposition du cerveau sont importants, mais ils diminuent de façon extrêmement importante dès lors qu’on l’éloigne de quelques dizaines de centimètres », souligne Dominique Gombert.

  • L’appareil en veille est-il nocif ?

« Quand l’appareil est en veille, il reste en contact (avec l’émetteur) pour avoir du réseau, mais les niveaux d’exposition sont extrêmement faibles », affirme Dominique Gombert.

  • Est-ce dangereux d’utiliser l’appareil dans la voiture ou dans le train ?

Une étude parue en octobre 2008 fait apparaître un effet des ondes émises fortement accru quand on téléphone en voiture : l’effet « cage de Faraday » rend la voiture étanche aux champs électriques ou électromagnétiques, d’où une forte montée en puissance des ondes qui veulent traverser l’habitacle. Dans les zones mal desservies et sur autoroute, où ils montent en puissance à chaque changement de relais, les champs atteignent « des niveaux record », selon cette enquête.

La situation est comparable dans des environnements clos ou d’autres moyens de transport, avec en outre, comme le souligne Dominique Gombert, « la juxtaposition des champs, associée à l’utilisation simultanée d’un grand nombre de téléphones ou de sources de champs électromagnétiques ».

  • Et les antennes-relais, qui suscitent des inquiétudes ?

L’OMS estime que pour les expositions « environnementales », celles notamment associées à la transmission des signaux, les preuves sont à ce jour « inadéquates ».

En 2009, l’étude de l’Afsset (devenue depuis Anses) avait souhaité qu’on envisage une « diminution des niveaux d’exposition » là où ils dépassent le « niveau moyen ambiant ». Le travail de cartographie est en cours.

  • Et le wifi, le bluetooth, la 3G ?

Les niveaux d’exposition sont faibles, d’une puissance maximale de 0,1 W pour le wifi et le bluetooth, de 0,25 W pour le 3G. Mais l’exposition est continue, tout au long de la journée.

  • L’OMS ne parle pas des téléphones fixes sans fil ?

Dominique Gombert le regrette. « Le téléphone sans fil va transmettre et la base aussi, ce n’est pas exactement la même nature de champs, mais il ne faut pas réduire les champs électromagnétiques aux téléphones portables ». « D’autres émetteurs peuvent avoir une intensité non négligeable » et plus on peut éloigner tout ce qui expose à des champs électromagnétiques – radios-réveil, base de téléphone sans fil, babyphones… – , mieux c’est.

  • Et les risques pour les enfants ?

Une étude est en cours dans 13 pays, « Mobi-kids ». Dominique Gombert souligne que « par rapport à la masse de tissu exposée, il y a chez les enfants une vulnérabilité plus grande, une pénétration potentiellement plus importante des champs électromagnétiques ».

(Source : AFP)

 

À lire aussi :

Les effets des téléphones mobiles sur l’activité cérébrale

Chaleur électrisante : pouvoir recharger son téléphone quand il est dans sa poche

Portables et appareils électroniques peuvent dialoguer

Fusions-acquisitions du secteur de la chimie : Analyse du 3ème trimestre

Les 4 mega-deals (opérations d’une valeur supérieure à 1 milliard de dollars) impliquant des entreprises américaines sont prépondérants, puisqu’ils représentent 11,7 milliards de dollars, soit une hausse de près de 12 % par rapport aux 10,5 milliards de dollars constatés au deuxième trimestre 2011. Globalement, les mega-deals représentent 73 % de la valeur des transactions du troisième trimestre dans le secteur.

Au troisième trimestre 2011, les transactions annoncées de plus de 50 millions de dollars sont au nombre de 22 et représentent une valeur totale de 16 milliards de dollars, à comparer aux 31 opérations d’une valeur totale de 14,8 milliards de dollars au trimestre précédent. Par conséquent, la valeur moyenne des transactions a bondi de plus de 50 % pour s’élever à 725,6 millions de dollars, contre 476,4 millions de dollars au deuxième trimestre.

Si l’on exclut la transaction significative de 40 milliards de dollars du troisième trimestre 2010, la valeur moyenne des transactions a progressé de 60 % entre les troisièmes trimestres 2010 et 2011. Les volumes restent relativement stables au troisième trimestre 2011 avec 22 transactions contre 24 en 2010.

« Les résultats du troisième trimestre démontrent clairement le redressement de l’activité fusions et acquisitions sur le marché mondial » précise Eric Douheret, responsable Transactions Chimie chez PwC. « Les entreprises réfléchissent aux opportunités de croissance externe afin soit d’amplifier leur croissance organique ou de se développer sur de nouveaux marchés. Les groupes internationaux du secteur de la chimie tirent le bénéfice des mesures de réduction de coûts et de réorganisation industrielle qu’elles ont conduites ces dernières années. Ils ont ainsi pu retrouver des marges de manœuvre en trésorerie afin de réaliser des transactions plus importantes et plus ambitieuses. Bien que les questions de financement et un début de ralentissement économique fassent l’objet de grandes préoccupations à l’heure actuelle sur l’ensemble des marchés, nous nous attendons à ce que le rebond constaté de l’activité des fusions et acquisitions dans le secteur de la chimie continue dans les mois à venir.»

Les investisseurs industriels ont largement dominé au troisième trimestre 2011 et ont été impliqués sur les 4 méga-deals ; les investisseurs financiers ne représentant que 1,2 % du total des transactions en valeur. Il s’agit du plus faible ratio constaté depuis que PwC à commencé à suivre le secteur par nature d’investisseur en 2006. « Même si ce basculement en faveur des groupes industriels peut être attribué à la trésorerie accumulée, on peut néanmoins imaginer que le niveau élevé des valorisations conduira les acteurs du private equity à considérer des désinvestissements au profit d’investisseurs stratégiques » indique Eric Douheret.

Alors que le second trimestre de 2011 n’avait enregistré aucune opération de taille moyenne (transactions entre 500 millions de dollars et 1 milliard de dollars), deux transactions ont été annoncées au troisième trimestre pour une valeur totale de près de 2 milliards de dollars. Quant aux petites transactions (entre 50 millions et 500 millions de dollars), leur valeur totale diminue de près de 43 %, passant de 4,2 milliards de dollars au deuxième trimestre 2011 à 2,4 milliards de dollars au troisième.

Les transactions portant sur des cibles sud-américaines progressent de presque 4% entre le deuxième et troisième trimestre 2011 pour représenter 18 % de l’ensemble des transactions, plus particulièrement au Brésil. Au total, quatre opérations ont porté sur des cibles brésiliennes et deux autres ont été faites par des acquéreurs brésiliens.

La zone Asie-Pacifique contribue à hauteur de 23 % des volumes de transactions, de même que le Royaume Uni et l’Eurozone. Alors qu’une part considérable des opérations en Asie a porté sur des transactions locales, notamment en Chine, l’activité fusions et acquisitions chinoise a chuté significativement pour ne représenter que 49 opérations, soit une baisse de 55% en volume comparé au deuxième trimestre 2011.
« L’essentiel de l’activité en Chine au troisième trimestre 2011 portait sur des transactions locales témoignant de la volonté des entreprises à se consolider afin d’atteindre une taille critique adaptée à leur marché domestique» ajoute Eric Douheret. « La Chine continuera à animer la zone Asie-Pacifique, mais à un rythme moins soutenu, les entreprises souhaitant procéder à des acquisitions qui soient vraiment clés pour leur stratégie de croissance »

Source :  www.pwc.fr

 

Données privées : Facebook sous surveillance durant 20 ans

« Le règlement proposé suppose que Facebook prenne plusieurs mesures pour s’assurer qu’il honore ses promesses à l’avenir, y compris (….) en demandant le consentement explicite des consommateurs avant que leurs informations ne soient partagées au-delà de ce qui est prévu par leur réglage de confidentialité« , a expliqué la Commission Fédérale du Commerce (FTC) dans un communiqué.

Le PDG et co-fondateur de Facebook Mark Zuckerberg a convenu mardi sur le blog de sa société qu’elle avait commis « un paquet d’erreurs ». Notamment « une mauvaise mise en oeuvre quand nous avons changé notre modèle de confidentialité il y a deux ans », a-t-il dit. Ces erreurs ont « souvent éclipsé une grande partie du bon travail que nous avons fait », a-t-il ajouté.

« J’ai l’espoir que cet accord montrera clairement que Facebook est leader quand il s’agit de proposer aux gens de contrôler l’information qu’ils mettent en ligne », a déclaré Mark Zuckerberg.

Cet accord, similaire à des règlements déjà acceptés par Google et le site de microblogs Twitter, est la conclusion d’une procédure engagée à la suite d’une plainte déposée en décembre 2009 par plusieurs associations de défense de la confidentialité des données, mécontentes que de nombreuses informations personnelles soient, par défaut, ouvertes au public sur le site de Facebook. Entre autres conséquences, ce réglage par défaut fournissait une mine de renseignements aux spécialistes du marketing et de la publicité.

Facebook renforce sa politique de confidentialité au moment où, selon le cabinet eMarketer, la part de son chiffre d’affaires tiré de la publicité est en régression : elle devrait représenter 89 % de ses quelques 4,27 milliards de dollars de revenus cette année, contre 95 % en 2009.

L’un des critiques virulents de Facebook, le Centre pour la Démocratie Numérique, a « applaudi » la FTC pour avoir lancé la procédure et obtenu ces engagements de la jeune société californienne. Mais son directeur Jeff Chester a aussi estimé que Facebook devait être puni pour ses actions passées. La direction « a trompé les consommateurs et devrait payer un prix, au-delà d’un accord sur 20 ans pour gérer ses activités de façon plus correcte », a-t-il fait valoir.

« Nous appelons Mark Zuckerberg et le conseil d’administration de Facebook à assumer leur responsabilité », a-t-il précisé, estimant qu' »ils devraient démissionner et être remplacés par des responsables connus pour leur engagement pro-confidentialité ».

M. Zuckerberg, 27 ans, s’est contenté d’annoncer la création de deux nouveaux postes de cadres dirigeants : Erin Egan, une avocate spécialiste de ces questions, embauchée il y a quelque mois, prend le titre de « directrice de la confidentialité », tournée vers les relations avec les autorités de régulation, les parlementaires et les experts. Michael Richter prend le titre de « directeur de la confidentialité, (en charge des) produits », afin d’assurer que cette dimension soit prise en compte dès la conception des nouvelles fonctionnalités du site.

Au Congrès, le sénateur démocrate John Kerry a salué un accord qui « renforce les droits à la confidentialité des consommateurs dans un environnement technologique de plus en plus complexe ». Son collège John Rockefeller a estimé qu’une nouvelle loi restait nécessaire.

(Source et crédit photo : AFP)

 

À lire aussi :

Facebook renforce le contrôle des membres sur leurs données

Cahier : Facebook : l’actu du géant social

700 millions de profils Facebook, et moi et moi et moi…

 

 

Compteur intelligent : un « déluge de données » à gérer

En effet, une étude de Marie-Luce Picard, du département R&D de EDF, datée de juin 2011, met l’accent sur la très forte augmentation des données que va entraîner la mise en place des fonctionnalités des smart grids. De même, une étude de Pike Research, un cabinet américain d’analystes spécialisés dans les technologies propres, met en évidence le besoin de logiciels de gestion spécifiques, des MDMS (Meter Data Managment System), qui vont exploser.

Les MDMS sont des plates-formes logicielles qui acquièrent des données de comptage depuis de nombreuses sources et les mettent à disposition, après intégration, synchronisation et nettoyage, auprès des nombreuses cibles, autrement dit elles permettent de gérer ces données pour les rendre utilisables. Et tous les acteurs du domaine sont concernés : producteurs, commercialisateurs, gestionnaires de réseaux et simples usagers, puisque les compteurs intelligents doivent leur permettre de mieux gérer leur consommation d’énergie.

Or selon Marie-Luce Picard : « (Il faut) optimiser l’utilisation des technologies pour améliorer le service aux utilisateurs et l’efficacité opérationnelle. Les volumes extrêmement importants des données demandent la mise en place de traitements complexes, de par le volume des données : des séries temporelles, de par leur caractère distribué et de la nécessité de traitements à différentes échelles, de par les contraintes de temps réel pour certains besoins. »

L’étude Pike Research prévoit que d’ici 2018, 98 % des compteurs intelligents américains seront administrés par des MDMS, 80 % en Europe de l’Ouest et en Asie de l’Est. En effet, les compteurs intelligents commencent à se répandre, la preuve en France avec la décision de généralisation de Linky, qui suit d’ailleurs une directive européenne de mise en place de réseaux intelligents. Pour les gérer, les bons outils sont nécessaires et le marché des MDMS va exploser : il représenterait jusqu’à 490 millions de dollars en 2018, soit dix fois plus qu’en 2011.

Pour les spécialistes, la vraie valeur n’est pas dans la collecte des informations, mais bien dans l’analyse qu’on en fait. Ainsi, selon Bob Lockhart, analyste chez Pike Research : « Ces logiciels permettront d’obtenir des factures encore plus précises, et à terme permettront aux bâtiments d’être encore plus économiquement efficaces. »

De nombreux spécialistes proposent déjà des suites MDMS (Itron, eMeter, EnergyICT, Ecology Analytics et Aclara), et de grands éditeurs généralistes (SAP, Oracle) qui s’estiment aussi bien placés, grâce à leurs outils de gestion de bases de données, se lancent aussi dans l’aventure. Logique, si l’on en croit Marie-Luce Picard : « Ces volumes sont toutefois en-deçà de ceux rencontrés par d’autres secteurs d’activité qui ont d’ores et déjà à leur disposition différents outils technologiques. »

(Sources : L’Atelier, Association Aristote)

Par Claudine / blog EcoCO2

 

À lire aussi :

Le compteur Linky généralisé à partir de 2013

Compteurs intelligents : des risques de piratage informatique

Cahier « Smart Grid »

Annulation de la suspension des OGM « MON 810 » : les réactions

« Tirant les conséquences de l’arrêt de la Cour de justice européenne, le Conseil d’État relève que le ministre de l’Agriculture n’a pu justifier de sa compétence pour prendre les arrêtés, faute d’avoir apporté la preuve de l’existence d’un niveau de risque particulièrement élevé pour la santé ou l’environnement »… Ce sont les mots choisis dans son communiqué par le Conseil d’Etat pour justifier l’annulation de la suspension de culture du maïs OGM de Monsanto.

Depuis, les réactions se sont succédées, jusqu’à celle du Présient de la République ce matin (Mardi 29 novembre). Florilège :

  • Nicolas Sarkozy : « Le gouvernement maintient et maintiendra son opposition à la culture du [maïs OGM] Monsanto sur notre territoire », a affirmé le président de la République, en précisant que les ministres Nathalie Kosciusko-Morizet (environnement) et Bruno Le Maire (agriculture) préparaient « une nouvelle clause de sauvegarde ».
  • Bruno Le Maire, Ministre de l’agriculture : Le ministre de l’agriculture, Bruno Le Maire, a assuré que le gouvernement examinerait « tous les moyens de ne pas cultiver le maïs Monsanto » en réaction à l’annulation par le Conseil d’Etat, lundi 28 novembre, de la suspension de culture du maïs OGM de Monsanto. M. Le Maire a déclaré que le gouvernement restait « défavorable » à cette culture car « il reste encore trop d’incertitudes sur les conséquences pour l’environnement ».
  • Nathalie Kosciusko-Morizet,  Ministre de l’Ecologie : NKM s’est dite lundi « déterminée » à faire interdire le maïs Monsanto 810 en France. «Nous sommes en ce moment même en train d’étudier les modalités juridiques pour poursuivre cette interdiction», a-t-elle déclaré. «Il y a quatre études qui viennent renforcer des inquiétudes qu’on peut avoir vis-à-vis des OGM en général et certaines ciblées sur le Monsanto 810, a-t-elle expliqué. Sur la base de ces quatre études, je propose que nous conservions notre décision d’interdiction du Monsanto 810 en France et nous sommes en train d’étudier les moyens de le faire».
  • Greenpeace : L’association Greenpeace a déploré la décision du Conseil d’Etat, soulignant que « depuis février 2008, aucune étude scientifique sérieuse n’est venue lever les risques que représentent les OGM pour l’environnement ni nous assurer de leur innocuité pour la santé humaine ». « Dans ces conditions, il est évident qu’on ne peut pas plus semer d’OGM aujourd’hui qu’il y a trois ans », ajoute l’ONG, demandant au gouvernement d’interdire à nouveau la culture du MON 810 en se servant des fondements juridiques adaptés.
  • Initiatives biotechnologies végétales (IBV) : Initiatives biotechnologies végétales (IBV), une association représentant les semenciers français qui promeut la culture du maïs génétiquement modifié, a quant à elle rapidement annoncé son souhait de reprendre la culture des OGM en France. « Nous accueillons positivement la décision du Conseil d’Etat », affirme IBV dans un communiqué, ajoutant que « le gouvernement doit désormais prendre ses responsabilités et garantir aux agriculteurs de manière concrète la liberté de cultiver des OGM en France ».
  • Noël Mamère : De son côté, le député d’Europe Ecologie-Les Verts Noël Mamère a estimé lundi qu’« il faut maintenant que le gouvernement tienne ses engagements ». « La balle est maintenant dans le camp du gouvernement puisqu’il s’était engagé à trouver une nouvelle base juridique pour instaurer une nouvelle clause de sauvegarde », a estimé le député de Gironde auprès de l’AFP.

Par Pierre Thouverez

 

Sources : Le figaro, les Echos, Le Monde

A lire également :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Participez à la formation Techniques de l’Ingénieur :

Les dix commandements du management de la sécurité

1. Avoir une pensée systémique

Ténériffe, Flaujac, Piper Alpha, Flixborough, le tunnel du Mont-Blanc nous montrent clairement que, face à l’accroissement de la complexité de nos systèmes et réseaux industriels et du fait de leur impact sur la société et l’environnement, qui se traduit par un potentiel de risques accrus, tous les acteurs qui œuvrent en leur sein, du président à l’opérateur, doivent avoir une vision systémique permanente.

Chacun au poste qu’il occupe doit comprendre que tout composant, qu’il soit matériel, informationnel, procédural, humain, financier, est en relation plus ou moins directe avec nombre d’autres. C’est ainsi que la priorité donnée à la production peut avoir, en mode dégradé, un impact sur la sécurité de fonctionnement de l’installation ou sur le comportement de certains acteurs. Une exigence en tant que telle n’a de sens que si elle est confrontée aux autres. Pousser la production tant que toutes les exigences de sécurité sont respectées ne pose pas de problème. Par contre, nous avons vu les conséquences de la décision prise par la tour de contrôle de Ténériffe, privée ce jour là de son taxiway et des feux de balisage des pistes, de faire décoller des avions gros porteurs avec une visibilité inférieure à 500 mètres.

Ceci a un corollaire : les exigences de sécurité doivent toujours prendre le pas sur les exigences de production, les exigences sociales, les exigences financières. Cela est d’autant plus vrai que le système considéré fonctionne en mode dégradé.

On comprend mieux l’importance des différentes relations reliant les éléments composant les trois sous-systèmes (technologique, informationnel, humain).

Porter un regard systémique sur les systèmes qui nous entourent constitue le premier pilier sur lequel doit porter toute politique préventive de sécurité.

2. Réaliser des installations fiables, robustes et stables

Tous les systèmes socio-techniques que nous exploitons sont généralement le résultat, le fruit de projets ayant nécessité des investissements lourds, qu’il s’agisse d’un gros porteur, d’un réseau ferré, d’un complexe chimique, d’une plate-forme offshore… Tous ces projets ont demandé plusieurs années entre le premier coup de crayon et la mise en service de l’installation. De très nombreux acteurs y ont participé : concepteurs, engineering, équipementiers, génie-civilistes, tuyauteurs, mécaniciens, fondeurs, électriciens, électroniciens, informaticiens, monteurs, financiers, sociétés de contrôle, banques, etc.

Tout au long du projet, de très nombreuses modifications ont dû être instruites, rejetées, acceptées. C’est durant cette phase de conception que l’inventaire des risques, contrepartie des performances attendues du nouveau système, doit être fait. Chaque risque doit être identifié, caractérisé. Quelle est sa nature ? Quelle est sa probabilités d’occurrence ? Quelle est la gravité de ses conséquences potentielles ?

Ce travail fait, il s’agit d’identifier les fonctions et les éléments importants pour la sécurité puis de préciser les exigences de conception, d’exploitation et de maintenance associées à chacune d’elles et chacun d’eux.

Il est clair que si le risque de rupture d’une tuyauterie de raccordement entre deux réacteurs successifs avait été appréhendé à sa juste valeur, l’accident de Flixborough ne se serait pas produit. Mais, il aurait fallu, au préalable, identifier les soufflets comme des éléments importants pour la sécurité et fixer comme exigence de conception un fonctionnement en traction-compression et non en cisaillement. De même à Three Miles Island, si la reprise de l’alimentation des générateurs de vapeur avait été considérée comme une fonction importante pour la sécurité, il est probable que les concepteurs auraient mis en place une instrumentation sûre permettant aux opérateurs de suivre leur réalimentation, par exemple en installant un débitmètre en aval de la pompe.

3. Élaborer des installations sûres, claires et responsabilisantes

L’incendie sous le tunnel du Mont-Blanc illustre bien comment la transformation lente, progressive et volontaire d’une organisation initialement sûre et responsabilisante vers deux organisations indépendantes, non communicantes pour ne pas dire conflictuelles, a conduit, dans un premier temps, à l’installation de deux tronçons de tunnel présentant des différences notables et, dans un deuxième temps, au drame.

La mise en place d’organisations sûres, claires et responsabilisantes passe par :

  • une sensibilisation des dirigeants et de l’ensemble du personnel à l’importance des problèmes de sécurité ;
  • une définition précise des rôles et des responsabilités de chacun ainsi que les transferts de responsabilités et pouvoirs, notamment aux changements de quart, ce qui ne fut pas le cas pour Piper Alpha ;
  • une définition des interfaces entre services, rappelons-nous le cas du tunnel du Mont-Blanc où aucune des deux salles de régulation n’a pris le pilotage de l’ensemble du tunnel lorsque le camion commençait à dégager une fumée blanche importante, alors qu’ils avaient chacun la possibilité de le faire sur la base des informations reçues.

4. Constituer des équipes fiables et motivées

5. Maîtriser les modifications décidées

6. Conduire les installations conformément aux règles établies

7. Maintenir les équipements pour qu’ils assurent toujours leurs fonctions

8. Mettre en place des instances de contrôle internes et externes indépendantes

9. Tirer à tout moment les leçons de l’expérience

10. Se préparer à gérer la crise

 

Pour aller plus loin :

Découvrez la base documentaire Techniques de l’Ingénieur : Management de la sécurité

Participez à la formation Techniques de l’Ingénieur : Cursus Animateur Santé Sécurité

Revue du Web #15 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • « NeverWet », un surprenant spray super-hydrophobe, conçu par Ross Nanotechnologies. Vaporisez-le sur une surface, et il l’imperméabilisera immédiatement ;
  • « EduBot », un robot hexapode qui possède grâce à ses pattes ajustables et originales la faculté de se déplacer sur terrains meubles ou difficiles ;
  • Concevoir un costume d’appareil photo géant comme déguisement pour Halloween, soit. Et si en plus l’appareil photo fonctionne ?
  • Un robot artiste interactif, qui peint de manière autonome et qui est influencé par les bruits extérieurs, dans son processus de création ? C’est la prouesse réalisée par le collectif d’artistes « The Creators Project » ;
  • Pour conclure, le gadget (inutile ?) de la semaine : un oreiller « robotique », censé réveiller les ronfleurs impénitents…

« NeverWet », le spray super-hydrophobe :

Pour débuter cette quinzième revue du Web, voici le surprenant spray super-hydrophobe conçu par la société américaine Russ Nanotechnologies. Il y a près de trois ans, cette société américaine a eu besoin de réduire la corrosion sur des produits en acier, initiant alors l’aventure de la création de ce spray. Le concept, pas complètement nouveau, a le mérite d’être particulièrement bien illustré par la vidéo de présentation.

L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°. Les surfaces traitées par le spray « NeverWet » offrent un angle de contact généralement supérieur à 160°, d’après les chiffres fournis par les concepteurs.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités imperméabilisantes, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également efficace pour lutter contre la corrosion : « NeverWet » serait jusqu’à quatre à six fois plus efficace qu’un revêtement en polyuréthane classique, généralement utilisé sur de nombreuses infrastructures. La super-hydrophobie permet également de préserver plus facilement une surface ou un milieu des moisissures et des bactéries, l’eau accélérant la prolifération de celles-ci. Enfin, elle transforme n’importe quelle surface en surface auto-nettoyante, le fonctionnement de la grande majorité des matériaux étant évidemment optimisé lorsqu’ils sont propres.

Pas encore disponible à la vente, ce spray pourrait bien se retrouver dans le commerce courant 2012, intéressant à la fois les particuliers comme de nombreux professionnels, milieu hospitalier et ingénierie civile en tête.

« EduBot », le robot hexapode :

« EduBot » est un robot développé conjointement par les chercheurs des universités de Pennsylvanie, de Harvard et de Florida A&M (Agricultural and Mechanical). Successeur de « RHex », conçu par la très prolifique société américaine Boston Dynamics, « EduBot » est un robot hexapode , ce qui signifie que sa locomotion se base sur trois paires de pattes, comme les insectes.

Télécommandé, il se présente sous la forme d’un parallélépipède d’une quarantaine de centimètres de long, possédant sur ses flancs six axes répartis de manière régulière sur lesquels sont fixés les pattes. Chaque patte est composée d’une lame recourbée en demi-cercle, dont la raideur est variable grâce à une bague dont la hauteur varie et se contrôle à distance. La coordination des pattes se base sur une architecture de contrôle décentralisée, les pattes étant connectées en un réseau parallèle, et les allures déterminées à l’aide d’un programme utilisant notamment des algorithmes génétiques.

Sa démarche particulière et ses six pattes recourbées en demi-cercle rendent « EduBot » particulièrement mobile en terrains meubles ou difficiles, tels que la végétation, le gravier, la boue, le sable ou même les rails de chemins de fer. Les militaires pourraient bien lorgner sur ce petit robot, tant il pourrait se réveler efficace en mission de reconnaissance sur terrain accidenté, ou dans une zone sinistrée après une catastrophe…

Un costume d’appareil-photo géant… qui fonctionne :

Tyler Card a voulu mettre la main à la pâte pour son costume d’Halloween, et le moins que l’on puisse dire, c’est qu’il n’a pas fait les choses à moitié. Quitte à réaliser un costume d’appareil-photo géant, autant s’assurer qu’il fonctionne aussi !

Le boîtier, réalisé en carton peint fixé à l’aide de scotch, – à l’exception de l’ « objectif », un seau en plastique –, épouse le design d’un Nikon D3. Cette « lentille » géante abrite le véritable appareil de Tyler Card, un Nikon DSLR. Pour rendre son déguisement fonctionnel, les photos sont prises à l’aide d’un bouton se trouvant sur le boitier-costume, qui commande le flash (une lumière stroboscopique) simultanément grâce à une commande sans fil.

Une fois la photo prise, elle devient automatiquement disponible au dos du boîtier, comme pour un véritable appareil, un grand écran LCD faisant ici office du classique écran de prévisualisation. Allez jeter un coup d’œil aux deux vidéos suivantes, la première concernant l’appareil-photo à proprement parler, la seconde détaillant la conception du costume.

Fully Functional Camera Costume from Tyler Card on Vimeo.

Making of the Camera Costume from Tyler Card on Vimeo.

Le robot artiste interactif du collectif « The Creators Project » :

Benjamin Grosser, membre du collectif d’artistes « The Creators Project », a imaginé un  robot artiste interactif, dont le média serait la peinture. L’installation ressemble à une grosse photocopieuse, surmontée d’un dispositif rendant le pinceau mobile. Un micro capte les bruits extérieurs, ainsi que le propre bruit de la machine, les données recueillies servant de stimuli à la machine qui les interprète à l’aide d’un logiciel d’intelligence artificielle.

Le pinceau, contrôlé par un servomoteur, passe au choix dans l’un des quatre pots de couleur, puis est dirigé sur la toile disposée horizontalement. Des caméras savamment placées permettent d’avoir une vue d’ensemble, ou au plus près. La démarche est intéressante, car elle questionne le principe même d’art en mettant un pinceau entre les « mains » d’un robot, censé être dénué de tout sens artistique. On vous laisse apprécier (ou non) le résultat, dans la vidéo qui suit :

Interactive Robotic Painting Machine (2011) from benjamin grosser on Vimeo.

Le gadget (inutile ?) de la semaine : un oreiller qui réveille les ronfleurs intempestifs

Pour conclure cette quinzième revue du Web, voici le gadget (inutile ?) de la semaine : un oreiller du nom de Jukusui Kun (« sommeil profond » en japonais), qui réveille les ronfleurs.

En forme d’ours en peluche, l’oreiller possède plusieurs micros captant le niveau de décibels durant le sommeil, ainsi qu’un oxymètre mesurant le niveau d’oxygène dans le sang, placé au bout d’un doigt. Lorsque le niveau de décibels dépasse un certain stade, l’ordinateur relié à l’oreiller déclenche le bras de l’ours en peluche, délivrant une caresse censée remettre le ronfleur du « bon » côté, et ainsi l’empêcher de ronfler, – cet oreiller pouvant être extrêmement utile contre les apnées du sommeil. Voyez plutôt :

Par Rahman Moonzur

 

À lire aussi :

Revue du Web #13 : les vidéos de la semaine

Revue du Web #12 : les vidéos de la semaine

Revue du Web #11 : les vidéos de la semaine

Le ping-pong quantique, un bond en avant pour l’informatique quantique

Une équipe de scientifiques du prestigieux laboratoire Cavendish, le département de physique de l’université anglaise de Cambridge, a réalisé une petite prouesse : déplacer un seul électron le long d’un fil, lui faisant faire une soixantaine d’allers-retours. Ce jeu de ping-pong virtuel où l’électron devient la balle, illustre un degré de contrôle de l’électron sans précédent.

Les électrons transportant un courant le long d’un fil ne vont pas directement d’un bout à l’autre de celui-ci, mais suivent un chemin plus complexe. Cela peut devenir problématique lorsque l’électron transporte une information, car il est plus à même de l’oublier, ou plus scientifiquement, son état quantique est plus à même de perdre sa cohérence.

Ici, un électron peut être confiné dans un petit puits de potentiel, une boîte quantique, juste à la surface d’une feuille d’arséniure de gallium (GaAs). Un chemin, dont l’énergie est plus élevée que les électrons, mène à une autre boîte quantique, vide, et se trouvant à une distance de 4 microns. Un son très bref (quelques milliardièmes de secondes) est alors envoyé à la surface, créant une « vague », un potentiel électrique qui emmène l’électron, surfant littéralement vers l’autre boite, où il se retrouve capturé. En reproduisant le son, mais cette fois-ci dirigé dans l’autre sens, l’électron recommence son voyage, dans le sens opposé et ainsi de suite, comme au ping-pong, accomplissant ainsi une soixantaine d’allers-retours.

« Cette prouesse est pleine de promesses pour nos ordinateurs quantiques », explique Chris Ford, qui a dirigé l’équipe responsable de la découverte, et dont le travail a été publié dans la revue Nature. « Ces calculateurs pourraient bien aider à résoudre certains problèmes complexes plus rapidement que les ordinateurs traditionnels. Des efforts sont d’ores et déjà fournis pour connecter entre eux différents composants, tel le processeur et la mémoire. Bien que notre expérience ne montre pas que l’électron se souvienne de son état quantique, c’est pourtant plus que probable » poursuit-il. « Cette méthode de transfert des qubits [bits quantiques] pourrait bien être celle choisie, au sein même d’un ordinateur quantique. »

Par Rahman Moonzur