News Informatique / Electronique / Télécoms de juin

Les entreprises françaises sont-elles prêtes pour le passage à l’IPV6 ?

 

En prévision de la Journée mondiale de l’IPv6, Infoblox Inc a annoncé aujourd’hui les résultats d’une enquête effectuée auprès de plus de 2.400 entreprises IT représentatives au sujet de leurs préoccupations sur l’IPv6, les projets d’adoption et de l’état actuel du déploiement. Comme l’offre mondiale d’adresses IPv4 ne cesse de diminuer, les entreprises devront être en mesure de soutenir l’explosion du nombre de périphériques compatibles IPv6 qui se connectent au réseau, que ce soit un ordinateur portable, téléphone portable, imprimante, scanner ou une tablette. Ne pas avoir une adresse IP est l’équivalent d’avoir un téléphone sans un numéro de téléphone, ce qui explique pourquoi il y a un besoin critique pour les entreprises à évaluer, élaborer et commencer le processus de migration des réseaux d’aujourd’hui.

Les résultats de l’enquête en ligne renforcent le fait que les entreprises sont confrontées à des problèmes majeurs d’éducation, de planification et de mise en œuvre de défis qui indiquent que la plupart sont mal préparées pour une migration réussie vers le réseau IPv6.

Les données révèlent des préoccupations et des défis :

  • 80% estiment qu’ils ne sont pas suffisamment instruits pour la migration IPv6 ;
  • 41% quand même suivent les adresses IP manuellement avec des feuilles de calcul, ce qui peut être source d’erreurs, de perte de temps et d’argent et non viables dans les environnements IPv6 ;
  • 70% sont préoccupés par la réussite lors du déploiement IPv6 ;
  • Le manque de connaissance et le risque de l’inconnu sont les grandes craintes sur IPv6 • 41% évaluent leur préparation derrière celle des concurrents ;
  • La plupart des gens sont dans la phase d ‘«apprentissage» d’IPv6 • Seulement 24% ont consacré des ressources pour gérer la migration d’IPv4 vers IPv6 ;
  • 23% s’attendent à faire face à des sites Web externes pour IPv6 au cours des 12 prochains mois.

“Le niveau de préoccupation est élevé, ce qui est bon signe, mais il ya beaucoup d’incertitude sur les mesures nécessaires et les outils pour gérer avec succès la transition d’IPv4 à IPv6», a commenté Cricket Liu, Expert en technologie DNS, et vice président Architecture d’Infoblox.

« Bien que la transition ne se fera pas du jour au lendemain, des mesures évidentes, telles que l’éducation, une évaluation des dispositifs de réseau qui sont prêts pour IPv6, et la mise en œuvre des outils automatisés de gestion des adresses IP, sont nécessaires. Le suivi des adresses IP dans une feuille de calcul est vraiment risqué avec plus de 128 bits des adresses IPv6, ce qui augmente la probabilité d’erreurs liés à la saisie manuelle. Des solutions qui automatisent la gestion des adresses IP sont devenus une nécessité pour éviter les erreurs et rester au fait des réseaux dynamiques d’aujourd’hui et les demandes des utilisateurs. »

Cloud computing : Atos Origin va offrir des solutions de tests informatiques

Disponible à l’échelle mondiale, cette nouvelle solution offrira aux clients de tous les secteurs d’activités un moyen flexible et financièrement avantageux de gérer toutes leurs exigences en matière de tests afin que leurs projets informatiques, quelle qu’en soit l’ampleur, puissent passer en toute sécurité de la phase de développement à la phase de production. La solution complète, qui couvre l’ensemble du cycle de développement logiciel, est basée sur un modèle de « tarification à l’acte » conçu par Atos Origin à l’aide du set d’outils intégré Rational Jazz d’IBM. Cette solution intègre la méthodologie de Tests et Recettes d’Atos Origin et tire parti de la longue expérience développée avec sa clientèle en la matière.

La simulation informatique temps réel au service des SmartGrids

KTH, l’un des instituts technologiques internationaux les plus renommés, conduit des recherches dans de nombreux domaines tels que les technologies de l’information et de la communication, les transports ou l’énergie. En 2010, les chercheurs de KTH souhaitent concevoir SmarTSLab (Smart Transmission Systems-Laboratory), une nouvelle plateforme technologique dédiée à l’utilisation des SmartGrids. L’équipe projette alors de développer des nouvelles technologies informatiques visant à optimiser la production et la distribution, à économiser l’énergie, à sécuriser le réseau électrique et à réduire les coûts.

Pour mener ces recherches, KTH aspire à trouver une alternative technologique à la simulation analogique, qui implique la réalisation de tests sur maquette à échelle réduite. L’institut lance alors un appel d’offre public pour la conception d’une solution de simulation informatique temps réel, dont la rapidité et la puissance de calcul permettraient de reproduire informatiquement et en temps réel :

  • un réseau d’électricité et son activité à échelle nationale ou Européenne,
  • des sources d’énergies renouvelables,
  • ainsi que des systèmes de conversion d’énergie.

En décembre 2010, KTH choisit le simulateur d’OPAL-RT Europe. Fondé sur la dernière génération de processeurs multi-cœurs Intel i7 et les cartes de calcul FPGA, ce simulateur est doté d’une précision de calcul à la microseconde et apte à reproduire virtuellement une grande variété de configurations de réseaux électriques. Cette plateforme de simulation temps réel, capable de reproduire avec précision de grands réseaux électriques, est aujourd’hui la plus rapide et la plus puissante d’Europe.

De plus, il respecte la norme de communication internationale IEC 61850, liée aux équipements de protection des réseaux et indispensable à la conduite de ces recherches. Le simulateur est intégré avec l’environnement de modélisation MATLAB/Simulink, ce qui permet une prise en main rapide. Aujourd’hui, les chercheurs soumettent le simulateur OPAL-RT Europe à une multitude de cas d’exploitation et d’incidents techniques :

  • erreurs de fréquence ;
  • creux de tension ;
  • dégradations de qualité de puissance ;
  • court-circuit ;
  • pannes dues à une surcharge ;
  • variations météorologiques ;

Ces tests informatiques devraient permettre de tirer des enseignements concrets et de valider des nouveaux concepts de technologies informatiques pour un déploiement efficace et pérenne des SmartGrids. « Le simulateur livré par OPAL-RT Europe nous donne accès à une technologie hautement performante et polyvalente. En outre, ce simulateur est étroitement intégré avec MATLAB / Simulink, un environnement de modélisation que nos élèves connaissent bien. Cela réduit les besoins en formation, simplifie nos recherches et augmente nos possibilités de coopération internationale. »

Zoom sur l’Autriche

Un coeur virtuel fait la jonction entre l’informatique et la médecine

Des chercheurs de l’Institut de Biophysique de l’Université de Médecine de Graz ont développé un modèle informatique -« in silico »- du coeur humain. Ce modèle permet de simuler les différents processus qui prennent place dans le coeur, ainsi que de visualiser les effets de différents traitements : interventions physiques ou prise de médicaments.

La compréhension et l’étude du coeur est une question d’importance fondamentale : en effet, les maladies cardio-vasculaires constituent la première cause de décès dans les pays industrialisés (environ 1,9 million de morts chaque année dans l’Union Européenne – ce sont quelques 30% des décès leur sont attribuables). Les causes sont néanmoins très diverses : troubles de la circulation, hypertension artérielle, inflammation du muscle cardiaque… Un modèle informatique du coeur peut permettre de simuler les réactions cardiaques à différents stimuli et ce jusqu’au niveau cellulaire, offrant aux chercheurs et aux médecins des informations précieuses.

Le champ des applications possibles d’un tel outil sont vastes : des modèles électro-physiologiques peuvent être utilisés par exemple pour optimiser le traitement de la fibrillation auriculaire, pour adapter les stimulateurs cardiaques ou encore pour observer les effets de médicaments agissant sur les troubles du rythme cardiaque…

L’un des objectifs des recherches en cours à l’Université de Médecine de Graz – en collaboration avec des experts de laboratoires de pointe dans le monde entier, tels que l’Institute of Computational Medicine à l’Université John Hopkins – est, à terme, de pouvoir proposer une médecine personnalisée aux patients : le modèle informatique pourrait être adapté à la situation de chacun après avoir récupéré des données individuelles par imagerie ainsi que par des examens électro-physiologiques.

Ces techniques de simulation sont rendues possibles notamment grâce au développement et à la généralisation des superordinateurs, la simulation d’un coeur humain peut ainsi se calculer en quelques minutes, mais en utilisant un système informatique basé sur plusieurs milliers d’unités de calcul.

En savoir plus : http://www.bulletins-electroniques.com/actualites/67003.htm

Ordinateur quantique : un correcteur d’erreurs itératif – un registre quantique de 14 bits

Une équipe de recherche basée à l’Institut de Physique Expérimentale de l’Université d’Innsbruck et à l’IQOQI (Institute for Quantum Optics and Quantum Information, un institut de l’Académie des Sciences autrichienne) a réussi à démontrer expérimentalement la faisabilité d’une étape cruciale dans le développement d’un ordinateur quantique : la correction itérative d’erreurs. La même équipe a également réussi à intriquer 14 bits quantiques (ou qubits), ce qui constitue un record mondial.
 
Pour tout système traitant des données, il existe des sources d’erreurs potentielles (réseau défectueux pour la transmission de données numériques par exemple). Des méthodes pour l’informatique classique ont ainsi été développées afin d’identifier et de corriger automatiquement les différentes erreurs produites au cours de la manipulation des données. Or les systèmes quantiques sont, de par leur nature même, encore plus sensibles aux perturbations que les systèmes classiques ; la correction d’erreurs pour un tel système demande donc un algorithme particulièrement performant. Le groupe de recherche mené par le physicien autrichien Rainer Blatt a démontré la faisabilité de la réalisation pratique d’un tel algorithme.
 
Contrairement à ce qui se fait pour un système classique, il n’est pas possible de copier l’information quantique – et par conséquent de comparer plusieurs fois les données pour détecter les éventuelles erreurs. Il est ainsi nécessaire de recourir à l’intrication, un phénomène quantique dans lequel l’état quantique de deux objets spatialement séparés se décrit globalement : deux particules intriquées forment en réalité un système unique, même si elles sont loin l’une de l’autre.
 
En pratique, les physiciens de l’équipe ont stocké trois ions calcium – dont l’un représente le qubit de référence, les deux autres représentent chacun un qubit auxiliaire – dans un piège ionique. La première étape consiste à intriquer le qubit de référence avec les deux autres, ce qui transfère l’information quantique sur les trois particules. Ensuite, un algorithme quantique mis au point par les chercheurs vérifie s’il y a une erreur, détermine laquelle s’il y en a une et la corrige. Après la correction, les deux ions auxiliaires sont soumis à un faisceau laser qui, en changeant leur état quantique, permet de les réinitialiser : c’est cet ajout expérimental qui permet de corriger les erreurs de façon répétitive.
 
Ce groupe de recherche est en pointe dans le domaine de l’informatique quantique. Il y a trois ans, il avait par exemple déjà présenté une porte quantique dont les sorties sont correctes plus de 99 fois sur 100. Le groupe est également détenteur d’un nouveau record depuis peu : celui de la taille d’un registre quantique. L’équipe a en effet pu réaliser l’intrication contrôlée de 14 qubits. Le précédent record, 8 qubits, datait de 2005 et était détenu… par la même équipe. Les 14 qubits -des ions calcium, encore- ont été confinés dans un piège ionique et manipulés à l’aide de lasers.
 
Les physiciens ont constaté que le taux de désintégration des atomes n’est pas linéairement proportionnel au nombre de qubits, mais proportionnel au carré du nombre de qubits. Cela signifie que la sensibilité d’un système quantique augmente significativement lorsque le nombre de particules intriquées augmente. Ce phénomène est connu sous le nom de superdécohérence et a rarement été observé jusqu’à présent.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66998.htm

Par S.B

LES BILANS

L’aéroport du futur

EADS IW et Altran ont organisé plusieurs ateliers avec des représentants de compagnies aériennes, d’aéroports, de gestion du trafic aérien, de constructeurs aéronautiques et d’autres modes de transport. Les participants sont parvenus à la conclusion que l’expérience des futurs passagers, sur les vols court et moyen-courriers, jouera un rôle décisif dans la compétition qui oppose l’aviation et le transport ferroviaire à grande vitesse.

Ces travaux de recherche contribuent aux objectifs définis par la Commission européenne dans la feuille de route « Flightpath 2050 – Europe’s Vision for Aviation », qui s’est fixée pour objectif de permettre à 90 % des passagers voyageant en Europe d’accomplir leur trajet de porte à porte en moins de quatre heures. Les transports intermodaux seront simplifiés, assurant un voyage sans heurt, prévisible et sans retard vers la destination finale, tout en répondant à la demande croissante en matière de transport aérien.

Ces concepts, qui placent les passagers au coeur du système de transport aérien afin de leur offrir une expérience agréable et des processus rationalisés, ont abouti au label « Friend-Lean Airport of the future » (« aéroport fluide et accueillant du futur »), a déclaré Guy Gallic, Manager du centre de compétences techniques « Concepts & Scénarios innovants » au sein d’EADS Innovation Works.

« A l’avenir, il ne sera plus uniquement question d’infrastructure, mais « d’expérience porte à porte in extenso ». Le terminal de l’aéroport ne représentera qu’une courte étape du voyage », a expliqué Sébastien Renouard, Directeur exécutif international « Aérospatial & Défense » d’Altran.

En 2010, 6,5 millions de passagers en moyenne ont effectué quotidiennement un vol moyen de 2 000 km à bord de l’un des 14 000 avions commerciaux. D’ici à 2050, le nombre de passagers est amené à croître pour atteindre environ 44 millions de passagers par jour dans le monde. Se projetant au-delà de 2040, l’étude avait pour but d’élaborer des concepts aéroportuaires révolutionnaires capables d’accueillir entre 25 et 100 millions de passagers par an. Elle part de l’hypothèse que les interfaces entre avions et aéroports seront comparables aux interfaces actuelles. De nombreuses idées très innovantes ont été conceptualisées avant d’être écartées, mais les concepts suivants ont fait l’objet d’une étude plus approfondie.

Le concept « Eye to the Sky » (Regard vers le ciel)

La zone de circulation des aéronefs est située au dessus des terminaux alors que le flux des passagers adressé verticalement s’accompagne d’un flux vertical des passagers du terminal à l’avion. Entre leur arrivée à l’aéroport et leur fauteuil dans l’avion, les passagers empruntent des rampes d’accès en spirale qui relient tous les niveaux de l’aéroport.

Ce concept s’est non seulement intéressé à la conception de l’infrastructure, mais également au développement de systèmes d’information visant à améliorer l’orientation et les services offerts aux passagers. Un dispositif connecté au réseau de l’aéroport fonctionnerait comme un guide portable facilitant l’orientation dans l’aéroport. Des systèmes de sécurité rationnalisés, basés sur de nouvelles technologies, seraient également intégrés.

Le concept « Passenger Airport Shuttles » (Aéroport à navettes passagers)

Avec un temps prévu de sept minutes maximum pour rallier n’importe quel « Skygate », les passagers ont la possibilité de rester plus longtemps dans le terminal central ou de se rendre à l’aéroport moins de dix minutes avant le décollage, sans risquer de manquer leur avion.

Il s’agit d’une approche décentralisée, qui propose de déplacer les passagers à l’aide de navettes aéroport commandées par un système de contrôle central automatisé. Une fonction d’identification assure la reconnaissance du passager et des données de son vol par le système de contrôle dès son entrée dans le véhicule, qui lui propose ensuite le transport et les informations adaptés à ses besoins.

L’avion sera arrimé à un petit bâtiment appelé « Skygate », qui fera office d’interface entre l’aéronef et la navette. Le traitement des bagages sera effectué dans le Skygate, ce qui permet de réduire au minimum le temps nécessaire à l’enregistrement et à la livraison des bagages.

Le concept « Extended Airport » (Aéroport étendu)

Le concept d’aéroport étendu concrétise la vision qui consiste littéralement à fournir un service de voyage de porte à porte, en étendant le service de transport en allant chercher les passagers (ou leurs bagages) chez eux ou sur leur lieu de travail.

Cette vision envisage l’intégration totale du transport aérien et des aéroports avec les autres modes de transport. Un planificateur de transport servira d’interface utilisateur pour les passagers, qui auront ainsi la possibilité de préparer leur voyage sur la base d’une concurrence et d’une collaboration adéquate entre les différents modes de transport.

De nombreuses révolutions seront nécessaires dans le secteur aéroportuaire pour créer des solutions à la hauteur des objectifs ambitieux définis dans la feuille de route « Flightpath 2050 » de la Commission européenne. L’étude en cours constitue un pas dans la bonne direction, mais n’en est qu’à ses prémices.

EADS IW et Altran sont les principaux partenaires de ce projet de recherche. L’étude a profité de nouveaux talents et idées non-conventionnelles issues d’une coopération avec les étudiants de l’Ecole Nationale des Ponts et Chaussées, en France, et l’institut HPI (Hasso Plattner Institut – Université de Potsdam), en Allemagne.

 

Déjà paru :

Un autoclave fonctionnant à l’énergie solaire

Des étudiants en ingénierie de l’Université Rice utilisent l’énergie solaire pour faire fonctionner un autoclave, permettant de résoudre le problème de stérilisation des instruments médicaux dans les pays en développement et dans les zones partiellement ou totalement isolées. Le système mis au point par les étudiants est très simple : « Capteur Soleil », appareil créé il y a quelques décennies par l’inventeur français Jean Boubour pour capturer l’énergie solaire là où l’électricité ou n’importe quel type de carburant fait défaut, se trouve combiné à une boite isolante contenant un autoclave.

Le principe de l’autoclave a été inventé par Denis Papin au XVIIe siècle, puis a été amélioré au fil du temps par Nicolas Appert et Charles Chamberland. Il consiste en un gros récipient à parois épaisses, fermé hermétiquement, permettant entre autre une cuisson, ou la stérilisation à la vapeur de matériel médical. La chaleur et l’humidité, très utilisées en milieu hospitalier, détruisent les germes par dénaturation protéique.

« Capteur Soleil » ressemble, en quelque sorte, à une large balançoire ultramoderne. Son ossature en acier soutient un lit de miroirs incurvés, sous le cadre, produisant de la vapeur en concentrant les rayons du soleil sur le tube en acier qui se trouve au sommet de la structure. Il devient assez simple de laisser les instruments stériliser à au moins 121°C durant une demi-heure. Petit plus : la vapeur, avant d’arriver dans l’autoclave, sert à faire fonctionner une plaque chauffante spécialement conçue pour l’engin. L’autoclave se met correctement en marche au bout d’une quarantaine de minutes de bon soleil.

Par Rahman Moonzur

 

Déjà publié :

« Lumiwatt », centre de test solaire photovoltaïque unique au monde

Le solaire photovoltaïque à concentraiton mis sous la loupe

De l’énergie solaire pour extraire du pétrole ?

Festival Futur en Seine : Le Village des Innovations, au 104

Lieu de création et de production artistiques, le CENTQUATRE accueille le festival Futur en Seine, dont l’ambition avouée est de « montrer qu’il existe véritablement une économie innovante active et ancrée dans la réalité avec des applications au service de chacun ». C’est dans le cadre de ce festival que cet espace, géré par la Ville de Paris, héberge le « Village des Innovations », un salon où sont exposés, sur plus de 2 000 m², de nombreux projets et prototypes, alliant technologies, services et design.

Les visiteurs pourront partir à la découverte d’environnements collaboratifs, de nombreux robots nouvelle génération, tournés aussi bien vers le service aux entreprises qu’ancrés dans une très proche vie de tous les jours. Des dispositifs issus de projet R&D, des produits pré-commerciaux innovants, des œuvres et contenus numériques côtoieront des projets d’entreprises franciliennes, mais aussi internationales.

Ce « village » abrite de véritables quartiers :

  • le village international, qui présente quelques projets en pointe d’une dizaine de pays investissant sur le numérique, faisant la part belle au Japon ainsi qu’au Brésil et à l’Angleterre, qui exposent leurs meilleurs projets en TIC ;
  • l’espace prototypes, présentant une sélection de 17 des 24 prototypes développés depuis 2009 dans le cadre du festival, rassemblant aussi bien des projets de robotique que de réalité augmentée ;
  • l’espace contenus numériques, accueillant des créateurs et des artistes évoluant autour des technologies numériques ;
  • l’espace projet numérique, proposant une sélection d’une vingtaine d’innovations découlant de projets collaboratifs associant des entreprises, des laboratoires de recherche publique et des universités et grandes écoles.

Le Village des Innovations, au CENTQUATRE, du 23 au 26 juin 2011

5 rue Curial / 104 rue d’Aubervilliers, dans le 19e, Métro Riquet

Entrée libre, de 10h à 18h

Par Rahman Moonzur

Le cerveau humain simulé sur ordinateur

Modéliser le cerveau humain et créer les moyens techniques nécessaires pour y parvenir : tel est l’objectif du « Human Brain Project » (HBP), une collaboration impliquant 12 centres de recherche européens spécialisés dans les neurosciences, la physique, les mathématiques, l’informatique et l’ethique. Y figurent notamment l’Université d’Heidelberg (Bade-Wurtemberg), l’Université technique de Munich (Bavière), le centre de recherche de Jülich (Rhénanie du Nord-Westphalie), ainsi que l’unité de recherche de neuro-imagerie cognitive du CEA-Inserm.

Ce projet constitue une étape cruciale dans la compréhension du cerveau humain, et pourrait conduire à des avancées tant dans le domaine de la santé que dans celui des TIC.

En effet, si le cerveau humain peut être comparé à un ordinateur surpuissant, autodidacte, capable de se reconfigurer en temps réel selon les expériences vécues, d’optimiser son utilisation énergétique et de se régénérer, comprendre le fonctionnement cérébral et être capable de le simuler constituerait une avancée déterminante tant dans le domaine des neurosciences que dans celui du traitement de l’information. C’est bien l’enjeu du « Human Brain Project » (HBP), qui vise à simuler informatiquement les processus mis en oeuvre par le cerveau, et réitère l’enjeu stratégique des supercalculateurs pour la recherche sur les systèmes complexes.

En effet, avec les ordinateurs des années 1990, rappelle Henry Markram (coordinateur du projet), il fallait la puissance d’un processeur de PC pour simuler l’activité d’un seul neurone. Actuellement, explique-t-il, l’équipe dispose de l’équivalent de 16 000 processeurs et parvient à simuler 360 000 neurones (utilisant le supercalculateur IBM Blue Gene). Or, on estime que le cerveau humain en contient cent milliards, ce qui laisse imaginer la puissance informatique colossale qu’il faudrait développer pour une simulation complète.

Selon les estimations récentes, il faudrait ainsi 1 000 petaflops pour simuler le cerveau (1018 flops, soit 1 exaflops), alors que le champion du monde actuel (le supercalculateur chinois Tianhe-1A) en est à 2,7 et que la prochaine version de l’IBM Blue Gene n’en atteindra que 10. L’équipe du HBP a donc besoin de temps mais aussi de moyens pour réaliser son projet. L’Union européenne l’a d’ailleurs sélectionné parmi les cinq derniers projets éligibles à une dotation exceptionnelle pouvant atteindre 1 milliard d’euros sur 10 ans. Le projet pourra quant à lui aboutir d’ici 2023.

http://www.bulletins-electroniques.com/

 

Déjà publié :

IBM fait un pas de plus vers le cerveau virtuel

Contrôler un ordinateur par la pensée

OpenVibe, un logiciel français pour agir par la pensée

 

 

Vers une homogénéisation des mesures européennes de protection contre la radioactivité

Lors d’un incident nucléaire, des mesures d’urgence sont mises en application, telles que le confinement de la population ou son évacuation, normalement suivies par des mesures sur le long terme, telles que le relogement desdites populations dans des zones sécurisées, ou la permission de regagner leur domicile. La décision, de choisir l’une ou l’autre de ces mesures se fait sur la base de ce que l’on nomme les différents « niveaux d’intervention », liés au niveau de radioactivité, dont la mesure se fait en millisieverts (mSv) et qui diffèrent d’un pays à l’autre.

Il faudra désormais compter avec l’Emergency Preparedness and Action Level (EPAL), une équipe composée d’experts européens en protection nucléaire, dont le but avoué est d’harmoniser les différentes réponses européennes à une éventuelle urgence nucléaire. Celui-ci a présenté une nouvelle méthodologie dans le journal Health Physics. Cette méthodologie permettrait d’unifier une bonne fois pour toutes ces critères, et de prodiguer des conseils dans la prise de décision.

Cette méthode, en deux étapes, comprend le calcul des doses standards de radioactivité, puis une fois les relevés effectués, l’application d’un barème permettant aux autorités d’adopter les mesures les plus appropriées. Deux codes internationaux servent d’outils de calcul permettant une prise de décision en cas d’urgence, RODOS, développé par le Centre FZK de Karlsruhe, en Allemagne, et RO-CODE, sa version roumaine. Ces outils offrent la possibilité de calculer les doses à des distances différentes, tenant compte de conditions de dispersion différentes. Ils soulignent notamment l’importance de l’adaptation de ces normes aux conditions atmosphériques, si l’on est en présence d’un temps plutôt sec ou plutôt pluvieux et humide.

Par Rahman Moonzur

 

Déjà publié :

La sûreté nucléaire en France, au centre des débats

Astrid, futur réacteur nucléaire de 4è génération

L’AIEA se montre sévère face à la catastrophe de Fukushima

Des dalles OLED transparentes

Il s’agit actuellement, selon TDK, de la première dalle transparente produite en série dans le monde. TDK avait présenté un prototype de ces écrans lors d’un salon en octobre 2010. Les dalles de type OLED sont de plus en plus utilisées dans de nombreux contextes, car elles disposent d’une forte luminosité, d’angles de vues larges et d’autres caractéristiques rendant ce type d’écran agréable à utiliser.

Les dalles OLED fonctionnent selon le principe suivant : une couche de matériau organique est placée entre deux couches, l’une étant l’anode et l’autre la cathode. Par électroluminescence, des photons sont créés, permettant ainsi l’affichage d’une image sans rétro-éclairage. Habituellement, l’anode utilise des composants transparents (souvent de l’oxyde d’indium-étain) et la cathode des composants métalliques, opaques (l’utilisateur ne peut donc pas voir ce qui se passe derrière l’écran). Dans le cas d’écrans transparents, il faut donc remplacer la cathode opaque par une cathode transparente.

De nombreux prototypes d’écrans OLED disposant d’une certaine transparence ont déjà été créés par le passé. Néanmoins, deux problèmes sont apparus : il n’existe aucun procédé de production en série d’électrodes transparentes utilisant des oxydes d’une part, et les images sont visibles de chaque côté de l’écran, posant d’éventuels problèmes pour la vie privée dans certains cas comme celui d’un téléphone portable.

TDK a réussi à contourner ce problème en continuant à utiliser une électrode métallique pour la cathode ; néanmoins, en ne couvrant qu’une partie des pixels (en diminuant simplement la largeur des électrodes), la transparence a été obtenue. L’avantage de cette technique est également que la lumière créée par électroluminescence n’est transmise que du côté positif de l’écran, rendant ainsi les images quasiment invisibles depuis la face arrière de la dalle. Les dalles en question sont à matrice passive, ont une taille de 2,4 pouces, une résolution de 240 x 320 pixels et une luminosité de 150 cd/m2. La petite taille de ces dalles les destinent principalement à une utilisation dans des téléphones portables.

TDK a commencé à produire ces dalles à raison de 10 000 unités par mois dans son usine de la préfecture d’Ibaraki. Certaines de ces dalles ont déjà été fournies à Lenovo, qui s’en servira pour construire des téléphones portables destinés au marché chinois. De plus, TDK continue à développer cette technologie afin d’améliorer, entre autres, la résolution des dalles. Mais l’entreprise n’a pas encore décidé si celles-ci seraient utilisées dans des smartphones.

http://www.bulletins-electroniques.com/

Installation thermique expérimentale au Bourget

Comment peut-on rendre le transport aérien compatible à son environnement, de manière économique et durable ? Les nombreuses variations de température extérieure, couplées à la température élevée du fuselage, représentent un véritable challenge aussi bien pour l’appareillage technique que pour les matériaux.

Pour s’assurer que l’équipement embarqué fonctionnera en toutes circonstances, les scientifiques de l’Institut Fraunhofer IBP, à Holzkirchen, près de Munich, testeront et développeront le nouvel appareillage, tels que l’alimentation électrique, l’air conditionné, les lumières ou encore les sondes Pitot (probablement en partie responsables du crash du vol Rio-Paris), dans des conditions et des variations thermiques extrêmes.

« L’installation comprendra de nombreux éléments, dont le principal sera un calorimètre, intégré à la chambre basse-pression du complexe », explique le Dr Gunnar Grün, responsable du projet. Les scientifiques espèrent avoir une idée plus précise de l’effet de la température extérieure sur les systèmes embarqués. Pour ce faire, ils auront à leur disposition trois sections du fuselage d’un jet « business », de marque Dassault, notamment pour étudier le comportement de nouveaux systèmes électriques avec différentes parties de l’appareil.

Les scientifiques pensent également être à même de prouver (et ainsi améliorer) que la répartition de certains appareils impacte, en raison de l’espace confiné, sur la température interne et externe de l’avion. La conduction thermique serait une des solutions envisagées. Ce projet sera présenté au salon du Bourget du 20 au 26 juin.

Par Rahman Moonzur

 

Déjà publié :

Vector : le savoir faire des systèmes embarqués

Systèmes embarqués : un défi économique dans les mains de la recherche

Systèmes embarqués : gérer la criticité

L’avion-fusée, réalité en 2050 ?

Le groupe industriel européen EADS (European Aeronautic Defence and Space Company), spécialisé dans l’aéronautique, n’a pas fait pas dans la demi-mesure peu avant l’ouverture du Salon du Bourget, le Paris Air Show, qui a débuté ce lundi. Par le biais de son directeur général délégué des technologies et innovations, Jean Botti, – et alors qu’une maquette du ZEHST doit être présentée lors du salon au format 1/14e –, EADS a tenu à affirmer que ce projet n’était pas de l’ordre de l’utopie.

L’avion « hypersonique » ZEHST, acronyme de « Zero Emission High Speed Transport », devrait donc être capable de relier Paris à New-York en 1h30, Paris à Tokyo en 2h30 (contre 11h30 aujourd’hui). D’une longueur d’environ 80 mètres, d’une envergure de 35 à 40 mètres, il devrait pouvoir transporter entre 60 et 100 passagers à une vitesse de Mach 4 (4 800km/h) et à une altitude de 32 kilomètres (contre 10 aujourd’hui), dans la stratosphère, bien en deça de sa limite supérieure, la stratopause.

Utilisant des turboréacteurs fonctionnant avec un biocarburant à base d’algues lors de la phase de décollage, un moteur de fusée lors de l’ascension et deux stratoréacteurs lors de la phase de vol de croisière, il présente les caractéristiques d’une aile Delta, « parce que l’aérodynamique veut que l’on minimise toutes les trainées », explique Jean Botti sur Europe 1. Le moteur fusée existerait déjà, et une commercialisation pourrait être envisagée à l’horizon 2050.

Il visera une clientèle d’affaires, comme le Concorde avec qui la comparaison semble inévitable. « Il faut prendre toutes les mesures de sécurité et s’assurer que tout ce qu’on a prévu sera validé », a-t-il encore expliqué, ajoutant que cet avion-fusée ne polluera pas l’atmosphère… mais l’espace.

Voici une courte vidéo en image de synthèse :

 

Par Rahman Moonzur

Elles bougent au Bourget !

70 jeunes lycéennes et étudiantes de toute la France, accompagnées de trente ingénieures et techniciennes de l’association Elles bougent, vont découvrir les métiers et les formations de l’aéronautique et de l’aérospatial au Salon du Bourget mardi 21 juin 2011.
« L’objectif de cette journée est de déclencher chez les jeunes filles un intérêt fort pour qu’elles se projettent dans ces métiers en tant que femme », explique Marie-Sophie Pawlak, présidente de cette association organisatrice de nombreuses initiatives pour susciter des vocations scientifiques et techniques féminines. 

Échanger, débattre

Guidées par trente marraines de l’association, elles-mêmes salariées dans le secteur, ces jeunes lycéennes et étudiantes sillonneront le salon pour rencontrer des professionnels du secteur (comme Alten, Dassault Aviation, EADS, Safran ou Thales), et les interroger sur leur formation, métier et produits. Elles participeront également en fin de journée à un débat où elles pourront échanger librement avec leurs marraines (lire le programme de la journée).

Un secteur d’avenir

« Il est capital de « montrer » le secteur aux jeunes filles » , insiste Guy Maugis, président de Robert Bosch France et président d’honneur de l’association Elles bougent. D’ailleurs 50 % des femmes de l’aérospatial le recommanderait comme secteur industriel d’avenir à un jeune ». Un chiffre tiré de la dernière enquête de l’association Un regard féminin sur l’Industrie réalisée auprès de 361 ingénieures et techniciennes et qui précise aussi que 80 % d’entre elles ont choisi de travailler dans le secteur de l’aérospatial « par intérêt pour les produits, pour la technique ou pour rejoindre une entreprise de haute technologie ». « C’est un secteur pour lequel les jeunes filles ont beaucoup d’intérêt et qui parallèlement offre de belles perspectives de carrière », insiste de son côté Marie-Sophie Pawlak, qui est aussi directrice des relations industrielles et internationales de Supméca.

Un concours pour les jeunes

La journée sera aussi l’occasion pour l’association de récompenser un collège et un lycée ayant réalisé les meilleurs documents sur le thème « Féminisons les métiers de l’aéronautique », un projet pédagogique lancé en janvier dernier avec Airemploi.

 

Par Corinne Dillenseger / Maviepro.fr

 

Déjà publié :

Elles bougent pour faire connaître les métiers d’ingénieurs

 

Vous recherchez un poste ou un stage ? Rendez-vous sur l’espace Réseau & Emploi de Techniques de l’Ingénieur

Le nouveau magnétisme des panneaux solaires

Une équipe de chercheurs américains a trouvé le moyen de produire de l’énergie grâce à un nouveau genre de panneau solaire, plus ou moins similaire à une « batterie optique », terme employé par Stephen Rand, professeur aux départements d’Ingénierie électrique et de Physique à l’Université du Michigan. Ces panneaux solaires pourraient être d’un genre nouveau, puisqu’ils ne recourraient pas aux habituels semi-conducteurs.

100 millions de fois plus fort

La lumière a des composants électriques et magnétiques. Jusqu’à maintenant, les scientifiques s’accordaient sur le principe que le champ magnétique était si faible qu’ils pouvaient très bien l’ignorer. Le professeur Rand et ses collègues ont découvert qu’à la bonne intensité, lorsque la lumière voyage à travers un matériau qui n’est pas conducteur d’électricité, un champ magnétique 100 millions de fois plus fort que celui attendu pouvait être généré. Dans ces circonstances, les effets magnétiques développent une puissance équivalente à un effet électrique conséquent.

Faible charge thermique

« Dans les cellules solaires, la lumière va dans un matériau, est absorbée et crée de la chaleur. Ici, nous nous attendons à avoir une charge thermique très faible. Au lieu que la lumière soit absorbée, l’énergie est stockée dans un moment magnétique. Une intense aimantation peut être induite par une intense lumière et tout cela est finalement capable de fournir une source d’énergie capacitive », explique le professeur de l’Université du Michigan.

Redressement optique

« C’est le redressement optique qui crée la charge », commente William Fisher, un étudiant en doctorat de physique appliquée. Habituellement, lors d’une rectification optique traditionnelle, c’est le champ électrique de la lumière qui est responsable de la séparation des charges positives et négatives dans le matériau. Une tension apparaît alors, équivalente à celle d’une batterie. Il ajoute que leurs travaux leur ont permis de constater que cette rectification optique peut aussi résulter du champ magnétique de la lumière dans bien d’autre matériaux.

10 % moins cher

Le prix de l’énergie produite par cette technologie devrait être inférieur au prix de l’énergie solaire « standard », d’après les prédictions des chercheurs, qui pensent aussi atteindre les 10 % d’efficacité dans la conversion de l’énergie solaire en énergie utilisable, ce qui serait assez équivalent aux panneaux solaires disponibles sur le marché.

Céramique transparente ?

« Pour fabriquer des panneaux solaires modernes, vous devez élaborer et faire des tests sur des semi-conducteurs », ajoute le professeur Rand. « Nous avons seulement besoin de lentilles pour concentrer la lumière, et d’une fibre pour le guidage. Le verre fonctionne bien, et peut être produit en très grande quantité, tout en ne réclamant pas autant de soin ni de traitement. » Il se pourrait même que les céramiques transparentes, ayant déjà de nombreuses applications optiques, conviennent encore mieux.

Par Rahman Moonzur

 

Déjà publié :

Record du monde suisse en matière d’efficacité sur les cellules photovoltaïques

Photovoltaïque : éviter la surchauffe en créant des conditions stables

Des panneaux photovoltaïques recyclables et flexibles

 

 

La réussite d’un programme de tests liés à l’IPv6 par Sourcefire

Sourcefire Inc. (Nasdap : FIRE), le créateur de Snort et acteur majeur sur le marché de la sécurité informatique (Intelligent Cyber security solutions), annonce avoir réussi avec succès les tests d’ICSA Labs, démontrant ainsi que les clients du gouvernement fédéral américain peuvent profiter de la solution de prévention et de détection d’intrusion de Sourcefire sur les réseaux IPv6 (Internet Protocol Version 6).  Sourcefire Defense Center a entièrement satisfait le gouvernement fédéral américain en répondant aux exigences des tests IPv6 (USGv6) et les sondes IPS de Sourcefire sont actuellement en phase de tests.  

« Avec la reconnaissance de l’ICSA Labs, nous remplissons les exigences du gouvernement fédéral américain pour évoluer vers l’IPv6 dès 2012. Cela illustre également l’engagement de Sourcefire envers ses clients pour répondre à leurs nouveaux besoins en matière de sécurité », commente Marc Solomon, Vice Président Senior Marketing de Sourcefire. « La validation de ces tests indépendants concernant l’IPv6 arrive à point nommé, plus particulièrement au moment où les blocs d’adresses IPv4 disponibles sont pratiquement épuisés ».

L’ICSA Labs et l’ensemble des autres laboratoires de tests collaborent avec le National Institut of Standards and Technology (NIST) afin d’établir des normes et mettre en place des plateformes de tests pour contribuer à l’adoption de l‘IPv6 par les agences gouvernementales américaines. Le Sourcefire 3D®System est l’une des premières solutions de sécurité informatique certifiée par l’ICSA Labs et répond ainsi aux exigences du gouvernement fédéral américain pour la mise en place d’un réseau IPv6.

« L’objectif du programme de tests IPv6 du gouvernement fédéral américain est de s’assurer de l’interopérabilité de l’ensemble des composants réseau et informatique utilisés pour construire, maintenir et sécuriser l’infrastructure informatique des agences fédérales », commente Brian Monkman, Responsable des Programmes de Sécurité de ICSA Labs. « Sourcefire est l’un des premiers fournisseurs de sécurité informatique à participer à ces tests, ses clients bénéficieront ainsi des efforts en recherche et développement réalisés par Sourcefire pour s’assurer que ses produits sont compatibles avec l’IPv6 ».

Déjà publié :

DIAPORAMA – La navette spatiale Endeavour amarrée à l’ISS

La NASA (National Aeronautics and Space Administration) a publié il y a quelques jours de magnifiques photos de la navette spatiale américaine Endeavour  – amarrée à la Station Spatiale Internationale (ISS) –, prises depuis le vaisseau spatial russe Soyouz, sur le départ. C’est la première fois que la capsule Soyouz amorce son voyage retour vers la Terre alors qu’un vaisseau spatial est amarré à l’ISS, et qu’elle soit orientée dans la bonne direction, permettant la prise de ces clichés uniques.

La navette Endeavour, qui s’est posée le 1er juin à Cap Canaveral, en Floride, a effectué sa dernière mission dans l’espace. La navette spatiale américaine Atlantis est la seule navette opérationnelle restante, dont le dernier vol est prévu le 28 juin 2011, pour une mission d’acheminement d’un module multi-usages et pour un ravitaillement.

L’astronaute italien Paolo Nespoli, de l’Agence Spatiale Européenne (ESA), a pris ces photographies il y a environ trois semaines, peu de temps après que le vaisseau russe ait amorcé son voyage retour vers la Terre. Il venait de passer près de 6 mois à bord de l’ISS, pour son deuxième voyage dans l’espace. Soyouz sera désormais le seul vaisseau à même de ravitailler ou de transporter un équipage vers l’ISS.

La destruction de Challenger en 1986, peu de temps après son décollage, la désintégration de Columbia lors de son retour sur Terre en 2003, les retraits de Discovery en février, d’Endeavour et le futur retrait d’Atlantis, qui effectuera son dernier vol, marquent la fin des vols des navettes spatiales américaines, jusqu’à l’inauguration de plus en plus hypothétique du vaisseau Orion, depuis l’abandon du programme « Constellation »

Par Rahman Moonzur

[1/4]

[2/4]

[3/4]

[4/4]

La première voiture volante commercialisée fin 2011

Chère aux adeptes de science-fiction, on ne l’attendait plus, bien que les progrès techniques nous rapprochaient irrémédiablement de sa conception, puis de sa commercialisation. Ce n’est plus seulement un jouet de scientifiques gadgetophiles bricoleurs et avertis, et cela dépasse l’ordre du prototype. Terrafugia (« s’échapper de terre » en latin) a annoncé la mise sur le marché de son modèle « Transition » pour la fin de l’année 2011, devenant le premier véhicule hybride commercialisé.

Un véhicule de 650 kilos

Le modèle « Transition » est un véhicule hybride conçu par la petite société américaine Terrafugia, fondée en 2006 par des ingénieurs aéronautiques du Massachusetts Institute of Technology (MIT). Un prototype de leur vaisseau amiral a déjà été approuvé par la Federal Aviation Administration (FAA) – responsable entre autres des certifications des nouveaux appareils ainsi que des réglementations concernant l’aviation civile américaine – malgré un surpoids de 50 kilos par rapport à la limite autorisée au décollage, dont la barre est fixée à 600 kilos pour les « Light Sport Aircraft », les avions sportifs légers. Ce surpoids serait essentiellement dû à la conformité aux normes de sécurité à la fois aériennes et routières (airbags, pare-chocs…).

Moteur Rotax 912

Le « Transition » est équipé d’une hélice arrière pour assurer sa propulsion, solidaire d’un moteur du constructeur autrichien Rotax, le Rotax 912, moteur à explosion quatre cylindres boxer, quatre temps, équipant couramment les avions ultra-légers et les drones, dont le refroidissement est mixte, c’est-à-dire assuré par les cylindres (air) et par les culasses (refroidissement liquide). Il fait la part belle à la fibre de carbone, et possède deux ailes se dépliant ou se repliant en une minute à partir d’une commande située dans le cockpit, lui permettant ainsi de passer du véhicule routier (certes, futuriste) à un avion sportif léger. Il a une capacité de deux personnes, le pilote et un passager.

Seulement 2 500 pieds de piste nécessaires

« Transition », une fois avion, peut atterrir ou décoller de n’importe quelle piste d’aéroport d’une longueur de près de 760 mètres (2 500 pieds), c’est-à-dire incluant la majorité des aéroports publics (l’aéroport du Bourget, par exemple, dispose de trois pistes allant de 1 845 mètres à 3 000 mètres). Il aurait une autonomie de 787 kilomètres, et atteindrait les 180 km/h de vitesse de croisière. Il est nécessaire au pilote d’avoir un minimum de 20 heures de vol à son compteur, de passer un test pratique dans l’avion hybride, et évidemment d’être détenteur d’un permis de conduire valide pour son utilisation routière. C’est tout du moins la réglementation actuelle aux États-Unis.

Entre 200 000 et 250 000 dollars

Sa commercialisation et sa livraison, prévues pour la fin de l’année 2011, devraient combler les quelques 80 futurs heureux propriétaires ayant déjà réservé leur appareil. Bien que le prix de vente définitif à l’unité ne soit pas encore fixé, il devrait avoisiner les 200 000 à 250 000 dollars US (de 140 000 à 170 000 euros), représentant donc plus de 16 millions de dollars. Voici une vidéo de démonstration de la bête, en anglais :

Il est maintenant légitime de se demander à quand un véhicule hybride n’ayant pas besoin de piste d’aéroport, à savoir ADAV, c’est-à-dire un aéronef à décollage et atterrissage verticaux ?

Le site de Terrafugia : www.terrafugia.com

Par Rahman Moonzur

La seconde édition du Guide des Nanotechnologies est disponible

Considérées comme l’un des moteurs de la prochaine révolution industrielle, les nanotechnologies présentent un potentiel considérable de développements et d’applications. Le grand débat public sur les nanotechnologies qui s’est achevé en 2010, s’était fixé des objectifs ambitieux : éclairer les autorités publiques qui prendront ensuite des décisions pour encadrer l’usage des nanotechnologies, mais aussi les scientifiques, les industriels, les associations ainsi que les citoyens. Depuis, le marché, ainsi que le contexte réglementaire et social, ont beaucoup évolué.

Inédit : le code QR, un pictogramme révolutionnaire

Le code QR® est un code-barres en 2 dimensions. Un code QR ®, présent sur chaque fiche entreprise, permet au lecteur de récupérer instantanément et automatiquement avec son smartphone l’adresse du site Internet de chaque société référencée. Il suffit pour capturer ses données de le photographier avec un smartphone en utilisant une application pour mobile telle que Mobiletag (sur mobile : http://m.mobiletag.com)

Cet ouvrage permet d’aider le lecteur à se repérer dans ce nouvel environnement concurrentiel.

Quelles entreprises participent au développement des nanotechnologies en France ? Quels sont les produits déjà sur le marché et ceux à venir ? Quels marchés sont concernés ? Qui sont les producteurs, les intégrateurs, les utilisateurs ? Où trouver les compétences, les installations, les financements ?

Edité par les Techniques de l’Ingénieur en partenariat avec la société de conseil ALCIMED, le Guide des nanotechnologies est le seul annuaire de référence multisectoriel consacré au marché français.

Il permet de dessiner les contours de ce marché émergent. Cet ouvrage unique recense l’ensemble des acteurs de la filière française des nanotechnologies (entreprises, organismes et associations) et dresse un état des lieux du marché en France.

C’est un outil indispensable pour comprendre le marché français des nanotechnologies et pour  identifier partenaires et clients du domaine. En effet, S’il est incontestable qu’au niveau mondial les nanoproduits se multiplient, les marchés concernés se situent principalement aux Etats-Unis et en Asie.

L’Europe, et plus particulièrement la France, certes en pointe au niveau de la recherche académique, apparaissent beaucoup plus en retrait quant à la commercialisation des nanomatériaux. A titre d’exemple, parmi l’ensemble des produits commercialisés, moins de 2% sont d’origine française. Finalement, le débat public, au-delà de la controverse, a le mérite d’initier la question de la place des nanotechnologies en France : quels produits, quelles applications mais également quelles filières industrielles concernés ?

 Le Guide des nanotechnologies est au service de toute l’industrie, tous secteurs confondus et s’adresse aux ingénieurs, chercheurs, donneurs d’ordre et investisseurs.

Il s’agit du premier guide consacré au marché français des nanotechnologies :

  • un référencement exhaustif des entreprises et organismes de la filière ;
  • un classement des sociétés par secteur industriel ;
  • une analyse par secteur du marché français par les experts d’ALCIMED, du CEA, du CNRS, de l’ANSES, de l’ANR ;
  • des interviews de chercheurs et de chefs d’entreprise.

C’est aussi un guide de référence qui recense l’ensemble des acteurs de la chaîne de valeur :

  • producteurs et fournisseurs de nanomatériaux ;
  • utilisateurs, intégrateurs et transformateurs de nanomatériaux ;
  • fabricants et fournisseurs d’équipements de synthèse et de mesure
  • centres de recherche et pôles de compétitivité ;
  • associations, fédérations et agences ;
  • financement et transfert technologique ;
  • sociétés de conseil & d’expertise

 

> Commander le Guide des nanotechnologies 2011

 

Pour toute information complémentaire, contacter Céline Chartier

 

Découvrez la formation Techniques de l’Ingénieur : NANOMATÉRIAUX

 

Déjà publié :

« Des présomptions de toxicité sur des nanoparticules ont été établies »

Les nanotechnologies ont désormais leur guide

La France est-elle toujours dans la course aux nanos ?

Nanomatériaux : l’Afsset recommande la prudence 

Des pneus qui « roulent mieux »

Plus d’un milliard de pneus sont produits chaque année dans le monde, dont près de la moitié en Amérique du Nord… Leur élimination après usage représente tout un défi. Une grande partie d’entre eux sont utilisés comme combustible dans les fours à ciment, processus qui produit de grandes quantités de gaz carbonique (CO2) qui contribue au réchauffement planétaire.

Mais il faut aussi tenir compte du CO2 produit par les pneus simplement par leur utilisation. On estime qu’une voiture consomme 20 % de son carburant simplement pour contrer la résistance au roulement de ses pneus. Ce phénomène est responsable de plus de 4 % des émissions de CO2 provenant de combustibles fossiles à travers le monde. Il est possible de fabriquer des pneus qui « roulent » mieux mais cela nuit à leur adhérence et leur durabilité. Le défi des manufacturiers a toujours été de combiner ces trois éléments, connus sous le terme de « triangle magique », de manière à avoir le meilleur roulement sans trop sacrifier l’adhérence et la durabilité. Pendant longtemps, le noir de carbone, un composé provenant de la combustion incomplète du goudron, était l’additif au caoutchouc qui donnait les meilleurs résultats. Mais en 1992, les chercheurs de Michelin sont arrivés à conquérir « le triangle magique » avec un nouvel additif révolutionnaire. Ils ont remplacé le noir de carbone par des dérivés de la silice, une technologie qui, d’un seul coup, a réduit la résistance au roulement de près de 30 %, réduisant la consommation d’essence et donc, la production de CO2. Voilà qui représente une belle contribution de la part d’un matériau tout simple. Car la silice est tout simplement le composé dont le sable est constitué.

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

Nucléaire en France : 410 000 emplois et 2 % du PIB

Avec 78 % de son électricité d’origine nucléaire aujourd’hui, la France a fait un choix technologique structurant pour son économie. Le pays s’est également doté d’un secteur électronucléaire qui est leader à l’échelle mondiale. Dans le contexte actuel où le défi de la maîtrise des émissions de gaz à effet de serre est devenu central, les activités de production électrique renouvelables sont l’objet de nombreuses études visant à chiffrer leurs impacts socio-économiques (nombre d’emplois, création de valeur). Aucune analyse aussi complète n’avait été présentée à ce jour pour l’électronucléaire.

PwC a évalué les impacts socio-économiques de l’électronucléaire en France en 2009. L’étude fine des entreprises parmi les fournisseurs des grands maîtres d’œuvre de l’électronucléaire a permis d’identifier plus de 450 entreprises françaises qui ont développé une spécialisation dans l’électronucléaire. Le secteur a été décomposé en quatre maillons de la chaîne de valeur, l’Amont, la Construction, l’Exploitation & Maintenance et l’Aval, regroupant le retraitement et le démantèlement. Les plus grandes entreprises spécialisées travaillent dans l’ensemble des maillons. Le CEA, l’ANDRA et l’IRSN assurent des rôles centraux dans la R&D, la gestion des déchets et la radioprotection, l’ASN contrôle et régule les activités nucléaires sur le territoire. Les emplois dédiés correspondants sont intégrés dans le périmètre de l’étude.

Le poids social

L’industrie électronucléaire emploie directement 125 000 personnes en France. La répartition de ces emplois entre les différents maillons de la chaîne de valeur est relativement homogène : chacun des maillons emploie directement au moins 20 000 personnes. Ils se répartissent également dans toutes les régions de France. Ces 125 000 emplois directs représentent presque 4 % de l’emploi industriel total en France. « Le poids social de l’électronucléaire est équivalent à celui de la construction et de la maintenance aéronautique », précise Philippe Girault, associé PwC, responsable du secteur de l’énergie en France. La prise en compte des effets indirects (les effets indirects sont calculés à partir des achats du secteur auprès d’entreprises hors du secteur en utilisant les coefficients multiplicateurs des branches d’activité concernées) et induits (les effets induits sont générés par les dépenses des employés directs et indirects) conduit à estimer à 410 000 le nombre d’emplois totaux dépendants de l’industrie électronucléaire en 2009, soit  près de 2 % des emplois en France.
 

Le poids économique

La valeur ajoutée cumulée des entreprises spécialisées dans le nucléaire (délimitée aux activités réalisées dans un des maillons de la chaîne de valeur)  et des établissements publics dédiés s’établit à 12,3 milliards d’euros (Md€) en 2009, soit à 0,71 % du PIB. La valeur ajoutée totale du secteur (directe, indirecte et induite) s’élève à 33,5 Md€, ce qui représente 2 % du PIB.

L’étude comprend également une analyse des impacts socio-économiques en France d’un EPR. Les résultats varient suivant que l’EPR est construit en France ou à l’export. Pendant la phase de construction, 2 700 emplois directs sont créés, puis 500 emplois directs pendant la phase d’exploitation et de démantèlement du réacteur. Ces emplois directs ainsi que les emplois indirects associés génèrent également des emplois induits en France. 8 350 emplois directs, indirects et induits sont ainsi générés en France pendant la phase d’études et de construction et 1 650 emplois sont ensuite générés en France pendant les 80 années suivantes correspondant à la période d’exploitation puis de démantèlement.

Un EPR construit en France génère une valeur ajoutée moyenne de près de 660 m€ pendant les 7 années d’étude et de construction, dont environ 230 m€ de valeur ajoutée directe annuelle par la filière électronucléaire. « Un EPR exploité en France génère une valeur ajoutée moyenne de près de 550 m€ pendant les 60 années d’exploitation et la phase de démantèlement, dont ~200 m€ de valeur ajoutée directe chaque année pour la filière électronucléaire », explique Jeanne Lubek, économiste au département Valuation & Economics de PwC.

Un EPR à l’export fait appel aux compétences d’entreprises spécialisées françaises, même si une majorité des emplois générés sont localisés dans le pays dans lequel le réacteur est construit. 3 750 emplois sont cependant générés en France durant la phase d’études et de construction d’un EPR en dehors du territoire français, dont 1 200 emplois directs. Durant la phase d’exploitation de la centrale, le niveau de création d’emplois et de valeur ajoutée en France, est aussi évalué dans l’étude. Un EPR à l’export pourra ainsi générer de l’activité pour les acteurs de la chaîne de valeur l’électronucléaire en France, dans une répartition qui dépendra des besoins exprimés par chaque opérateur/projet électronucléaire.

Le frelon à pattes jaunes menace d’envahir l’Europe et le monde

Introduit en France avant 2004, le frelon à pattes jaunes, Vespa velutina nigrithorax, s’est répandu depuis dans 39 départements français. Sa présence a également été signalée en Corée avant 2006 et en Espagne en 2010. Les données de présence de la variété nigrithorax dans sa zone d’origine (du Cachemire à la Chine) et dans sa zone d’invasion (France et Corée), ont servi de base à un travail de modélisation écologique. Réalisée par trois équipes impliquant notamment le Muséum et le CNRS, sous la direction de Claire Villemant, cette étude a permis de déterminer les zones d’acclimatation potentielle de ce frelon invasif. Les résultats montrent que son acclimatation dans le sud-ouest de la France pouvait être prédite à partir des données de l’aire d’origine, tandis que les données combinées des aires d’origine et d’invasion fournissent une meilleure prédiction de ses potentialités d’acclimatation à travers le monde.

Les résultats de cette étude sont publiés cette semaine dans le journal Biological Conservation. L’arrivée de ce prédateur d’abeilles est une menace supplémentaire pour l’apiculture européenne qui souffre déjà d’une multitude de facteurs adverses.

La plupart des pays d’Europe ont un risque non négligeable de voir le frelon à pattes jaunes s’y acclimater, avec une probabilité plus forte le long des côtes atlantique et du nord de la Méditerranée. D’autres régions d’Europe comme la Péninsule des Balkans et la Turquie pourraient, dans le futur, être également envahies. Enfin, plusieurs régions du monde (Afrique du sud, Australie, Nouvelle Zélande, Sud-ouest de l’Amérique du nord et du sud) sont aussi potentiellement menacées, dans la mesure où le scénario d’importation de ces frelons via le commerce international peut facilement se répéter.

La comparaison des niches climatiques entre l’aire origine de Vespa velutina nigrithorax et la zone actuellement envahie montre que la niche réalisée se caractérise par une pluviométrie du mois le plus sec, plus forte que dans l’aire d’origine. Il est intéressant de constater par ailleurs que l’aire de distribution potentielle de Vespa velutina nigrithorax se rapproche beaucoup de celle de la guêpe invasive européenne Vespula germanica, qui a colonisé de vastes territoires notamment dans l’hémisphère sud.

 

Déjà publié :

Le nid d’abeilles révolutionne la pierre naturelle et le béton

Check Point remporte le prix 2011 du meilleur site de support sur le web

Check Point® Software Technologies Ltd. (Nasdaq : CHKP), numéro un mondial en solutions de sécurisation de l’Internet, s’est vu décerner le prix des « Dix meilleurs sites de support Web de 2011 » par The Association of Support Professionals (ASP) pour la troisième année. Ce prix récompense l’excellence de Check Point en matière de service et de support en ligne. Le Centre de support de Check Point propose des ressources étendues de base de connaissances, des forums utilisateur ainsi que des fonctions de discussion en direct et d’accès à distance qui ont permis d’améliorer l’indice de satisfaction des clients.

« Pour la plupart des sociétés de technologie, les sites de support Web sont devenus le principal moyen d’interaction avec leur communauté d’utilisateurs. Souvent, une stratégie de support sur le Web bien orchestrée permet de fidéliser davantage les clients », explique Jeffrey Tarter, directeur de l’ASP. « Check Point a créé un site offrant une grande diversité de fonctions. Toutes sont intégrées avec élégance sur le point de vue de la navigation et de l’enchaînement logique. Le site de Check Point se caractérise par sa très grande convivialité pour l’utilisateur ».

Les lauréats du prix ASP sont choisis par un panel de juges experts en support Web, appliquant un système de notation basé sur 25 critères différents, dont la conception globale, la navigation, la mise en œuvre des fonctions de recherche et l’environnement client. Les solutions de Check Point et son support assuré en temps réel garantissent aux clients un accès 24 heures sur 24, 7 jours sur 7 aux ressources critiques dont ils ont besoin pour protéger leurs entreprises.

« Dans le domaine de la sécurité et du support informatique, chaque minute compte. Les clients doivent pouvoir faire confiance à leurs systèmes de sécurité et dans les ressources accessibles pour garantir la protection de leurs réseaux et de leurs données à tout moment », explique Sharon Schusheim, directeur des services techniques de Check Point Software Technologies. « Avec la volonté de mener à bien cette initiative, notre équipe d’experts a changé la façon dont nous créons et partageons les connaissances techniques avec les clients, et a mis au point de nouveaux outils et méthodes de communication en temps réel. C’est pour nous un honneur que l’ASP reconnaisse l’excellence de nos prestations de support ».

Voici quelques-uns des principaux avantages du Centre de support de Check Point :

  • Amélioration des fonctions de recherche et du contenu de la base de connaissances : Les clients peuvent facilement naviguer dans la base de connaissances de Check Point, riche de plus de 20 000 ressources concernant tous les produits Check Point. Les utilisateurs ont aussi accès à de nouveaux guides pratiques et à des documents techniques sophistiqués ;
  • Support en temps réel avec discussion en direct et accès distant : Les fonctions d’accès distant permettent aux ingénieurs de prendre le contrôle de l’interface de l’utilisateur pour résoudre la demande de service, tandis que le client « observe et apprend » en temps réel. En outre, la discussion en direct permet aux clients d’entrer directement en contact avec les ingénieurs et d’avoir instantanément une réponse. La discussion en direct de Check Point s’est révélée une méthode de support performante, et a permis d’augmenter de 20 % le nombre de demandes de service client résolues dès le premier jour ;
  • Forums des utilisateurs de la communauté : Le centre de support de Check Point propose un flux direct sur les sujets les plus répandus sur la sécurité, sur les produits et sur les forums de discussion. Il favorise ainsi un échange riche d’informations entre les communautés d’utilisateurs et de partenaires ;
  • Le site Web de support de Check Point est un composant essentiel des outils et ressources proposés aux clients, aux partenaires et à la communauté en pleine expansion de plus de 70 000 professionnels de la sécurité certifiés via les programmes reconnus CCSA, CCSE, CCEPE et CCMA de Check Point. Pour plus d’informations sur le centre de support de Check Point et les nouvelles formations et certifications, visitez le site suivant : https://supportcenter.checkpoint.com/supportcenter/index.jsp ;
  • « Forts de notre réseau de plusieurs centaines d’ingénieurs de support et de services professionnels sur toute la planète, nous confirmons notre volonté de conserver un indice exceptionnel de satisfaction des clients et nous continuerons à développer des initiatives de support innovantes pour répondre aux besoins des clients », conclut Schusheim.

Des rideaux pour lutter contre le bruit

La tranquillité est souvent un luxe. Les mesures prises pour lutter contre les nuisances sonores sont parfois drastiques, et presque toujours inesthétiques lorsqu’il s’agit de moyens matériels. C’est fort de ce constat qu’une équipe de chercheurs suisses de l’EMPA, une institution de recherche et de services interdisciplinaire se consacrant à la science des matériaux et aux développements technologiques, associée à la designeuse textile de renom Annette Douglas, ainsi qu’à l’entreprise textile Weisbrod-Zürrer AG, a développé conjointement un matériau textile transparent, idéal en tant que rideau, et ayant des propriétés acoustiques remarquables.

Ce textile combine les qualités acoustiques d’un épais rideau en velours, et la luminosité d’un rideau translucide standard. Malgré sa légèreté, et à la grande surprise de nombreux acousticiens, le coefficient d’absorption acoustique oscille entre 0,5 et 0,6, ce qui le rend près de cinq fois plus efficace qu’un rideau équivalent. L’acoustique d’une pièce s’en voit améliorée, réduisant de manière très notable la réflexion du son, et donc l’écho, ainsi que les bruits provenant de l’extérieur.

Ce rideau, dont l’utilisation adéquate le place à une quinzaine de centimètres d’un mur ou d’une fenêtre, est plus apte à absorber les hautes fréquences que les basses fréquences, en raison de leur longueur d’onde plus courte, et peut réduire de près de 20 dB le bruit. Sa translucidité le rend potentiellement utilisable dans les endroits et configurations les plus variées, lui donnant un fort potentiel de commercialisation, ce qui a été vite compris par Annette Douglas et la firme textile, qui l’ont rendu disponibles à la vente.

Par Rahman Moonzur

L’AIEA se montre sévère face à la catastrophe de Fukushima

Les experts de l’AIEA (Agence Internationale de l’Énergie Atomique) ont achevé leur mission d’inspection d’une semaine au Japon, sur le site de la centrale de Fukushima Dai-ichi, lieu de la catastrophe nucléaire consécutive au séisme et au tsunami du 11 mars, ainsi que sur d’autres sites nucléaires de l’archipel.

Dans une politesse toute diplomatique, le chef de la mission, Mike Weightman, déclare avoir « apprécié la coopération du Japon ». Il félicite les autorités japonaises dans la gestion de l’évacuation des populations vivant autour de la centrale, et rend hommage à la bravoure du personnel travaillant sur le site de la catastrophe. Voilà pour les « bons points ».

Une fois les souplesses diplomatiques exécutées, l’AIEA se montre alors plus sévère. L’agence regrette qu’un programme de mesure et de suivi de l’exposition aux radiations des travailleurs et des populations, ainsi que les conséquences sur leur santé, ne soit pas encore en place. Elle déplore aussi que les risques liés au tsunami aient été sous-estimés, et ce sur plusieurs sites, encourageant la mise à jour des dispositifs de sécurité, d’évaluation des risques et l’amélioration des moyens de protection. L’agence déplore par ailleurs le manque de transparence ainsi que le manque d’indépendance des principaux acteurs de la gestion de la catastrophe. Elle souhaite enfin la mise en place rapide de centre de réaction rapide, à l’abri et sur place, pour prendre le relais dans les fonctions de secours.

Gageons que le Japon saura entendre les remarques de l’AIEA, dont le rapport final sera rendu public autour du 24 juin. La société japonaise est profondément bouleversée par la catastrophe, et il ne semble pas impossible que les autorités puissent envisager une sortie (difficile) du nucléaire, comme l’a d’ores et déjà annoncé l’Allemagne il y a quelques jours, surprenant tout le monde en prévoyant une sortie du nucléaire progressive d’ici à 2022.

Le rapport préliminaire de l’AIEA est disponible ici :

http://www.iaea.org/newscenter/news/2011/japanmission.html

Par Rahman Moonzur

 

DÉJÀ PUBLIÉ :

À Fukushima, la catastrophe continue

Fukushima : de « graves dysfonctionnements » dans l’évaluation de l’impact en France ?

Fukushima : des robots dans les réacteurs, et en vidéo

REACH : les news du mois de MAI (2/2)

Informations pour éviter les essais inutiles sur les animaux – 12 nouvelles substances concernées

(16/05/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • le laurate de vinyle (N° CAS : 2146-71-6  et N° EC : 218-414-7)
  • le fumarate de dibutyle (N° CAS : 105-75-9 et N° EC : 203-327-9)
  • le propylidynetriméthanol (N° CAS : 77-99-6 et N° EC : 201-074-9)
  • les extraits au solvant (pétrole), huile résiduelle (N° CAS : 64742-10-5 et N° CE 265-110-5)
  • le 10-éthyl-4-[[2-[(2-éthylhexyl)oxy]-2-oxoéthyl]thio]-4-octyl-7-oxo-8-oxa-3,5-dithia-4-stannatétradecanoate de 2-éthylhexyle (N° CAS : 27107-89-7 et N° EC : 248-227-6)
  • les cendres de plantes (résidus) (N° CAS : 93333-79-0 et N° EC : 297-049-5)
  • le 2-chloropropane (N° CAS : 75-29-6 et N° EC : 200-858-8)
  • le 2,6-di-tert-butylphénol (N° CAS : 128-39-2 et N° EC : 204-884-0)
  • le 2,4-di-tert-butylphénol (N° CAS : 119-47-1 et N° EC : 204-327-1)l’hexane-1,6-diol (N° CAS : 629-11-8 et N° EC : 211-074-0)
  • le 4-mesyl-2-nitrotoluene (N° CAS : 1671-49-4 et N° EC : 430-550-0)
  • le 6,6′-di-tert-butyl-2,2′-methylenedi-p-crésol (N° CAS : 119-47-1 et N° EC : 204-327-1)

Les informations sur ses substances sont à soumettre pour le 30 juin 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp

Une nouvelle page internet pour les utilisateurs en aval

L’ECHA a mis en ligne une nouvelle page pour les utilisateurs en aval. Toutes les informations sur : http://echa.europa.eu/reach/du_en.asp
D’autres informations sur les fiches de données de sécurité et les scénarios d’exposition sur :
http://www.echa.europa.eu/doc/reach/REACH_fs_downstream%20users_web.pdf

Nouvelles offres d’emploi à l’ECHA

(16/05/2011)
L’ECHA a publié une nouvelle offre d’emploi. Pour la consulter et postuler :
http://echa.europa.eu/opportunities/positions_en.asp

 Une nouvelle demande de classification et d’étiquetage harmonisés
 

(20/05/2011)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et l’étiquetage du fluazinam (N° CAS : 79622-59-6). Les commentaires sont à soumettre avant le 4 juillet 2011.
http://echa.europa.eu/consultations/harmonised_cl_en.asp

Accord entre l’ECHA et le NICNAS

(20/05/2011)
Un accord a été signé entre l’ECHA et le NICNAS (organisme australien similaire à l’ECHA) dans le but de renforcer le dialogue entre l’UE et l’Australie et d’améliorer la coopération sur des questions liées aux produits chimiques et autres problématiques.
http://echa.europa.eu/news/pr/201105/pr_11_12_mou_australia_en.asp
http://echa.europa.eu/doc/press/pr_11_12/pr_11_12_mou_australia_fr.pdf

Mise en ligne des éléments relatifs à la conférence web sur la notification des substances dans les articles

(25/05/2011)
L’ECHA a mis en ligne les présentations et enregistrements de la conférence du 19 mai 2011 sur la notification des substances dans les articles. Les documents peuvent être téléchargés sur : http://echa.europa.eu/news/webinars_en.asp

Evaluation des substances

(26/05/2011)
Les critères de sélection pour l’évaluation des substances ont été élaborés par l’ECHA en coopération avec les États Membres et sont maintenant publiés sur le site de l’ECHA. L’ECHA et les États membres utilisent ces critères pour trouver des substances candidates pour la première CoRaP (Community Rolling Action Plan), qui sera adopté par l’ECHA au début de 2012. Les États membres ont préalablement indiqué une capacité à évaluer l’ordre de 40 substances en 2012 et 50 substances chaque année en 2013 et 2014.
http://echa.europa.eu/news/na/201105/na_11_23_substance_evaluation_corap_en.asp

L’ECHA poursuivie devant la Cour de Justice de l’Union Européenne

(27/05/2011)
L’Agence européenne des produits chimiques est poursuivie devant la Cour de Justice de l’Union Européenne pour avoir refusé de communiquer les noms de deux entreprises produisant des produits chimiques considérés comme très toxiques, ainsi que les quantités présentes sur le marché européen.
Les deux organisations non gouvernementales requérantes, ChemSec et Client Earth, dénoncent dans ce recours la violation du règlement REACH, règlement qui promeut notamment le droit à l’information du public. Les produits chimiques considérés font tous deux partie de la SIN List (« Substitute It Now ! ») développée par ChemSec et d’autres ONG, et qui recensait 378 entrées au 3 mai 2011.

La directive RoHS révisée

(27/05/2011)
La directive RoHS relative aux substances dangereuses dans les équipements électriques et électroniques a été révisée le 27 mai 2011 par le Conseil de l’Union Européenne. Le Conseil précise notamment que la protection contre les substances chimiques dangereuses est étendue à un plus grand nombre d’appareils électriques et la sécurité de produits tels que les téléphones portables, les réfrigérateurs et les jouets électroniques a été renforcée.
La directive révisée doit être transposée en droit national sous un délai de dix-huit mois. Elle avait été proposée par la Commission en décembre 2008 et avait fait l’objet de nombreux amendements par le Parlement européen en novembre 2010, amendements que le Conseil a tous acceptés.

Une nouvelle demande de classification et d’étiquetage harmonisés

(30/05/2011)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et l’étiquetage du 4-vinylcyclohexène (N° CAS : 100-40-3 et N° CE 202-848-9). Les commentaires sont à soumettre avant le 14 juillet 2011.
http://echa.europa.eu/consultations/harmonised_cl_en.asp

L’ECHA CHEM disponible en 22 langues

La section ECHA CHEM du site internet de l’ECHA est désormais disponible en 22 langues. La version française est accessible sur le lien suivant :
http://echa.europa.eu/chem_data_fr.asp

Informations pour éviter les essais inutiles sur les animaux – 27 nouvelles substances concernées

(31/05/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • les lessives de sulfite et lessives de cuisson vertes (N° CAS : 68131-30-6  et N° EC : 268-612-2)
  • le chromate de strontium (essais proposés avec le nitrate de strontium N° EC : 233-131-9) (N° CAS : 7789-06-2 et N° EC : 232-142-6)
  • le carbonate de strontium (essais proposés avec le nitrate de strontium N° EC : 233-131-9) (N° CAS : 1633-05-2 et N° EC : 216-643-7)
  • le nitrate de strontium (N° CAS : 10042-76-9 et N° CE 233-131-9)
  • le 3-hydroxy-2,2-diméthylpropionate de 3-hydroxy-2,2-diméthylpropyle (N° CAS : 1115-20-4 et N° EC : 214-222-2)
  • le 2,5-di-tert-pentylhydroquinone (N° CAS : 79-74-3 et N° EC : 201-222-2)
  • le dodécaméthylcyclohexasiloxane (N° CAS : 540-97-6 et N° EC : 208-762-8)
  • l’acide 3,5,5-trimethylhexanoïque (N° CAS : 3302-10-1 et N° EC : 221-975-0)
  • l’acide heptanoïque (N° CAS : 111-14-8 et N° EC : 203-838-7)
  • le tétradecène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 26952-13-6 et N° EC : 248-130-9)
  • le nonène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 27215-95-8 et N° EC : 248-339-5)
  • l’hexadecène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 26952-14-7 et N° EC : 248-131-4)
  • les alcènes en C24-28, α- (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 93924-11-9 et N° EC : 300-203-7)
  • les alcènes en C20-24, α- (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 93924-10-8 et N° EC : 300-202-1)
  • le décène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 25339-53-1 et N° EC : 246-870-7)
  • le tridécène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 25377-82-6 et N° EC : 246-919-2)
  • l’hex-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 592-41-6 et N° EC : 209-753-1)
  • le dec-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 872-05-9 et N° EC : 212-819-2)
  • l’hexacos-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 18835-33-1 et N° EC : 242-615-9)
  • l’octacos-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 18835-34-2 et N° EC : 242-616-4)
  • l’octadecène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 27070-58-2 et N° EC : 248-205-6)
  • le dodecène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 25378-22-7 et N° EC : 246-922-9)
  • le dodec-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 112-41-4 et N° EC : 203-968-4)
  • l’hexadec-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 629-73-2 et N° EC : 211-105-8)
  • l’octadec-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 112-88-9 et N° EC : 204-012-9)
  • le tétradec-1-ène (essais proposés avec le oct-1-ene N° EC 203-893-7) (N° CAS : 1120-36-1 et N° EC : 214-306-9)
  • l’oct-1-ene (N° CAS : 111-66-0 et N° EC : 203-893-7)

Les informations sur ses substances sont à soumettre pour le 15 juillet 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp

Identification des sept substances extrêmement préoccupantes

(31/05/2011)
Sept substances extrêmement préoccupantes (SVHC) seront bientôt ajoutées à la liste des substances candidates à l’autorisation. Au cours de sa 18ème réunion, le comité des États Membres a également approuvé à l’unanimité quatre projets de décision relatifs à l’examen de propositions d’essai par l’ECHA et cinq projets de décisions sur des vérifications de conformité. Les sept nouvelles substances identifiées comme SVHC sont le 2-ethoxyethylacetate, le chromate de strontium, l’acide 1,2-benzène, les phthalates de dialkylés en C7 11 (ramifiés et linéaires) (DHNUP), l’hydrazine, la 1-méthyl-2-pyrrolidone, le 1,2,3-trichloropropane, l’acide 1,2-benzènedicarboxylique, le diisohexylphthalate (DIHP). Ces substances sont cancérogènes, mutagènes ou toxiques pour la reproduction (CMR).
http://echa.europa.eu/news/pr/201105/pr_11_13_msc_identify_seven_new_svhc_en.asp

Par Céline Nectoux, ingénieur environnement CNRI

 

Les dernières NEWS REACH :

  • Actualités du 1 au 15 mai 2011
  • Actualités du 15 au 30 avril 2011
  • Actualités du 01 au 15 avril 2011
  • Actualités du 15 au 31 mars 2011
  • Actualités du 01 au 15 mars 2011
  • Actualités du 15 au 28 février 2011
  • Actualités du 4 au 15 février 2011
  • Actualités du 1 au 3 février 2011
  • Actualités du 15 au 31 janvier 2011
  • Actualités du 1 au 15 janvier 2011
  • Actualités du 15 au 31 décembre 2010
  • Actualités du 1 au 15 décembre 2010
  • Actualités du 15 au 30 novembre 2010
  • Actualités du 1 au 15 novembre 2010
  • Actualités du 15 au 30 octobre 2010
  • Actualités du 1 au 15 octobre 2010
  • Actualités du 15 au 30 septembre 2010

Et aussi :

700 millions de profils Facebook, et moi et moi et moi…

Être ou ne pas être sur Facebook, telle serait sans doute la question que se poserait Hamlet en contemplant son smartphone au bout de son bras. Avec près de 700 millions de profils annoncés courant juin, le plus grand réseau social au monde a un taux de pénétration qui rendrait jaloux nombre d’entreprises : près d’un Américain sur deux, plus d’un Français sur trois… et presque 90 % des Monégasques. Autrement dit, Facebook est un élément incontournable de nos sociétés modernes, et ce, après moins de dix ans d’existence. Peu importe ce qu’on en fait, ce qu’on y affiche ou ce qu’on en retire, la véritable question est de décider s’il faut y être ou non. Et pour nombre d’individus, ne pas y être relève plus d’une figure de style, d’une sorte de non-conformisme que d’un choix réellement construit.

Mais combien sommes-nous vraiment sur Facebook ? Les estimations proposées par le réseau social via son gestionnaire de campagnes publicitaires – et reprises par de nombreux sites d’analyse des audiences Facebook comme l’excellent Social Bakers – ne sont pas vérifiables, même si elles semblent réalistes et qu’elles sont actualisées quotidiennement. À moins que Facebook ne fournisse à terme des moyens neutres et incorruptibles pour démontrer l’exactitude de ces valeurs numériques, un doute cartésien s’impose donc.

Des villes étrangement surpeuplées

À l’aide du gestionnaire de campagnes Facebook, on peut estimer la population d’une ville au-dessus de 13 ans (limite d’âge imposée par la législation américaine). Jouez donc avec vos amis, c’est très instructif : la population Facebook de la France est ainsi évaluée à plus de 22 millions de profils, et celle de la région parisienne à près de 6 millions (dans un rayon de 16 km autour de la capitale). Lyon, avec 750 000 profils, et Marseille, avec 612 000, sont les deux plus grandes villes après Paris et… Boulogne-Billancourt. Cette dernière comptant plus de 900 300 profils Facebook pour 120 000 habitants. Quelle est donc la raison d’un tel surpeuplement pour Boulogne ? La présence de nombreuses agences de publicité interactive dans la ville explique-t-elle la profusion de profils plus ou moins réels ? L’hypothèse est plausible.

Des fluctuations bien surprenantes

Depuis la fin du mois de mai, il se passe également de bien étranges mouvements de population sur Facebook. À l’échelle d’un État, on parlerait « d’épuration technique » : les États-Unis ont perdu 6 millions de profils, le Canada 1,5 millions, et le Royaume-Uni plus de 400 000. Que se passe-t-il ? La chasse aux faux profils a-t-elle démarré ? Il est vraisemblable que les premiers procès contre Facebook intentés par des millionnaires dont les profils ont été usurpés sont à l’origine de ce grand nettoyage de printemps. Nombre de profils, créés par des PME souhaitant établir un lien avec leur clientèle, sont de plus judicieusement migrées vers des pages « entreprise », conformément aux termes et conditions d’utilisation de la plate-forme.

Un peu de recul dans l’appréciation de la population Facebook et de son taux de pénétration réel ne doit cependant pas faire perdre de vue l’élément essentiel : Facebook est une des preuves les plus tangibles de la mondialisation. Et il serait sot, pour une entreprise qui s’adresse à un large public, de passer à côté de cet outil de travail aux multiples facettes. 700 millions ? Sans doute. Un milliard ? Bientôt.

Par Hervé Kabla / 01net

Hervé Kabla

Blogueur, polytechnicien et entrepreneur, Hervé Kabla est un scientifique tombé très tôt dans le marketing et la communication. Passé par Dassault Systèmes, l’Inria et deux ou trois start up, il dirige blogAngels, agence 100 % médias sociaux et a cofondé Media Aces, association d’entreprises utilisatrices de médias sociaux.

 

 

 

 

 

 

 

 

 

 

Déjà paru :

Le Smart Grid va-t-il remplacer Facebook ?

La fracture numérique existe, elle est dans les usages

DIAPORAMA – SeaOrbiter, le satellite des mers

SeaOrbiter est une nouvelle aventure humaine créée par Jacques Rougerie au service de la Planète. Le vaisseau, mi-immergé, se déplacera principalement en suivant les grands courants océaniques marins.

La raison d’être de Sae Orbiter est de favoriser l’émergence d’un nouveau rapport entre l’homme et la mer par l’éveil, la sensibilisation et l’action de tous afin de répondre demain aux exigences d’un futur responsable fondé sur les préceptes du développement durable notamment liés à la mer.

 

La partie émergée de SeaOrbiter culmine à 13,20 mètres au dessus du niveau de la mer. Elle est constituée de :

  • + 13.20m : Au sommet du « navire », huit antennes, une grue et une vigie avec une vue de 360° ;
  • + 6m / +5.25m : Au-dessous, une première plate-forme contient un élévateur, la salle des machines ainsi qu’un centre de plongée et un caisson de décompression thérapeutique ;
  • +3 m / +0.5m : Sur deux étages, le centre de contrôle regroupe : appareils de navigation et radio ; de contrôle de la zone pressurisée, des sorties de plongées, du robot ; réserve et stockage.

 

La partie immergée du vaisseau, la plus imposante, comprend :

  • – 2.00m : Quartiers du capitaine et des hôtes accueillis sur de courtes durées ainsi qu’un espace multimédia ;
  • – 4.50m – Observatoire et laboratoire permettent d’analyser et traiter les données et prélèvements effectués. Couchettes pour huit membres d’équipage ;
  • – 7.00m – Salle d’observation panoramique avec salle à manger et cuisine. Lieu de détente où l’équipage se réunit, il sert également à des retransmissions pour les médias lors des principales découvertes ;
  • – 9.35m – Sas permettant de passer de la zone à pression normale à la zone pressurisée. Hangar sous-marin et accès direct à la mer ainsi que cuisine, quartier de vie et poste d’observation pour huit autres membres d’équipage ;
  • – 11.70m – Couchette et zone de travail des huit aquanautes. La seconde plate-forme se trouve au même niveau. Elle contient les ballasts, les réserves d’eau, le carburant et est équipée de projecteurs sous-marins. C’est là où s’entraînent les aquanautes.

Jacques Rougerie, l’architecte de SaeOrbiter, réalise et rend opérationnels des habitats sous-marins et vaisseaux à coque transparente, outils de connaissance scientifique et pédagogique. Le caractère esthétique résolument nouveau de ces créations est issu d’une technologie, de l’observation des formes vivantes et d’une volonté prospective qui l’amènent  de fait à traiter de projets d’art spatial et de design.

A son bord et pour la première fois au monde, un équipage de 18 personnes pourra vivre sous la mer 24h sur 24 et observer en continu, et sur de très longues périodes, le monde sous-marin. Véritable ruche à partir de laquelle partira un grand nombre d’engins d’investigation subaquatique, SeaOrbiter permettra en outre à son équipage d’étendre son champ exploratoire jusqu’à plus de 6000 m de fond.

 

Les tests sur des modèles réduits ont été menés pendant de longs mois en piscine pour parfaire la flotabilité de l’ouvrage et son comportement dans les courants.

 

Jacques Rougerie s’est inscrit comme acteur de l’évolution de son époque en proposant des structures d’observation sous-marines, nécessaires à la gestion des océans au 21ème siècle.

Par Pierre Thouverez

Les DIAPORAMAS déjà parus :

Record du monde suisse en matière d’efficacité sur les cellules photovoltaïques

La Suisse est à la pointe dans le développement de l’énergie photovoltaïque. Le Laboratoire fédéral d’essai des matériaux a réalisé un nouveau record du monde de rendement pour les cellules solaires souples au tellurure de cadmium (CdTe). Elle a obtenu un taux de conversion de 13,8 % en utilisant ce nouveau film transparent, s’approchant ainsi du rendement obtenu avec le verre.

Ce film de polyimide transparent Kapton développé avec la collaboration de l’entreprise DuPont est 100 fois plus mince et 200 fois plus léger que le verre habituellement utilisé pour la fabrication des cellules solaires au tellurure de cadmium. Il est plus facile à manipuler et moins coûteux à installer que les panneaux traditionnels.

Plutôt que de transporter des modules photovoltaïques en verre fragiles et lourds sur de gros camions et de les soulever à l’aide de grues pour les installer sur les toits, on peut imaginer des modules souples et légers sous forme de films qui pourraient être simplement enroulés pour le transport et facilement montés par les escaliers, souligne vendredi Robert Schmidt, responsable développement chez DuPont.

Le défi était de trouver un film à la fois transparent et capable de supporter des températures de traitement élevées. Il faut désormais poursuivre le développement pour résoudre les problèmes de coûts et de stabilité, a précisé Ayodhya N. Tiwari, directeur du laboratoire fédéral.

Le rendement obtenu, avec une conversion de 13,8 %, permet au laboratoire de battre son précédent record de 12,6 %. Il y a quelques semaines, l’équipe de Tiwari avait établi un autre record mondial d’efficience énergétique, avec 18,7 % sur un autre type de cellules solaires flexibles à base de diéléniure de cuivre-indium-gallium, aussi appelées cellules CIGS.

La Toile : vers une mondialisation des avancées technologiques modernes

Les TIC (Technologies de l’Information et de la Communication) jouent un rôle clé dans la société d’aujourd’hui, axée vers le développement durable en matière de communication, d’aménagement numérique des territoires, et d’innovations technologiques.

La promotion journalière publicitaire et numérique des dernières innovations technologiques sans cesse exposée, l’adoption devient quasi inévitable, menaçant dans certains cas l’intégrité de celui qui ne se mettrait pas au goût du jour et par extension, son comportement psychologique et sa santé. Un dernier cas l’illustre : suite à une publicité lui promettant 20 000 yuans, soit 2300 euros, en échange de l’un de ses organes, Zheng, chinois de 17 ans, s’est fait opéré dans une clinique à Chenzhou et a vendu un rein en vue de son goût démesuré pour l’iPad 2 qu’il ne pouvait se permettre financièrement.  A son retour au domicile familial, il revenait avec un iPad 2 et un Iphone. La mère, alertée par la valeur coûteuse de ces appareils, a découvert la vente de son rein au marché noir et a essayé de contacter celui qui l’avait opéré, mais sans suite. L’état de l’adolescent s’aggravant depuis l’intervention, elle a porté plainte.

Outre cette histoire reflétant les dérives de la société quant aux nouvelles technologies, d’autres cas pourraient supporter l’hypothèse selon laquelle les TIC et NTIC (Nouvelles Technologies de l’Information et de la Communication) pourraient représenter un danger vis-à-vis de la société, comme la question sur le caractère cancérigène des mobiles et smartphones.

Se plier aux nouvelles technologies et éradiquer les anciennes

Les structures organisationnelles évoluent, notamment avec le Cloud, la dématérialisation et l’Internet mobile. Les dernières technologies ne cessent de se complexifier, faisant employer des mesures radicales pour une meilleure collaboration des acteurs pionniers de l’information, une meilleure sécurisation des données et une planète connectée.

Dans cette optique, compte tenu des technologies récentes de la Toile incluant le nouveau standard HTML 5, l’éradication des anciens navigateurs devient une solution intéressante pour les entreprises IT. Ainsi, en accord avec ce mouvement, Google a récemment annoncé la dispense de l’accessibilité de certaines options de Gmail, Calendar, Docs, Talk et de ses sites par les anciens navigateurs tels qu’Internet Explorer 7, Firefox 3.5, Safari 3 et toutes les versions antérieures.

Les navigateurs « modernes » seront exploités par Google alors qu’en pourcentage, ils ne sont utilisés que par 17 % des internautes, selon StatCounter, ce qui incite voire impose les internautes à se mettre à jour et adopter les derniers explorateurs, faute de quoi de ne pas pouvoir disposer de ces services.

Il est maintenant légitime de se demander quelles seront les nouvelles mesures imposées par la société face à l’évolution croissante des NTIC, déshéritant les technologies actuelles utilisées en masse ?

Par Angélica Tavares Costa

« Sans la mesure, tout va droit dans le mur ! »

Endress+Hauser optimise les coûts d’exploitation énergétiques chez Candia

Le besoin du client était de pouvoir faire des bilans énergétiques et de pouvoir facturer au réel la consommation d’énergie à son client interne (Ateliers Candia Lons) et externe (à la fromagerie située à côté du site de Candia) sur les applications telles que la production et la distribution d’air comprimé, de vapeur, d’eau surchauffée, d’eau chaude, de froid, d’électricité et le pompage, le traitement, la distribution de l’eau. M. De Sousa, responsable technique et management des Energies à Candia, nous explique aussi qu’il a besoin de données fiables car il a l’intention de se servir de ces données comme outil de management : il entend prendre des décisions basées sur des données factuelles et manager son équipe par rapport à des objectifs basés sur ces données.

Son objectif est d’optimiser la consommation d’énergie et de réduire les coûts de 30 à 40 %. Après avoir appliqué une méthode AMDEC (L’Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité) sur ces différents équipements de production d’énergies et réseaux, il s’est avéré que les compteurs aux énergies étaient devenus des éléments critiques afin de pouvoir répondre à ses objectifs. M. De Sousa connaissait Endress+Hauser comme fabricant de produits robustes, de haute qualité, présents sur le process laitier (ex : la partie pasteurisation avec la mesure de conductivité, de débit et de niveau). « Endress+Hauser est pour moi un partenaire toujours à l’écoute du client afin de proposer des solutions adaptées innovantes. »

Après avoir étudié plusieurs appels d’offres, le partenariat avec Endress+Hauser s’est avéré le meilleur choix du fait de la qualité des capteurs (pression, température, débit et enregistreurs), de la compétence de ses interlocuteurs, de l’assurance qualité avec la fourniture des certificats d’étalonnage associés, de la mise en service avec contrat de maintenance et de formation des opérateurs.

Après la mise en place de ces compteurs, les objectifs ont été atteints en ce qui concerne la réduction des coûts et la facturation au réel auprès des clients. M. De Sousa utilise les données enregistrées pour piloter son process et pour motiver son équipe à la démarche d’amélioration continue. De nombreux investissements du même type avec partenariat Endress+Hauser sont en cours.

Michael Richardot, Chef de marché agroalimentaire

En savoir plus : fr.endress.com

 

Une équipe française finaliste du concours « Imagine Cup » organisé par Microsoft

Créativité et compétences techniques au service d’une grande cause

C’est le défi que se lancent depuis 2003, des centaines de milliers d’étudiants des 4 coins du globe. Pour cette 9ème édition, les étudiants devaient notamment créer un jeu vidéo ou une application Windows Phone 7 dans son intégralité, respectant la thématique 2011 du concours Imagine Cup : « un monde où la technologie nous aide à répondre aux enjeux les plus cruciaux de notre société » : pauvreté, santé, environnement et développement durable.

Une médaille d’or pour Ingésup

Ingésup remporte 3 médailles sur 12 à la finale française : de l’or avec le projet Brainergy, du bronze pour « Recycle team » et du bronze également dans la catégorie « Windows Phone 7 » avec le projet Medic’Age, le tout dans la catégorie Game Design.

Ingésup à New-York !

Parallèlement à cette finale, le jury international qui s’est réuni le 25 mai dernier, a sélectionné le projet Brainergy pour défendre les couleurs de la France à New-York.

Brainergy est un puzzle game : à chaque niveau, le joueur doit capter des énergies à l’état naturel pour les transformer en énergie électrique. Pour répondre à la problématique du concours, l’équipe s’est penchée sur la gestion des énergies renouvelables en demandant au joueur de manipuler des particules pour venir à bout de la pollution.

A New-York, l’équipe Geekologics, composée d’étudiants ingésup toulousains et d’un étudiant de Supinfogame, passera un premier oral de 20 minutes devant un jury pour présenter l’équipe et le jeu, suivi de 10 minutes de questions/réponses. Suite à cette première étape, les membres du jury pourront tester le jeu pendant deux heures. L’équipe qui gagne la première place dans la catégorie Game Design – Mobile (Zune/Phone), recevra la somme de 8 000 dollars.

Brainergy, du concours à la réalité

Grâce à Pohlm Studio, société spécialisée dans la conception et le développement de jeux vidéo, le jeu Brainergy sera commercialisé d’ici la fin de l’année.

 

Déjà publié :

Une nouvelle technologie associant géolocalisation et Twitter pour l’hiver prochain

Concrètement, Twitter dispose d’un important volume de tweets (qui sont des messages ou des statuts écrits par les utilisateurs et publiés sur ce site) stockés dans ses centres de données. Après suppression de tout détail permettant d’identifier les utilisateurs ayant rédigé ces tweets, mots-clés, emplacements et horaires seront extraits automatiquement. Grâce à ces informations, il est possible d’identifier des événements ou des points d’intérêts spécifiques à une certaine zone géographique.

Même si Twitter est actuellement fortement utilisé pour transmettre et/ou collecter de l’information, il lui est difficile de collecter des données pertinentes pour une localisation donnée. La technologie prévue par les deux sociétés rendra capable les utilisateurs de téléphones portables de connaître facilement les événements, les bons plans shopping ou d’autres informations particulières dans une certaine zone. D’autres entreprises seraient aussi en mesure d’utiliser ce système en tant qu’outil marketing pour dégager, par exemple, des tendances de consommation régionales.

Le logiciel nécessaire pour cette technologie ne sera préalablement disponible que sur les téléphones NTT Docomo (à la fois conventionnels et smartphones), mais pourrait ensuite être proposé aux utilisateurs d’autres réseaux téléphoniques. Les deux sociétés souhaitent lancer le service à l’hiver prochain. L’outil permettait de propager rapidement des informations, le nombre d’utilisateurs de Twitter au Japon (estimé à environ 17,5 millions en mars 2011) a très fortement augmenté depuis le séisme du 11 mars 2011.
 

Source : Les bulletins électroniques

En savoir plus : http://www.bulletins-electroniques.com/actualites/66759.htm

Des grilles de haut-parleurs en ABS/PA

Commercialisé à grande échelle depuis 2010 le début de l’année, un mélange de ABS et de PA,  le Terblend N NM 21 EF de BASF, vient de trouver sa première application en grande série dans les habillages intérieurs automobiles. L’entreprise Peguform, un équipementier automobile implanté à Bötzingen, en Allemagne, utilise en effet ce matériau qui présente d’excellentes propriétés d’écoulement,  pour produire des grilles de haut-parleurs intégrés dans les panneaux de portière destinées à une série d’automobiles allemandes fabriquée en grande série.

Terblend N NM 21 EF (EF étant l’abréviation anglaise d’Excellent Flow ou excellent écoulement) présente une qualité de surface telle qu’elle ne nécessite aucune mise en peinture, et peut être coloré dans une large gamme de teintes pour les applications automobiles. Les caractéristiques d’écoulement du produit permettent le moulage par remplissage des fines structures des grilles de haut-parleurs de grandes dimensions. La morphologie de la résine délivre une surface mate d’une grande uniformité.

Une étroite coopération avec Peguform a été mise en place afin d’obtenir les couleurs recherchées par l’équipementier. Ce qui n’a pas tardé à porter ses fruits : Thomas Weber, chef de projet chez Peguform en charge des éléments d’habillage intérieur, relate le déroulement de cette phase de développement : «Le woofer, un haut-parleur très robuste optimisé pour les sons graves, nous a posé pas mal de difficultés techniques dans la transformation de la matière plastique pour la grille. Toutefois, en collaborant avec les experts de la Designfabrik de BASF, nous avons réussi à colorer la résine Terblend N pour obtenir la très haute qualité recherchée par les fabricants automobiles. Ces derniers sont en effet très exigeants en matière de couleurs d’habillage intérieur. Ils recherchent des coloris parfois insolites et difficiles à formuler.»