REACH : les news du mois d’octobre (1/2)

Registre d’intention : cinq nouvelles intentions

Le registre d’intention pour l’annexe XV du règlement REACH comporte cinq nouvelles substances :

  • une substance pour la classification et l’étiquetage harmonisé : le plomb (N° CAS : 231-100-4 et N° CE : 7439-92-1). La date de soumission est prévue pour le 31 décembre 2011 ;
  • trois substances pour des propositions de substances SVHC. Il s’agit du plomb(II) bis(methanesulfonate) (N° CAS : 17570-76-2 et N° CE : 401-750-5), du β-TGIC (1,3,5-tris[(2S and 2R)-2,3-epoxypropyl]-1,3,5-triazine-2,4,6-(1H,3H,5H)-trione) (N° CAS : 59653-74-6 et N° CE : 423-400-0) et de 1,3,5-tris(oxirannylméthyl)-1,3,5-triazine-2,4,6(1H,3H,5H)-trione (N° CAS : 2451-62-9 et N° CE : 219-514-3). Les dates de soumission sont prévues pour le 30 janvier 212 ;
  • une substance pour des propositions de restriction : le chrome VI dans les articles en cuir (N° CAS : 231-100-4 et N° CE : 7439-92-1). La date de soumission est prévue pour le 19 janvier 2012.

CLP : http://echa.europa.eu/chem_data/reg_int_tables/reg_int_en.asp?substance_type=CLH&substance_state=current

SVHC : http://echa.europa.eu/chem_data/reg_int_tables/reg_int_en.asp?substance_type=SVHC&substance_state=current

Restriction : http://echa.europa.eu/chem_data/reg_int_tables/reg_int_en.asp?substance_type=Restriction&substance_state=current

 

Une nouvelle demande de classification et d’étiquetage harmonisés

(03/10/2011)

L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage du 1,1′,1 »-nitrilotripropane-2-ol (N° CAS : 122-20-3 et N° CE : 204-528-4). Les commentaires sont à soumettre avant le 17 novembre 2011.

http://echa.europa.eu/consultations/harmonised_cl_en.asp

 

Le conseil d’administration de l’ECHA adopte le programme de travail pour 2012 et la politique visant à éviter les conflits d’intérêts potentiels

(04/10/2011)

Les 29 et 30 Septembre, le conseil d’administration de l’ECHA a tenu sa 23ème réunion plénière et a pris un certain nombre de décisions stratégiques importantes. Il a adopté le Programme de travail de l’ECHA pour 2012 (http://echa.europa.eu/doc/about/organisation/mb/mb_44_2011_echa_work_programme_2012.pdf). Il décrit les activités de l’ECHA pour 2012 avant la deadline de l’enregistrement de 2013. En plus d’assurer la préparation pour l’échéance de 2013, les priorités pour l’ECHA en 2012 seront à la hauteur des attentes sur les applications d’évaluation d’autorisation, ainsi que la préparation de la nouvelle réglementation Biocides et PIC. Fournir des informations pour le grand public sera aussi un centre d’attention de l’Agence en 2012. Le Conseil a également adopté une politique pour éviter et gérer les conflits d’intérêts potentiels. La nouvelle politique sera prochainement disponible sur le site de l’ECHA. Il démontre l’importance de la transparence et l’indépendance de la prise de décision: deux des valeurs fondamentales de l’ECHA.

http://echa.europa.eu/news/pr/201110/pr_11_22_mb_malta_20111004_en.asp

 

Les noms des substances extrêmement préoccupantes (SVHC) présentes sur la liste candidate disponible en 22 langues

(05/10/2011)

Les noms des substances extrêmement préoccupantes (SVHC) présentes sur la liste candidate sont maintenant disponibles dans 22 langues européennes dans la base ECHA-term. Les utilisateurs peuvent consulter la base de données gratuitement. L’inscription est requise uniquement pour les utilisateurs qui souhaitent télécharger ou commenter les données.

ECHA-term est une base de données terminologique multilingue contenant les principales terminologies de REACH et CLP. La base de données répond aux besoins des divers utilisateurs : les acteurs de REACH et CLP, les autorités nationales, traducteurs, interprètes et le public en général. Il vise à améliorer la clarté de la communication dans le domaine des produits chimiques. Cette base de données est disponible sur :

http://echa.cdt.europa.eu/SearchByQueryLoad.do;jsessionid=310F8D05429A857A9F85354FBAC8637A?method=load

 

Conférence organisée par l’ECHA le 23 septembre 2011

(05/10/2011)

L’ECHA a organisé, le 23 septembre dernier, une conférence sur l’enregistrement dans le cadre de REACH : Retour d’expérience de 2010 et piste d’amélioration pour 2013. Les vidéos des interventions sont disponibles sur :

http://webcast.ec.europa.eu/eutv/portal/archive.html?viewConference=12888

Vous pouvez également retrouver un résumé en français de cette conférence sur le site d’Ecomundo : http://www.ecomundo.eu/fr/newsletter/pdf/flash_molecule_conference_reach.pdf

 

Une nouvelle demande de classification et d’étiquetage harmonisés

(10/10/2011)

L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage du styrène (N° CAS : 100-42-5et N° CE : 202-851-5). Les commentaires sont à soumettre avant le 24 novembre 2011.

http://echa.europa.eu/consultations/harmonised_cl_en.asp

 

Poste à pourvoir à l’ECHA

(10/10/2011)

L’ECHA a publié une nouvelle offre d’emploi. Cette offre peut être consultée à l’adresse http://echa.europa.eu/opportunities/positions_en.asp. La date limite d’envoi des candidatures est le 14 novembre 2011.

 

L’ECHA invite les utilisateurs industriels de la boîte à outils QSAR à un atelier en novembre

(12/10/2011)

L’ECHA demande aux utilisateurs de la boite à outils QSAR de bien vouloir faire valoir leur intérêt pour participer à un atelier sur cette boite à outils le 24 Novembre 2011 à Helsinki. La date limite pour exprimer un intérêt pour participer est le 21 Octobre 2011.

Le but de cet atelier est d’apprendre comment l’industrie a, jusqu’à présent utilisé la boîte à outils QSAR pour la préparation de leurs dossiers d’enregistrement et de recevoir leurs commentaires sur sa facilité d’utilisation et leurs attentes pour un développement ultérieur. Cela aidera l’ECHA en décidant, en collaboration avec l’OCDE, sur les plans d’avenir pour la boîte à outils RQSA. Elle permettra également à l’Agence de recueillir les meilleures pratiques et développer le soutien ad hoc qui sera partagé avec tous les utilisateurs à l’avance de la date limite d’inscription suivante de 2013.

http://echa.europa.eu/news/na/201110/na_11_48_qsar_toolbox_workshop_en.asp

 

L’ECHA se félicite des décisions du Conseil d’appel de 10 Octobre 2011

(13/10/2011)

À la lumière des décisions du Conseil d’appel, l’ECHA modifie ses lettres standard adressées aux personnes inscrites pour l’enregistrement et rappelle les déclarants potentiels l’importance de payer leurs frais relatif à REACH dans les temps.

http://echa.europa.eu/news/na/201110/na_11_49_boa_20111013_en.asp

 

Informations pour éviter les essais inutiles sur les animaux – 7 nouvelles substances concernées

(14/10/2011)

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • diperoxyde de di-tert-butyle et de 1,1,4,4-tétraméthyltétraméthylène (N° CAS : 78-63-7 et N° CE : 201-128-1) ;
  • néononanoate de vinyle (N° CAS : 54423-67-5 et N° CE : 259-160-7) ;
  • 2-éthylhexanoate de vinyle (N° CAS : 94-04-2 et N° CE : 202-297-4) ;
  • chloroacétate de sodium (N° CAS : 3926-62-3 et N° CE : 223-498-3) ;
  • acide chloroacétique (tests proposés avec le chloroacétate de sodium (N° CE : 223-498-3)) (N° CAS : 79-11-8 et N° CE : 201-178-4) ;
  • TCA Trichloroacétate de sodium (tests proposés avec le chloroacétate de sodium (N° CE : 223-498-3)) (N° CAS : 650-51-1 et N° CE : 211-479-2) ;
  • acide trichloroacétique (tests proposés avec le chloroacétate de sodium (N° CE : 223-498-3)) (N° CAS : 200-927-2 et N° CE : 76-03-9).

Les informations sur ces substances sont à soumettre pour le 28 novembre 2011.

http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Revue du Web #11 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • utiliser l’effet mirage pour rendre un objet invisible ? C’est désormais possible grâce aux nanotubes de carbone, mais uniquement sous l’eau. Démonstration en vidéo ;
  • connaissez-vous Rob Spence, surnommé « Eyeborg » ? C’est un Canadien vivant avec un œil électronique contenant une caméra, lui permettant de filmer tout ce qu’il voit ;
  • jouer à Super Mario sans manette, uniquement avec les yeux ? C’est la prouesse réalisée il y a près d’un an par un groupe très inventif d’étudiants américains ;
  • le gadget (inutile ?) de la semaine, une perceuse permettant de faire des trous (presque) carrés !
  • en bonus, le gadget (vraiment inutile ?) de la semaine, « Wrongulator », une calculatrice qui vous garantit un résultat à 100 %… incorrect.

L’effet mirage au service d’une « cape d’invisibilité » :

Pour débuter cette onzième revue du Web, voici une vidéo présentant la découverte réalisée par les scientifiques de l’université américaine de Dallas, au Texas. En utilisant les préceptes de ce que l’on appelle « l’effet mirage », les chercheurs ont réussi à faire disparaître un objet immergé, à l’aide de feuilles composées de nanotubes de carbone. La disparition se fait presque instantanément, commandée par un simple commutateur.

Il vous faut tout d’abord comprendre le principe de « l’effet mirage », si ce principe vous est étranger. Un mirage va se produire lorsque la lumière change de direction en passant à travers des médias de différentes densités. Par exemple, lorsque la température du sol est différente de celle de l’atmosphère, l’indice de réfraction varie rapidement dans la couche d’air au voisinage du sol, courbant les rayons lumineux, ce qui a pour conséquence de déformer l’image des objets situés au ras du sol. Lorsque le sol est très froid, la courbure des rayons lumineux est orientée vers le bas, ce qui a pour conséquence de rendre possible la vision d’objets situés au-delà de l’horizon. Lorsque le sol est chaud, la courbure est dirigée vers le haut et on peut alors observer des objets doublés de leur image renversée.

C’est cette dernière partie qui nous intéresse ici. Le commutateur crée une stimulation électrique qui va réchauffer de manière extrêmement rapide et intense les feuilles de nanotubes de carbone, connues pour avoir une conductivité thermique très élevée. La chaleur va alors être transmise autour du support transparent en feuilles de nanotubes, créant un violent gradient de température qui va courber et éloigner les rayons lumineux de n’importe quel objet, désormais dissimulé derrière le support pourtant transparent. Certains se prennent déjà à rêver d’une future cape d’invisibilité…

Rob Spence, le Canadien à l’œil de cyborg :

Rob Spence est un Canadien basé à Toronto, ayant perdu un œil alors qu’il était adolescent, lors d’un accident de chasse. Dans le cadre d’un projet scientifico-artistique, il a décidé de placer un œil électronique à l’intérieur de son orbite vide, lui valant le surnom d’ « Eyeborg », en référence aux cyborgs (contraction d’organisme cybernétique), ces êtres humains assez courants dans la littérature de science-fiction, ayant reçu des greffes de parties mécaniques dans le but d’améliorer certaines de leurs capacités.

Cette prothèse oculaire possède une caméra embarquée miniature provenant d’un endoscope, l’instrument optique médical permettant de voir à l’intérieur du corps humain lors de certains examens ou opérations. Il ne s’agit en aucun cas de remplacer son œil manquant, cet œil bionique dont c’est la troisième version n’étant pas connecté au cerveau. Les images captées par la caméra peuvent être stockées et sont donc visibles à l’aide d’un simple moniteur.

Rob Spence compte produire un long métrage tourné uniquement à l’aide de son oeil bionique. Il s’est d’ailleurs retrouvé il y a peu au cœur d’une campagne de promotion pour un jeu vidéo, « Deus Ex », jeu dans lequel la cybernétique et la prosthétique tiennent le haut du pavé.

Voici une vidéo le présentant :

Jouer à Super Mario sans manette… et avec les yeux !

Kinect, déjà aux oubliettes ? Pas vraiment. Ce périphérique, destiné à la console Xbox 360 de l’Américain Microsoft, permettant de contrôler des jeux vidéos sans utiliser de manette, par le biais d’une commande vocale, de la reconnaissance de mouvements et d’images, a de très beaux jours devant lui. L’initiative et la prouesse d’un groupe d’ingénieurs américains de la jeune société nommée « Waterloo Labs » méritent toutefois d’être saluées… avec un an de retard.

Ces jeunes trublions inventifs ont mis au point un système permettant à un utilisateur de jouer au célébrissime Super Mario Bros et de contrôler Mario uniquement en bougeant les yeux. Le système fonctionne à l’aide d’électrodes fixées autour des yeux du joueur, électrodes qui permettent de suivre le mouvement des globes oculaires. Les impulsions envoyées par les électrodes sont interprétées par un ordinateur qui renvoie le tout vers la console de jeu. La console les traduit alors en mouvements, comme n’importe quelle information pouvant provenir d’une manette.

La maniabilité n’est pas optimale, mais l’idée pourrait faire son petit bonhomme de chemin chez les ingénieurs des géants du jeu vidéo. Petit bémol par contre : le joueur peut-il cligner des yeux, et garder quand même le contrôle du héros ? Allez jeter un « oeil » vous aussi sur la vidéo :

La perceuse qui fait des trous (presque) carrés :

Le gadget (inutile ?) de la semaine est une perceuse qui réalise des trous carrés, aux coins légèrement arrondis. Ce dispositif, loin d’être nouveau, est très intéressant à observer, et finalement loin d’être inutile en dehors du côté anecdotique que l’on peut lui trouver de prime abord.

Le système de la perceuse est basé sur le triangle de Reuleaux (du nom de l’ingénieur allemand Franz Reuleaux), qui est une courbe de largeur constante (dont tous les diamètres sont de la même longueur), ressemblant à un triangle équilatéral augmenté de trois arcs de cercle passant chacun par les deux sommets d’un même côté. Ce triangle est notamment utilisé dans les moteurs Wankel, alternative au moteur à piston.

La perceuse est une perceuse spéciale : l’axe du foret décrit un cercle en même temps qu’il tourne sur lui-même. Le trou obtenu est un carré aux coins légèrement arrondis, dont l’intérêt peut être de solidariser une pièce sur un axe sans risque du moindre glissement. La première vidéo montre une de ces perceuses en action (de la société américaine Dijet, bien que la vidéo soit dans une autre langue), la seconde permet d’observer grâce à une très bonne animation explicative la manière dont ce trou est réalisé.

Le gadget inutile de la semaine : « Wrongulator », la calculatrice qui a toujours tort

Enfin, pour conclure cette onzième revue du Web, voici un objet plutôt drôle, aux confins de l’art et (surtout) de l’absurde : la bien nommée « Wrongulator », une calculatrice qui vous garantit un résultat faux à 100 %. Présentée comme la pire calculette du monde, cette calculatrice est en vente pour la modique somme de 4,95 £ (un peu plus de 5,5 euros). Dans un monde où l’inutile a souvent plus de valeur que l’utile, cette calculatrice pourrait devenir un must. À offrir au comptable de votre entreprise ?

http://www.red5.co.uk/new-gadgets/wrongulator.aspx

 

Par Rahman Moonzur

 

À lire aussi :

Revue du Web #10 : les vidéos de la semaine

Revue du Web #9 : les vidéos de la semaine

Revue du Web #8 : les vidéos de la semaine

Revue du Web#7 : les vidéos de la semaine

Revue du Web#6 : les vidéos de la semaine

GRAFTFAST : technologie innovante de revêtement de surfaces

Tout matériau, de l’acier inox aux liposomes, des prothèses en polymère aux fibres de carbone, interagit avec son environnement par sa surface. L’adhésion, la corrosion, la lubrification, le contact électrique, la biocompatibilité, ou le mouillage sont autant de phénomènes courants gouvernés par des effets de surface.

Les systèmes vivants, eux aussi, sont le siège d’innombrables phénomènes d’interface, localisés dans les bicouches lipidiques ou sur la surface externe des protéines. Il est donc crucial, à la fois sur les plans fondamental et technologique, de savoir concevoir et construire des surfaces artificielles capables d’interagir avec le milieu extérieur de façon prédéfinie.

GRAFTFAST© est une nouvelle technologie de revêtement (coating) applicable à tout type de surface qui a été développée au sein du LCSI de l’Iramis.

Cette technologie, basée sur le greffage d’un film organique sur une surface, offre plusieurs avantages par rapport aux technologies de revêtement déjà existantes :

  • propre, car utilisable dans l’eau, sans solvant organique et ne nécessite pas de source d’énergie comme de l’électricité ou de hautes températures. Elle est facile à utiliser. En effet, la surface à revêtir est simplement plongée dans une solution comprenant les réactifs ;
  • ne nécessite pas d’investissement lourd, au niveau appareillage spécifique, tels que des potentiostats, des installations sous vides coûteuses ;
  • efficace, car l’épaisseur des revêtements, leur composition, et leur déposition sur le support sont entièrement contrôlables par l’utilisateur.

Toutefois, la grande innovation de cette technologie est qu’elle peut être adaptée à tous type de matériaux, qu’ils soient isolants ou conducteurs, comme :

  • le verre ou les métaux, en passant par le Téflon® (PTFE) ;
  • les polymères naturels, comme le latex ou le caoutchouc ;
  • les plastiques ;
  • la cellulose (bois ou papier) ;
  • les fibres artificielles ou naturelles ;
  • le coton ou le feutre ;
  • les céramiques ou les nano-objets, comme les nanotubes de carbone.

Les revêtements préparés sont fins (< 1 µm), conformes et homogènes sur l’ensemble de la surface traitée pour permettre de garantir les mêmes propriétés à tout le support revêtu. Les propriétés de surface du matériau traité peuvent ainsi facilement être modifiées par le choix du revêtement déposé.

La fonctionnalisation de surfaces conductrices, ou semi conductrices, par des polymères se faisait jusqu’à présent par électrochimie. Cette technique nécessitait un dégazage du milieu réactionnel, des montages complexes, notamment pour des substrats, tels que la fibre de carbone et les nanotubes. La découverte du procédé GRAFTFAST© a ouvert la voie à la fonctionnalisation par de nombreux polymères sur des surfaces de nature et de propriétés très différentes. Ces travaux ont fait l’objet de plusieurs dépôts de brevets.

Ce procédé, s’appliquant à des surfaces très différentes, est activable à l’aide d’un réducteur chimique. L’épaisseur du film est contrôlée en fonction du temps, la quantité d’activateurs ajoutée et la concentration du milieu réactionnel. C’est la première fois que la modification de si nombreuses surfaces est effectuée par une seule et unique méthode en solution.

L’intérêt de cette technique est qu’elle permet de modifier les propriétés physiques de n’importe quelle surface pour permettre leur utilisation en fonction du type d’application désiré.

La commercialisation de la technologie GRAFTFAST© a fait récemment l’objet de la création d’une start-up baptisée PEGAS-Tech, laquelle permet l’exploration de cette technologie pour différents secteurs industriels.

 

Lire l’article complet dans la base documentaire : GRAFTFAST© : technologie innovante de revêtement de surfaces

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : Traitement de surface : quels procédés pour quelles fonctions

iPhone 4S : déjà plus d’un million de préventes

La sortie d’un nouveau produit Apple est toujours un événement. Les très nombreux fans de la marque américaine n’ont pas manqué au rendez-vous. L’annonce de la sortie prochaine d’un iPhone 5 était attendue, sans grand suspense, par tous les aficionados et commentateurs de tous bords. C’est pourtant l’iPhone 4S qui a été dévoilé le 4 octobre lors d’une conférence de presse par Tim Cook, directeur général d’Apple depuis la démission de Steve Jobs fin août, décédé des suites d’un cancer il y a moins d’une semaine.

L’iPhone 4S, disponible en pré-commande depuis vendredi 7 octobre, a d’ores et déjà explosé tous les records : plus d’un million de copies ont été commandées, contre 600 000 pièces pour son prédécesseur, l’iPhone 4. Il devrait atterrir dans les Apple Store dès le vendredi 14 octobre, et tomber instantanément en rupture de stock. Le smartphone avait pourtant créé la déception chez pas mal de fans de la marque américaine, malgré de nombreuses innovations. Comme en 2009 avec l’iPhone 3G et sa mise à jour hardware le 3GS, l’évolution incarnée par le 4S se passe à l’intérieur, car le boîtier est identique.

Double cœur et nouvel OS 

La principale innovation se trouve être la mise à jour hardware, avec une configuration double cœur à 1 GigaHertz, assurant une plus grande rapidité de calcul à l’iPhone 4S (S pour… Speed). Le double cœur, couplé au nouveau système d’exploitation optimisé iOS 5, est censé permettre un gain de temps significatif lors de l’ouverture d’une page Web, le lancement d’une application, ou encore pour la gestion du multi-tâches. Il assure aussi et surtout un plus grand confort et une rapidité accrue pour les jeux.

Un appareil photo de plus grande résolution

Un capteur 8 Mégapixels avec une plus grande ouverture (qui passe de f/2,8 à f/2,4) et la possibilité d’aller jusqu’à 1080P en mode vidéo constituent aussi des nouveautés. Le traitement des cinq lentilles, le filtre infrarouge et le travail sur la colorimétrie lui permettront d’être plus lumineux et d’obtenir moins de bruit sur des éclairages faibles. D’un point de vue pratique, la touche volume devient déclencheur physique.

Siri, fabuleux assistant vocal

Grosse évolution de l’assistant utilisant la technologie du voice control, Siri va bluffer ses utilisateurs. Il vous assiste pour la saisie d’un message, pour accéder à l’agenda, à la météo, et est même capable de vous répondre. Le système de saisie nécessite une connexion en 3G ou en Wifi, car c’est via les serveurs que le texte est converti.

Autonomie accrue, iCloud, débit de données, « Antennagate »

L’accent a également été mis sur l’autonomie du téléphone, avec une heure supplémentaire en appel 3G, alors que la navigation Web stagne à six heures, toujours en 3G. Le temps de veille passe lui de 300 heures à 200 heures. L’iCloud, outil de synchronisation et de stockage hors appareil, important au bon fonctionnement du 4S. Le débit de données double littéralement grâce à la 3G+, et tous les problèmes relatifs à ce qu’on a pu appeler « l’Antennagate », le problème d’antenne de l’iPhone 4, sont résolus.

Le prix n’a pas changé : 629 euros pour la version 16 Gigaoctets, 739 euros pour son grand frère à 32 Gigaoctets.

Malgré toutes ces innovations, ce qui a pu décevoir certains est que le design reste inchangé. En effet, alors que les produits Apple font l’objet d’un véritable culte, comment va-t-on savoir que vous possédez le nouvel iPhone, s’ il est, en apparence, similaire en tous points à son prédécesseur ? Dur…

Par Rahman Moonzur

 

À lire aussi :

Transformer son smartphone en microscope, c’est possible !

Steve Jobs, chef d’orchestre de tous les succès d’Apple, est mort

Un tatouage pour les diabétiques

SMELLIT, le dispositif qui diffuse les odeurs de films et jeux vidéos

S’immerger totalement dans un film ou dans un jeu vidéo : l’arrivée et la démocratisation des home cinemas et du 5.1 ont pour seuls buts de faire vivre au spectateur, ou au joueur, l’expérience la plus réaliste possible, tout en restant confortablement assis chez lui. Pourtant, l’expérience n’est pas complète. Un des sens n’est généralement pas sollicité, à savoir l’odorat. Assez peu de sociétés se sont placées sur ce segment, proposant des dispositifs de diffusion des odeurs pendant le déroulement du film. Les quelques tentatives, jusqu’ici, avaient toujours été sommaires et n’avaient jamais trouvé un réel marché.

La société française Olf-Action, déjà à l’origine des diffuseurs « Olfacine », est sur le point de lancer sur le marché « SMELLIT », un dispositif de diffusion d’odeurs, s’appuyant sur leur concept global d’ « Odoravision ». Ainsi, les DVD affichant le logo « Odoravision » sur le dos de la jaquette (plutôt rares, il faut l’avouer…) disposent d’une piste supplémentaire codant pour une palette d’odeurs, synchronisées avec les images du film, ou du jeu vidéo. La synchronisation est dite « intelligente » car la programmation tient compte de la distance écran-spectateur : en effet, la vitesse du son et la vitesse de diffusion d’une odeur ne sont absolument pas comparables (près d’un mètre par seconde pour cette dernière). Une odeur de poudre arrivant alors que la scène de fusillade est déjà terminée n’aurait que bien peu d’intérêt…

Présenté sous la forme de deux « enceintes » composées de huit turbines, « SMELLIT » est donc censé ajouter la dimension olfactive aux rares films disposant de l’option Odoravision, en gérant jusqu’à 128 familles d’odeurs, avec simultanément trois odeurs synthétiques par séquence de film ou de jeu. Les Français d’Olf-Action garantissent la non-rémanence des odeurs après la projection, odeurs pour lesquelles des recharges devraient évidemment être disponibles. Reste maintenant à savoir si le spectateur ou le joueur a vraiment envie de vivre cette expérience lors d’une scène se déroulant dans une décharge publique, dans une morgue… ou dans une chambre d’étudiants.

Par Rahman Moonzur

 

À lire aussi :

Le jeu vidéo, un moteur puissant pour la réalité virtuelle

Réalité virtuelle : des acteurs plus structurés et mieux positionnés

Dix doctorantes saluées pour leurs recherches en science

Sur les 423 dossiers de candidature, 10 jeunes femmes, en 3e année de doctorat en science du vivant ou de la matière, ont conquis le jury. Pertinence des travaux, originalité des recherches, projet d’utilisation de la bourse, personnalité des postulantes, les critères de sélection ont une fois encore été drastiques. « Il nous a aussi semblé important que chaque boursière puisse incarner l’exemple de la femme scientifique pour susciter des vocations », a précisé Alain Carpentier, Président de l’Académie des sciences et président du jury. Car comme l’a rappelé Hervé Navellou, directeur général de L’Oréal Grand Public France, « seuls 28% des chercheurs en France sont des femmes ».

Les dix lauréates :

  • Amélie Béduer, 25 ans, ingénieure physicienne, travaille sur l’ingénierie tissulaire à Toulouse. Elle espère que ses travaux permettront de régénérer les tissus lésés d’un malade touché par un AVC ;
  • Cécile Bétry, 25 ans, formée en biosciences et médecine, prépare sa thèse sur le raccourcissement du délai d’action des anti-dépresseurs à Lyon. Elle tente aussi l’internat pour devenir psychiatre ;
  • Lucie Brisson, 24 ans, étudie la formation et la propagation des métastases lors d’un cancer du sein à Tours. Son rêve : partir à l’étranger faire son post-doctorat ;
  • Andréa Bachrata, 24 ans. Originaire de Slovaquie, elle est venue faire sa thèse sur la sûreté nucléaire à Toulouse. Elle espère ensuite intégrer le CEA, voire à terme une entreprise ;
  • Faustine Dubar, 25 ans, bac technique et IUT, travaille sur la chimie anipaludique à Lille. Elle prévoit d’approfondir ses connaissances en Australie ;
  • Désirée El Azzi, 26 ans, étudie la pollution aquatique par les pesticides agricoles. Elle souhaite développer un plan d’analyse de gestion de l’eau des rivières dans son pays natal, le Liban ;
  • Aïcha Gharbi Ayach, 27 ans, études de médecine à Montpellier, master en biologie. Son doctorat porte sur la connaissance du phénomène de mitose, dont le dérèglement est à l’origine de tumeurs ;
  • Nina F. Gnädig, 26 ans, mène ses travaux sur la maîtrise des virus à ARN (grippe, hépatite C, VIH…) à Paris. Elle espère pouvoir produire de meilleurs vaccins et avoir son propre laboratoire ;
  • Claire Lefort, 24 ans, Capes en sciences physiques, master en électronique et optique, travaille à Limoges sur un instrument d’imagerie médicale destiné à diagnostiquer plus tôt un cancer du poumon. Elle se destine à l’enseignement ;
  • Myriam Paire, 25 ans, polytechicienne, étudie la miniaturisation des cellules photovoltaïques à Chatou (78). À terme, elle se voit ingénieure de recherche en entreprise ou co-fondatrice d’une start-up.

La 6e édition des bourses L’Oréal France / Unesco Pour les femmes et la science est  ouverte du 15 janvier au 15 avril 2012.

 

Par Corinne Dillenseger / Maviepro.fr

 

À lire aussi :

Sciences : aider les filles exposées aux discriminations

Femmes et industrie : un mariage réussi ?

Femmes ingénieurs : la bataille n’est pas encore gagnée !

Elles bougent pour faire connaître les métiers d’ingénieurs

Tu seras ingénieure ma fille !

Sciences : aider les filles exposées aux discriminations

Nucléaire : de bonnes perspectives mondiales, même après Fukushima

Même si certains pays ont décidé d’y renoncer (Allemagne, Italie, Suisse) et si d’autres sont devenus assez réticents (Japon), l’avenir s’annonce encore bien pour les installations de centrales nucléaires.

L’industrie nucléaire est en effet tirée vers l’avant par certains pays qui doivent faire face à un accroissement important de la demande d’électricité et y voient la meilleure possibilité pour satisfaire leurs besoins à court ou moyen terme. L’association table sur une croissance moyenne de la capacité installée de 2,3 % par an, soit 614 GW d’ici 2030, contre 314 GW aujourd’hui. Le Sud-Est de l’Asie verra la plus forte augmentation de la capacité d’électricité nucléaire.

Globalement, si le Japon a renoncé à la construction de nouveaux réacteurs, pourtant prévus, après la catastrophe de Fukushima, une estimation récente des dirigeants d’Areva fait état de seulement 10 % à 15 % de programmes reportés. L’Agence internationale de l’énergie atomique table, quant à elle, sur 90 à 130 nouveaux réacteurs installés d’ici 2030. Ainsi la Chine construit actuellement 26 réacteurs et en a planifié 52 autres, l’Inde en construit 6 et en a planifié 17, la Corée en installe 5 et en prévoit 6 de plus. Mais d’autres régions du monde ne sont pas en reste : 11 réacteurs sont en cours d’installation en Russie, et les autorités en ont déjà programmé 14 de plus, la Pologne table sur 6 supplémentaires elle-aussi. Les Étas-Unis, qui en construisent un actuellement, en ont planifié 7 autres et le Canada a trois chantiers et autant de projets. Bref au total ce ne sont pas moins de 62 réacteurs en chantier et 155 en projet dans le monde entier.

Mais cela va aussi impliquer une hausse de 70 % de la demande d’uranium : de quoi donner du travail à l’Australie, le Canada et le Kazakhstan qui en possèdent les plus grosses réserves. Il s’agit là d’une réserve toutefois limitée et qui ne se renouvellera pas…

Claudine / blog EcoCO2

 

 À lire aussi :

Cahier « Nucléaire : Fukushima et après ? »

Le Japon projette d’offrir des billets d’avion pour relancer le tourisme 

Sortie du nucléaire : l’Allemagne couvre tout juste ses besoins

Nucléaire en France : 410 000 emplois et 2 % du PIB

Fukushima : les parents japonais vivent avec la crainte des radiations

Accident nucléaire de Fukushima : Causes et conséquences

Transformer son smartphone en microscope, c’est possible !

Les détournements et la polyvalence des smartphones n’en finissent plus de surprendre. Les customisations optiques les plus diverses, telles que l’ajout d’une lentille grand angle ou d’une lentille de microscope (agrandissant douze fois) ne constituent d’ores et déjà plus des nouveautés. Alors que l’utilisation des smartphones à des fins médicales n’en est plus à ses balbutiements, comme le « smartheart » pour les problèmes de cœur, et alors que l’on peut améliorer l’électrocardiographie à distance, ou bien même avoir la possibilité d’inspecter sa peau à la recherche d’un mélanome avec le « Skin Scan », une équipe de chercheurs de l’université de Californie à Davis écrase désormais toute concurrence grâce à l’amélioration fantastique qu’elle a réussi à développer.

En effet, celle-ci a transformé un smartphone (ici un iPhone, mais la transformation est valable pour tout type de téléphone intelligent) en un microscope grossissant pas moins de 350 fois, et ce pour assez peu d’argent. De là à créer des « instagrams » des cellules sanguines, il n’y a qu’un pas…

Pourtant, leur amélioration tient presque du bricolage : les chercheurs californiens ont fixé une lentille sphérique d’un millimètre à l’extérieur de l’iPhone, ce qui n’aurait dû créer, logiquement, qu’un zoom supplémentaire x5. Mais la manière dont le point se fait crée une petite zone à l’intérieur de laquelle les détails de l’ordre d’1 micron et demi sont visibles. Le champ de vision est très petit, et il faut gérer la distorsion, mais en combinant plusieurs zones de différentes photos sur lesquelles le point a été réalisé, l’image devient alors assez claire pour permettre d’identifier, par exemple, les différents types de cellules.

Pour moins de cinquante dollars, le résultat semble probant. Les smartphones ne sont pas prêts de remplacer un appareillage médical perfectionné, mais ils pourront améliorer grandement les diagnostics médicaux dans des zones reculées, difficiles d’accès ou dans les cas d’extrême urgence.

Par Rahman Moonzur

 

À lire aussi :

Déployer des applications d’entreprise sur les smartphones

Steve Jobs, chef d’orchestre de tous les succès d’Apple, est mort

Un Cloud pour booster les smartphones

Le Japon projette d’offrir des billets d’avion pour relancer le tourisme

L’office national du tourisme japonais projette de demander aux candidats au voyage de remplir une demande sur Internet en précisant la zone qu’ils entendent visiter, écrit le journal Yomiuri Shimbun. Les personnes sélectionnées, qui devront toutefois s’acquitter des autres frais de voyage comme l’hébergement, devront en échange faire un récit de leur voyage qui sera édité en ligne.

Les responsables japonais espèrent que les comptes-rendus positifs inciteront les touristes potentiels à se rendre au Japon, poursuit le journal. Cette distribution de billets gratuits, soumise à l’approbation budgétaire du gouvernement, devrait être lancée en avril.

La fréquentation touristique étrangère du Japon s’est effondrée de plus de 50 % lors des trois mois ayant suivi le séisme du 11 mars qui a provoqué le tsunami géant dans le nord-est du pays et entraîné une série d’avaries accompagnées de rejets radioactifs à la centrale atomique Fukushima Daiichi.

Une légère reprise s’est amorcée cet été, la fréquentation touristique étant toujours en forte baisse mais moins, avec un recul de 36,1 % en juillet par rapport au même mois de 2010 et de 32 % en août.

Le gouvernement japonais a assuré que le pays était sûr, hormis le voisinage immédiat de la centrale où, depuis l’accident qui a endommagé les systèmes de refroidissement des réacteurs, des opérations sont en cours pour stabiliser la situation d’ici à la fin de l’année.

 

(Source et crédit photo : AFP)

 

À lire aussi :

Compteur Geiger : un gadget à la portée de tous ?

Fukushima : les parents japonais vivent avec la crainte des radiations

Japon : perte colossale au 1er trimestre pour Tepco à cause de Fukushima

Accident nucléaire de Fukushima : Causes et conséquences

Revue du Web #10 : les vidéos de la semaine

Cette semaine dans la revue du Web :

– Une « barrière laser » utilisée comme arme anti-moustique ? Une idée présentée à l’aide de vidéos surprenantes de moustiques abattus en plein vol, et en slow-motion ;

– Evolta, le petit robot qui est l’une des mascottes de la firme Panasonic, va concourir pour l’Ironman, un triathlon extrêmement musclé. Présentation des trois versions du robot en vidéo ;

– La déformation d’un ballon plein d’eau reçu en plein visage par des cobayes vous intéresse ? Allez donc jeter un œil à ces quelques vidéos amusantes ;

– Lorsque Arthur Ganson crée un dialogue entre des composants mécaniques ou industriels et l’art, cela donne deux œuvres intéressantes, brillantes par leur usage à contre-emploi ;

– enfin, pour conclure, le gadget (inutile ?) de la semaine, une capsule nous venant du Japon baptisée « Noah’s Ark » (l’arche de Noé en français), élaborée selon ses concepteurs pour résister aux prochains tsunamis…

Une barrière laser anti-moustique ?

Pour commencer cette revue du Web #10, voici une vidéo présentant un système de barrière photonique mis au point l’année dernière par la société américaine Intellectual Ventures. C’est en regardant une parodie de téléachat vantant les mérites d’un laser tueur de moustiques, le « Star Wars Mosquito System », que les Américains ont décidé de développer leur système, prenant au pied de la lettre la vidéo potache. Nathan Myhrvold et ses collègues inventeurs ont alors commencé à potasser sur cette idée, notamment grâce aux fonds alloués par la Fondation Bill Gates.

Une caméra haute vitesse détecte les moustiques entrant dans son champs de vision, un servomoteur (moteur dont la position est vérifiée en continu et corrigée en fonction des mesures) commande alors des miroirs qui permettent de diriger le laser ultraviolet servant d’arme à cette DCA miniature. Un logiciel mis au point par les scientifiques coordonne l’ensemble, tout en autorisant suffisamment de discrimination dans la détection, afin de ne pas prendre pour cible des insectes plus gros, comme les abeilles, ou même « effrayer le chat du voisin ».

Mettant en avant le fait que l’appareil a été conçu à l’aide de composants récupérés sur des appareils électroniques de la vie courante, les jeunes scientifiques imagineraient bien leur machine comme barrière de protection autour d’hôpitaux ou d’écoles africaines, les protégeant alors contre le fléau véhiculé par les moustiques, la malaria.

La vidéo a été tournée à l’aide d’une cage en verre, à l’intérieur de laquelle ont été placés quelques moustiques, fauchés un à un par le laser. On remarque la lumière bleue-violacée du laser, suivie d’un léger volute de fumée en même temps que la chute des insectes. Jugez plutôt :

La parodie de téléachat se trouve ici :

Evolta, la mascotte à pile, va concourir pour Ironman :

Comme en écho à la candidature du robot iCub pour participer au relais du parcours de la flamme olympique lors des Jeux Olympiques de Londres l’année prochaine, le géant japonais Panasonic va lancer son robot à piles Evolta, mascotte miniature de la marque, dans une aventure extrême : participer à l’Ironman se déroulant sur l’île d’Hawaï. L’ironman est un triathlon survitaminé (épreuve consistant à enchainer 3,8 kilomètres de natation, 180 kilomètres de cyclisme pour s’achever sur un marathon) qui met les participants à rude épreuve. Evolta aura pour l’occasion dix fois plus de temps qu’un être humain pour compléter l’Ironman car il est dix fois plus petit qu’un être humain.

Evolta n’est pourtant pas novice en la matière : il a par exemple déjà parcouru les 500 kilomètres séparant Kyoto de Tokyo, course donnant, elle aussi, un gigantesque coup de publicité à la marque japonaise. Un équipement additionnel a été spécialement conçu pour la petite mascotte : des stabilisateurs de part et d’autre du vélo pour l’épreuve de cyclisme, une roue pour l’épreuve de marathon ainsi qu’une sorte de bouée particulière pour l’épreuve de natation. Le robot est dirigé grâce à un émetteur mobile placé devant lui, et il n’aura le droit qu’à un nombre défini de jeux de piles rechargeables.

Voici la vidéo de présentation des trois versions du robot, pour chacune des épreuves, ainsi qu’une vidéo le montrant lors de sa course entre Tokyo et Kyoto :

Ballons d’eau se déformant en slow-motion :

Que se passe-t-il lorsqu’un ballon plein d’eau vous touche en plein visage, sans exploser ? C’est la question existentielle que se sont posées des Américains, mettant en ligne quelques vidéos de « cobayes » en slow-motion, recevant de plein fouet les projectiles en plein visage. Outre les expressions amusantes de chacun des cobayes, la déformation du ballon, recouvrant parfois tout le visage, vaut le coup d’oeil. Sur la première vidéo de cette série, ils se sont même amusés à calculer la fréquence de résonance du nez du cobaye immédiatement après le choc… :

Arthur Ganson, artiste du contre-emploi mécanique et chantre de l’art cinétique :

Voici deux œuvres du sculpteur américain Arthur Ganson, chantre de l’art cinétique s’évertuant à utiliser de manière inventive, artistique et poétique des éléments mécaniques. La première vidéo montre un moteur entraînant une chaîne de type chaîne de moto, alors que le reste de cette chaîne est laissé libre d’évoluer sur un plateau au dessus du moteur. Les fluctuations, toujours différentes, créent une sculpture en constant changement.

La seconde œuvre est composée d’un moteur électrique, relié à une série de douze engrenages. Chaque engrenage divise la vitesse de l’axe de rotation par cinquante. Le moteur tournant à 200 tours par minute, il faudrait plus de deux milliards d’années pour que le dernier engrenage réalise un tour complet. Il devient alors possible de faire absolument n’importe quoi de celui-ci… même de le fixer à un bloc de béton.

Le gadget (inutile ?) de la semaine : la capsule « Arche de Noé »

Pour conclure cette dixième revue du Web, nous vous présentons l’opportuniste capsule conçue par la compagnie japonaise Cosmo et son président Shoji Tanaka, censée vous permettre de survivre au(x) prochain(s) tsunami(s). Ayant passé le feu de nombreux crash-tests, elle est équipée d’un hublot et d’ouvertures à sens unique permettant de respirer. Ressemblant à une gigantesque balle de tennis, elle serait à même d’accueillir quatre adultes en son sein, et est présentée (sans ironie) comme pouvant servir de maison pour enfants… La société japonaise aurait déjà reçu près de 600 commandes pour cette arche moderne. Voici une vidéo contenant quelques photos de la bête :

 

Par Rahman Moonzur

 

À lire aussi :

Revue du Web #9 : les vidéos de la semaine

Revue du Web #8 : les vidéos de la semaine

Revue du Web#7 : les vidéos de la semaine

Revue du Web#6 : les vidéos de la semaine

Revue du Web #5 : les vidéos de la semaine

Mon patron est une icône… Steve Jobs et les limites du personal branding

Désormais sur le Net, le personal branding (faire de sa personne une marque) permet à tout un chacun de promouvoir et de valoriser son image, et souvent celle de son entreprise ou de certains de ses collaborateurs. Pour un patron, c’est une belle opportunité de s’immerger dans les réseaux sociaux, d’encourager par l’exemple l’humanisation de son entreprise, ou même de profiter simplement de la puissance du Web pour y développer son ego.

Ce phénomène ne date pas d’hier. Avant même la naissance du Web, Steve Jobs, le cofondateur d’Apple, a développé un personal branding qui a largement contribué au succès de son entreprise. Mieux que les autres, il a su cultiver les bruits, les rumeurs et le buzz qui ont participé à faire passer la valorisation d’Apple de 5 milliards de dollars dans les années 2000 à plus de 360 milliards aujourd’hui. Si d’autres dirigeants, en France ou aux États-Unis, ont essayé la même voie, aucun n’a été jusqu’à acquérir ce statut d’icône vivante.

Mais en construisant volontairement le mythe du génie de Steve Jobs, Apple aurait-il pris le risque d’un succès communicationnel pouvant se transformer en danger industriel ? Aujourd’hui, confronté à son départ, Apple ne doit-il pas démythifier sa communication, humaniser plus largement sa société en permettant à ses propres employés de s’approprier l’ère du buzz et de la conversation ?

Tout d’abord la situation illustre un problème de pérennité de l’entreprise : tout le monde est mortel !

Ensuite, les mythes sont par essence fragiles, ils atteignent un jour leur limite. Il y a aussi la création d’une aberration financière, une distorsion créée par l’image même de Steve Jobs – les succès d’Apple sont indéniablement liés à la présence de Jobs, mais son statut de mythe vivant semble exercer un pouvoir irrationnel sur le marché – certains analystes parlent de champ de distorsion de la réalité.

Il me paraît pourtant sage de relativiser le risque que représente « l’icônisation » de Steve Jobs. Apple est une belle entreprise qui a mis en place de belles équipes. Sur les rails du succès depuis déjà dix ans, elle s’est diversifiée dans sa gamme de produits et elle s’est structurée autour de collaborateurs compétents, avec au premier chef son nouveau PDG Tim Cook. Apple a été dirigé avec un talent industriel de premier plan, ce qui reste une force pour l’entreprise, et pour sa capacité à encadrer pendant longtemps encore ses jeunes experts du marketing, de la communication, du design et de l’engineering.

Mais alors, minimiser le rôle des collaborateurs représente un autre type de danger, à ne pas sous-estimer, en particulier lorsque la création de valeur repose sur l’intelligence collective : on casse le « moteur californien », qui a besoin d’un fonctionnement collaboratif.

À la base, Apple, ce sont deux choses qui ne peuvent être dissociées, d’un côté la martingale ergonomie/design/simplicité et de l’autre l’apport de ruptures technologiques qui amènent à de nouveaux usages et surtout obligent la concurrence à se mettre au niveau. Le succès est le fruit de ce que ce patron visionnaire a apporté, de son exigence de la simplicité, de sa capacité à disséquer les usages et à positionner l’utilisateur au centre de l’écosystème technique. Mais encore faudrait-il reconnaître la masse de travail et de compétences qui relaie ces géniales intuitions, toute cette intelligence collective qui participe à la réussite finale, reconnaître aussi le rôle des canaux marketing et commerciaux disponibles – sans sous-estimer le fait qu’Apple engendre des marges très importantes en sous-traitant la fabrication aux usines chinoises.

Le personal branding peut iconiser d’autres stars, y compris chez Apple, pour prendre la relève de Steve Jobs, pour perpétuer cette stratégie de la communication, de l’addiction, et du buzz. Mais quel investissement, en temps et en moyens, et quelle prise de risque ! Apple pourrait tout simplement se mettre à l’école de ses propres élèves, toutes ces entreprises qui, sur la Toile et les réseaux, ont mis leurs collaborateurs aux commandes du développement et de la communication, au contact des utilisateurs. Humaniser l’entreprise, ce n’est pas nécessairement stariser tout le monde, mais plutôt entrer dans l’ère de la conversation… qui n’est pas celle du buzz.

Par Louis Treussard, Directeur Général de L’Atelier BNP Paribas / Experts IT

 

À lire aussi :

Apple dans le collimateur de deux experts en sécurité ?

E-payment : la France riposte avec Buyster

Steve Jobs, chef d’orchestre de tous les succès d’Apple, est mort

« Steve était l’un des plus grands inventeurs américains, assez courageux pour penser différement, assez audacieux pour croire qu’il pouvait changer le monde, et assez talentueux pour le faire », a déclaré M. Obama dans un communiqué, se disant « attristé » par la nouvelle.

« L’Amérique a perdu un génie dont on se souviendra comme d’Edison et d’Einstein, et dont les idées vont façonner le monde pendant plusieurs générations », a de son côté déclaré le maire de New York Michael Bloomberg.

« Apple a perdu un visionnaire et un créateur de génie, et le monde a perdu un être humain incroyable », a réagi l’actuel directeur général du groupe Tim Cook, dans un courrier électronique à ses employés et rendu public.

« Profondément attristé », Bill Gates, le fondateur de Microsoft, a jugé que l’influence qu’a eu sur le monde Steve Jobs se ressentirait « encore pendant plusieurs générations ». Robert Iger, patron du géant des loisirs Walt Disney, a quant à lui estimé que « le monde (avait) perdu un être original rare ».

Le conseil d’administration du fabricant des ordinateurs Mac, du baladeur iPod, du smartphone iPhone ou encore de la tablette iPad avait annoncé peu avant la nouvelle dans un bref communiqué. Né à San Francisco le 24 février 1955, Steve Jobs souffrait de graves problèmes de santé depuis plusieurs années. Il a été atteint en 2004 d’une forme rare de cancer du pancréas et a subi une transplantation du foie en 2009. En congé maladie depuis janvier dernier, il avait annoncé sa démission de son poste de directeur général le 24 août, cédant les rênes à son numéro deux Tim Cook.

« Steve est mort en paix aujourd’hui entouré de sa famille », a indiqué sa famille dans un communiqué distinct. « Dans sa vie publique, Steve était connu comme un visionnaire. Dans sa vie privée, il chérissait sa famille », est-il ajouté.

Devant le cube géant abritant un magasin Apple sur la Cinquième avenue, à New York, des fans de la marque à la pomme commençaient mercredi soir à déposer des fleurs devant le magasin Apple, a constaté un journaliste de l’AFP.

« Steve laisse derrière lui une société que seul lui pouvait avoir bâtie, et son esprit sera pour toujours la fondation d’Apple », a estimé Tim Cook.

L’avalanche de réactions qu’a suscité son décès, notamment sur les réseaux sociaux, submergés, est à la mesure du symbole qu’était devenu au fils des ans Steve Jobs, architecte de tous les succès d’Apple. Il avait confondé l’entreprise dans un garage en 1976 avec Steve Wozniak. Il avait démissionné en 1985 au terme d’une lutte de pouvoir interne et le groupe avait périclité jusqu’à son retour aux commandes en 1997. Il avait depuis orchestré le lancement des produits vedettes de la marque à la pomme croquée : de l’ordinateur iMac en 1998 à la tablette iPad en 2010, en passant entretemps par le baladeur numérique iPod (2001) ou le téléphone multifonctions iPhone (2007).

En 2011, Apple est devenue temporairement la plus grosse société au monde, pesant environ 350 milliards de dollars en Bourse, se disputant depuis la première place avec le géant pétrolier ExxonMobil.

La marque à la pomme croquée a présenté mardi la nouvelle génération de son smartphone vedette, l’iPhone 4S, plus puissant et doté de plusieurs innnovations, dont des commandes vocales.

C’était alors Tim Cook qui s’était retrouvé maître de cérémonie, en l’absence remarquée de Steve Jobs, qui avait pris l’habitude de présenter ses produits lors de véritables shows qu’il orchestrait sur scène avec son style décontracté, portant souvent jeans, col roulé et ses habituelles lunettes rondes.

La santé de Steve Jobs inquiètait régulièrement les investisseurs, tant le succès d’Apple apparaissait indissociable de son patron.

(Source et crédit photo : AFP)

 

À lire aussi :

Mon patron est une icône… Steve Jobs et les limites du personal branding

Apple dans le collimateur de deux experts en sécurité ?

Le laser, futur de l’éclairage automobile

Le salon automobile de Francfort, qui s’est tenu du 13 au 25 septembre 2011, a accueilli entre autres les constructeurs allemands BMW et Audi, qui ont présenté leur concept-car ayant au moins un point de convergence majeur : l’éclairage des feux avant et arrière devrait être assuré par des diodes laser, dans une optique à la fois d’efficacité accrue et de consommation énergétique revue à la baisse.

La BMW i8 Concept, ainsi que l’Audi A2 Concept, devraient donc présenter des prototypes de phares à diodes laser, plus puissants et moins énergivores que les DEL qui équipent actuellement les modèles les plus récents. La probable relève des phares à DEL devrait être capable d’éclairer à l’aide de faisceaux blancs parallèles et très brillants, mais absolument pas aveuglants voire même plus agréables pour les yeux qu’un éclairage traditionnel, assurent les ingénieurs à l’origine du développement de cette technologie. En effet, l’éclairage assuré par les diodes laser serait « pacifié » par le biais d’un filtrage de la lumière à l’aide d’un fluor phosphorescent, ne créant alors plus aucun dommage aux conducteurs, piétons ou encore animaux qui croiseraient la route d’un de ces véhicules.

Ces diodes laser, d’une taille de dix microns, c’est-à-dire près de cent fois plus petites que les diodes traditionnelles, émettent une lumière monochromatique d’une intensité mille fois plus élevée que leur grande sœur, et sont plus efficaces – 170 lumens par Watt contre une centaine pour les DEL classiques – tout en consommant moitié moins d’énergie, et donc moins de carburant, quel qu’il soit. Gageons que les deux constructeurs allemands feront figure de pionniers dans l’éclairage laser, et que d’autres constructeurs leur emboîteront le pas rapidement.

Par Rahman Moonzur

 

À lire aussi :

Un internet plus rapide grâce à un nouveau laser

DIAPORAMA – Salon de l’Automobile de Shanghaï 2011

La première voiture volante commercialisée fin 2011

Gaz de schiste : l’industrie pétrolière « déçue » par l’abrogation des permis

« Nous sommes déçus parce que ça nous prive de la possibilité d’aller explorer et d’évaluer les gaz de schiste dans notre pays », a déclaré à l’AFP Jean-Louis Schilansky, le président de l’Union française des industries pétrolières (Ufip). « Ca ferme la porte, on l’espère provisoirement, en tout cas ça ferme la porte. Or on importe 99 % du pétrole qu’on consomme et 98 % du gaz, donc on se prive d’une ressource importante », a-t-il ajouté.

Le gouvernement français a décidé lundi d’abroger les trois permis de recherche de gaz de schiste accordés à Total et à l’américain Schuepbach dans le sud de la France, une victoire pour les opposants mobilisés depuis des mois contre la technique contestée de la fracturation hydraulique.

Ces trois permis d’exploration étaient ceux parmi les 64 accordés en France qui visaient exclusivement les gaz de schiste, les autres ne visant plus que les hydrocarbures conventionnels sans fracturation.

« Un permis c’est un contrat, donc le fait de l’abroger pour une raison ou une autre ça ouvre potentiellement les voies d’un recours », a souligné M. Schilansky, en rappelant que Total avait renoncé à la fracturation.

« Mais ce que nous regrettons le plus c’est qu’on n’ait pas la possibilité de travailler avec les pouvoirs publics et les collectivités locales pour améliorer les conditions d’exploitation. On ferme la porte avant même de savoir, en raisonnant par analogie avec les États-Unis et sur la base d’impressions ou d’émotions », a-t-il estimé.

La France, devenue en juillet le premier pays à interdire la fracturation hydraulique, est aussi avec la Pologne le pays européen avec le meilleur potentiel d’hydrocarbures de schiste.

Les États-Unis ont développé en masse l’exploitation des gaz de schiste à la faveur de techniques nées il y a quelques années. Cela a rendu le gaz bon marché outre-Atlantique, mais des pollutions ont été dénoncées du fait de la fracturation. Celle-ci consiste à fracturer la roche en grande profondeur avec un mélange d’eau, de sédiments et de produits chimiques projeté à haute pression, afin de libérer les hydrocarbures.

(Source et crédit photo : AFP)

 

À lire aussi :

Total ne lâche pas les gaz de schistes

Gaz de schiste : les nouveaux subprimes ?

Modification du code minier : un écran de fumée ?

Le graphène, une porte vers le monde des ondes térahertz

Domaine longtemps laissé en friche faute de sources et de détecteurs adaptés, l’exploitation des ondes térahertz (entre 100 GHz et 30 THz) pourrait connaître un nouvel essor grâce aux récentes découvertes sur les semi-conducteurs, et aux avancées réalisées sur l’irremplaçable matériau miracle, le graphène. Une équipe de chercheurs de l’université américaine de Notre-Dame, dans l’Indiana, a eu l’idée d’associer les innombrables propriétés du graphène au développement des technologies utilisant les ondes térahertz.

Les ondes térahertz offrent de nouvelles perspectives alléchantes dans les domaines de la communication, de l’imagerie médicale, de la détection chimique et dans l’avènement des scanners corporels. Faisant la transition entre les infrarouges et les micro-ondes, les ondes térahertz sont connues pour être difficiles à produire, à détecter et à moduler. La modulation, autrement dit, la variation de la hauteur des ondes térahertz, est particulièrement importante car un signal modulé est à même de transporter une information et est nettement plus polyvalent, eu égard aux possibles applications tant physiques que chimiques ou biologiques.

La plus grande partie des technologies prometteuses qui exploitent les ondes térahertz, se base sur des semi-conducteurs, dont le principal défaut dépend d’une fine couche de métal appelée « metal gate » permettant de régler le signal, mais en en réduisant son intensité et en limitant à près de 30 % les possibilités de modulations. C’est ici que l’équipe américaine intervient : en tablant sur le remplacement de la couche de métal par une seule couche de graphène, les modulations se sont vues atteindre les 90 % théoriques. Les modulations seraient alors contrôlées par l’application d’un simple voltage. Le graphène, qui n’en est plus à son coup d’essai, ne fait a priori que commencer sa révolution.

Par Rahman Moonzur

 

À lire aussi :

Toujours plus de propriétés pour le graphène

Le térahertz décrypté

Le graphène peut polariser la lumière

Une méthode simple pour fabriquer du graphène ?

Les défauts fleuris du graphène, une chance ?

Après le satellite UARS, au tour de ROSAT ?

Samedi 24 septembre, le satellite américain UARS (Upper Atmosphere Research Satellite) est tombé à une soixantaine de kilomètres au large de Pago Pago, la capitale des Samoa américaines (îles se trouvant dans la zone sud du Pacifique), à 17 heures, heure locale (6 heures du matin en France). La NASA, d’où proviennent ces informations, rapporte que plusieurs centaines de kilos de débris ont bien touché l’océan, même si la plus grande partie du satellite de près de six tonnes s’est désintégrée en traversant l’atmosphère. Ce satellite d’observation avait été placé sur une orbite plus basse après sa désactivation, il y a presque six ans, mais l’inconnue concernant son point de chute, mis à part qu’il devait tomber quelque part entre les 57 degrés de latitude nord et les 57 degrés de latitude sud, faute de carburant, a contribué à médiatiser l’évènement.

Cette couverture médiatique relativement large qu’a connu la chute de ce satellite, événement pourtant pas si rare que ça, a mis en lumière la prochaine chute du satellite allemand ROSAT (RÖntgenSAtellit, satellite d’observation des rayons X, ayant pris sa retraite en 1999) « prévue » pour la fin du mois d’octobre 2011. Sont évoqués une trentaine de fragments qui pourraient arriver à près de 450 kilomètres par heure, pour un poids environnant 1,6 tonne, bien que ces données restent pour le moment hautement aléatoires. Un système optique d’observation à rayons X, composé de miroirs et d’un support en fibres de carbone capables de supporter des températures très élevées, pourrait bien être à même de ne pas se désintégrer en rentrant dans l’atmosphère terrestre.

De nombreux facteurs rendent difficiles l’estimation des date et lieu de retour de ce satellite, dont en première ligne l’activité solaire qui modifie les conditions dans la haute atmosphère. Si l’activité solaire augmente, l’atmosphère entre alors en expansion, ce qui a pour conséquence de freiner le satellite. Un facteur dont l’ancien couturier espagnol Paco Rabanne n’avait probablement pas tenu compte…

Par Rahman Moonzur

 

À lire aussi :

DIAPORAMA – SeaOrbiter, le satellite des mers

DIAPORAMA – De nouveaux clichés de la Lune

Un nouveau souffle pour Galileo

Nanotechnologies et risques : quelles responsabilités ?

Le 29 septembre se tenait à Bruxelles la conférence Nanocode, organisée par les partenaires européens du projet du même nom financé dans le cadre du 7ème PCRD (Programme Cadre de Recherche et Développement) européen. Cette conférence, dont le programme est téléchargeable ici, devait traiter de l’avenir du Code de bonne conduite pour une recherche responsable en nanosciences et nanotechnologies.

Ce texte est une recommandation de la Commission européenne datée du 7 février 2008, qui n’a pas, pour l’heure, de valeur juridique : il n’est ni obligatoire ni contraignant, et n’a pas été formellement adopté ni décliné dans les États membres – à l’exception des Pays-Bas qui font de son respect une condition pour l’obtention de fonds publics.

Nous nous focalisons ici sur l’un de ses sept principes généraux, les plus polémiques : celui de la responsabilité des scientifiques, énoncé comme suit : « Les chercheurs et les organismes de recherche demeurent responsables des incidences sur la société, l’environnement et la santé humaine que leurs recherches en nanosciences et nanotechnologies peuvent entraîner pour les générations actuelles et futures. »
Au vu des incertitudes relatives aux risques sur la santé, l’environnement et les libertés publiques que suscitent les nanotechnologies, il est peu étonnant que ce principe soit contesté : des scientifiques se sont exprimés à ce sujet, notamment dans le cadre de consultations ou discussions organisées ou mandatées par les institutions européennes.

  • Quelle responsabilité des scientifiques quant aux incidences de leurs recherches ?

Une première critique entendue par les partenaires du projet NanoCode : beaucoup de scientifiques récusent la formulation actuelle qui, telle que libellée en anglais – « accountability » – sous-tend la nécessité de rendre des comptes à la société. Le physicien Richard Jones, Pro-Vice Chancelier à la Recherche et l’Innovation de l’Université de Sheffield (Royaume-Uni) considérait dès 2009 qu’il est difficile de défendre la mise en place d’une responsabilité légale des scientifiques eu égard aux conséquences de leur recherche, tant ces dernières sont souvent très difficiles à prévoir à un stade précoce. Les scientifiques qui font une découverte originale n’ont qu’une influence très limitée sur la façon dont elle sera commercialisée.

Une proposition consiste à la remplacer par celle de « responsibility » qui se limiterait ainsi à une responsabilité morale… Richard Jones, déjà cité plus haut, juge qu’ « il serait sans doute plus utile de penser les responsabilités des chercheurs en termes d’obligation morale à se pencher sur les conséquences possibles, à examiner différents points de vue, et à avertir des risques possibles » de leurs recherches. Puisque de nombreux scientifiques formulent des promesses merveilleuses pour appuyer leurs demandes de financements, c’est donc qu’ils savent projeter dans l’avenir leur recherche fondamentale ; ils ont donc aussi un rôle à jouer dans la prévention des conséquences négatives : non seulement en tentant de les anticiper mais aussi, comme le note une commentatrice du blog de Richard Jones ainsi que de nombreux autres acteurs, en favorisant les initiatives pluridisciplinaires et d’ouverture à la société civile.

Nuançons le propos, en ajoutant à cela le fait qu’il existe, au sein même de la communauté des nanosciences, une grande diversité de profils de chercheurs, dont la responsabilité n’est pas de même nature. Tous les chercheurs en nanosciences ne sont pas cantonnés à la recherche sur le papier… avec le développement des sciences et technologies émergentes, ils sont de plus en plus nombreux à utiliser leurs compétences de chercheurs pour créer des start-ups qui commercialisent des produits ou procédés nanos par exemple. Aspect souvent occulté dans les discussions, par exemple celle sur le partage des responsabilités entre les acteurs de l’innovation nanotechnologique que nous traitons au point suivant.

  • Quel partage des responsabilités entre les acteurs de l’innovation nanotechnologique ?

Une deuxième critique faite au Code est qu’il est restreint aux seuls chercheurs ; certains souhaiteraient voir traitée la question du partage des responsabilités entre les chercheurs, les industries et les pouvoirs publics. C’est par exemple la position défendue par Richard Jones qui souligne sur les limites de la responsabilité individuelle des scientifiques pris isolément, et insiste sur la responsabilité collective des institutions (laboratoires, financeurs, ministères,…) encore trop peu portées sur le développement de l’éthique. En cas d’impacts négatifs sur l’environnement ou la santé, la responsabilité principale relève selon lui moins des chercheurs que de ceux qui sont directement responsables des conditions dans lesquelles les personnes ou les écosystèmes ont été exposés au risque.

Mais quid des recherches qui entrent dans le cadre de partenariats publics / privés ? Quid des chercheurs « entrepreneurs » qui exercent dans le cadre de start-ups situées à la porte des laboratoires académiques où ils travaillent ?

  • Quelle spécificité des nanosciences ?

Une troisième critique relayée par les partenaires du projet NanoCode a trait au périmètre même du Code : le fait qu’il soit uniquement ciblé sur les nanosciences et nanotechnologies est questionné ; le caractère général de ses principes, affirment-ils, font que le texte est, en l’état actuel, valable pour l’ensemble des sciences.
On retrouve donc chez les chercheurs de « sciences dures » un clivage qui existe également parmi les chercheurs en sciences sociales : si Bernard Baertschi, maître d’enseignement et de recherche à l’Institut d’éthique biomédicale de l’Université de Genève, considère que « les nanotechnologies ne soulèvent aucun problème éthique nouveau et particulier », d’autres philosophes considèrent quant à eux que les propriétés inédites des nanotechnologies et surtout le projet à l’oeuvre derrière les programmes de développement des nanotechnologies, et leur convergence avec les biotechnologies, sciences de l’information, et sciences cognitives (NBIC), justifient le développement d’une bionano-éthique…

(Source : Veille Nanos)

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : Formation sur les nanomatériaux : évaluer et prévenir les risques HSE

 

 

 

 

 

 

 

 

 

À lire aussi :

« Les risques nano ne sont pas suffisamment pris en compte »

Nanotechnologies : où sont les ruptures annoncées ?

Débat sur les nanotechnologies : conclusion ou confusion ?

Le casse-tête de l’encadrement juridique des nanotechnologies

Festival Pariscience : la science fait son cinéma !

Documentaires pour la plupart, mais aussi docu-fictions, animations ou diaporamas, le programme se veut riche et varié en faisant la part belle à toutes les sciences : des mathématiques à la géologie, en passant par la médecine, l’histoire ou encore l’architecture, sans oublier la chimie, à l’honneur cette année. Que ce soit pour explorer les secrets de la matière ou du cosmos, pour bousculer les limites de la perception, relever des défis technologiques,  ou simplement pour mieux connaître le monde qui nous entoure, la science est au cœur de nombreuses aventures humaines. À travers ces films scientifiques qui relatent des histoires de luttes, d’impostures et d’espoirs, c’est  surtout la Vie sous toutes ses formes et avec toutes ses questions qui nous est présentée. Vecteurs de savoirs, non dénués d’attraits poétiques et philosophiques, gageons que ces films sauront vous étonner, vous faire réfléchir et vous faire rêver !

Programme complet des films, conférences-débats et animations associées sur : http://www.pariscience.fr/fr/program/

Verres progressifs : les secrets de fabrication

Que sont les verres progressifs ?

Les verres progressifs sont des verres correcteurs qui permettent de voir à la fois de près et de loin, quelle que soit la position du visage. Ils corrigent différents défauts visuels, dont la presbytie.

Comment sont-ils fabriqués ?

Le travail commence sur un verre semi-fini (pas encore taillé) très épais. À l’aide d’un ordinateur, les différents points de design du verre sont établis au dixième de micron près. Cette opération de calcul prend en moyenne 1,15 minutes. Le verre passe ensuite sur les machines numériques chargées de l’usinage.

À l’étape suivante, le verre subit une série de traitements :

  • Un procédé durcissant, contre les rayures et les chocs, avec une résine transparente ;
  • Une formule anti-reflet, qui peut comprendre 18 couches d’une dizaine de nanomètres ;
  • Un traitement anti-statique, anti-salissure et hydrophobe (résistant à l’eau), à base de produits chimiques.

Le cas échéant, un traitement colorant peut-être ajouté. Il existe 58 teintes uniformes ou dégradées au catalogue. Il est possible de créer la couleur de son choix à partir d’un modèle (un morceau de tissu, par exemple). Le processus se termine par un marquage des points de référence optique du verre. Celui-ci permet à l’opticien de réaliser son assemblage dans la monture. Au total, pas moins de 80 stades d’exécution sont accomplis, incluant chacun des phases de contrôle. 

Quels matériaux entrent dans la composition d’un verre progressif ?

Un verre progressif est fabriqué à partir d’un verre dit « organique », c’est-à-dire à base de résine de polymère. Il existe plusieurs types de matériaux aux propriétés différentes, pour jouer sur l’épaisseur, le poids et la résistance. Certains verres sont en polycarbonate, afin de les rendre incassables. C’est notamment le cas pour les modèles destinés aux enfants.

Les méthodes de conception ont-elles évoluées ?

Considérablement ! On recueille régulièrement de nouvelles données sur les habitudes visuelles de la population, comme la position du regard pendant la lecture, la conduite… Cela a permis de faire évoluer le design des verres ces 10 dernières années. On pensait même avoir atteint le sommet technologique dans la fabrication des verres progressifs. Mais, chez Essilor, nous préparons déjà de nouvelles avancées majeures…

(Source : Lissac.fr)

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : Traitement de surface : quels procédés pour quelles fonctions

REACH : les news du mois de septembre (2/2)

Mise à jour de la FAQ relatif au règlement CLP

La FAQ relative au règlement CLP a été mise à jour le 7 septembre. Retrouver les dernières questions-réponses sur :  

http://echa.europa.eu/clp/clp_help/clp_faq_en.asp?fuseaction=home.faq

L’ECHA a également publié un document reprenant les questions-réponses les plus fréquemment posées. Ce guide est téléchargeable sur :

http://echa.europa.eu/doc/clp/clp_faq.pdf

Mise en ligne d’un document sur les FDS

L’UIC vient de mettre en ligne un document sur les fiches de données de sécurité (FDS), dans le cadre du plan d’action avec le Ministère de l’Ecologie, du Développement Durable, des Transports et du Logement (MEDDTL). Ce document renseigne sur les responsabilités liées à la fourniture d’une FDS et aux obligations résultant de la réception d’une FDS étendue.  

http://www.uic.fr/iso_upload/Reach-Responsabilites-obligations-fiche-donnees-securite-etendues.pdf

Informations pour éviter les essais inutiles sur les animaux – 34 nouvelles substances concernées

(15/09/2011)

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • orthoborate de tris(2,5,8,11-tétraoxatridécyle) (tests proposes avec l’orthoborate de tris[2-[2-(2-méthoxyethoxy)ethoxy]éthyle] (B-TEGME) (N° CAS : 30989-05-0 et N° CE : 250-418-4)) (N° CAS : 57057-98-4 et N° CE : 260-535-2)
  • boues et schlamms, haut fourneau et élaboration de l’acier (N° CAS : 65996-73-8 et N° CE : 266-006-2)
  • 1,6-bis(2,3-époxypropoxy)hexane (N° CAS : 16096-31-4 et N° CE : 240-260-4)
  • acide orthoborique, composé avec 2-aminoéthanol (N° CAS : 26038-87-9 et N° CE : 247-421-8)
  • Réactiondu p-mentha-1 ,4-diène, dup-mentha-1 ,3-diène, du dipentène, du p-mentha-1 (7) ,2-diène et du p-mentha-1, 4 (8)-diène (N° CE : 931-893-3)
  • tétrapropylènebenzène (N° CAS : 25265-78-5 et N° CE : 246-772-4)
  • benzyldimethylamine) (N° CAS : 103-83-3  et N° CE : 203-149-1)
  • 2,4,6,8-tétraméthylcyclotétrasiloxane (N° CAS : 2370-88-9 et N° CE : 219-137-4)
  • huile de coco, produits de réaction avec du polyéthylène glycol et du triméthylolpropane (N° CE : 640-964-5)
  • hydrocarbures en C9-insaturés, polymérisés (tests proposés avec des phénols comportant des groupements méthylstyrène (N° CE : 270-966-8) (N° CE : 615-276-3)
  • paraffines normales (pétrole), supérieures à C10 (tests proposés avec des solvants aliphatiques C9-C14, aromatiques 2-25% (HSPA)) (N° CAS : 64771-71-7 et N° CE : 265-232-9)
  • réaction du 1,3-Propanediamine, N-[3-(tridecyloxy)propyl]-, ramifié et du 1,3-Propanediamine, N-[3-(tridecyloxy)propyl]-, ramifié acetate (N° CE : 931-295-2)
  • réaction du bis(1,2,2,6,6-pentaméthyl-4-pipéridyle) sebacate et du méthyle 1,2,2,6,6-pentaméthyl-4-pipéridyle sebacate (N° CE : 915-687-0)
  • Anacardier, alcool de coquille de noix (N° CAS : 8007-24-7 et N° CE : 232-355-4)
  • dichlorométhylbenzène (N° CAS : 29797-40-8  et N° CE : 249-854-8)
  • amides, acides grasen C18 insaturés, produits de réaction avec des polyéthylène amines (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CAS : 1226892-50-7 et N° CE : 629-735-0)
  • amides, acides gras en C18 insaturés, produits de réaction avec le tetraethylenepentamine (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CAS : 1225197-81-8 et N° CE : 630-459-8)
  • acides gras en C18 insaturés, produits de réaction avec le pentaethylenehexamine (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CE : 629-732-4)
  • acides gras en C18 insaturés, produits de réaction avec des polyéthylène amines (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CE : 629-742-9)
  • acides gras en C18 insaturés, produits de réaction avec le tetraethylenepentamine (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CAS : 1226892-45-0 et N° CE : 629-725-6)
  • acides gras en C18 insaturés, produits de réaction avec le triethylenetetramine (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CAS : 1226892-44-9 et N° CE : 629-765-4)
  • acides gras en C18 insaturés, produits de réaction avec le diethylenetriamine (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CE : 629-715-1)
  • acides gras en C18 insaturés, produit de réaction avec les sous-produit de réaction de l’ammoniac-éthanolamine (tests proposés avec le 1H-imidazole éthanamine-1, dihydro-4,5, dérivés nortallol alkyl-2 – N° CAS : 68442-97-7) (N° CAS : 1224966-15-7 et N° CE : 629-757-0)
  • Alcènes en C10-14 (tests proposés avec l’oct-1-ène – N° CAS : 111-66-0) (N° CAS : 85681-75-0 et N° CE : 288-213-7)
  • Alcènes en C20 et + (tests proposés avec l’oct-1-ène – N° CAS : 111-66-0) (N° CE : 931-467-7)
  • Alcènes en C10-13 (tests proposés avec l’oct-1-ène – N° CAS : 111-66-0) (N° CAS : 85535-87-1 et N° CE : 287-479-1)
  • icos-1-ène (tests proposés avec l’oct-1-ène – N° CAS : 111-66-0) (N° CAS : 3452-07-1 et N° CE : 222-374-6)
  • alcènes en C11-12, produits d’hydroformylation, résidus de distillation (N° CAS : 90622-27-8 et N° CE : 292-427-6)
  • alcènes en C13-14, produits d’hydroformylation, résidus de distillation (tests proposés avec les alcènes en C11-12, produits d’hydroformylation, résidus de distillation – N° CAS : 90622-27-8) (N° CAS : 90622-29-0 et N° CE : 292-429-7)
  • alcanes en C12-26, ramifiés et droits(tests proposés avec une large gamme de gazole de distillation directe) (N° CAS : 90622-53-0 et N° CE : 910-663-6)
  • condensats (pétrole), tour sous vide (tests proposés avec une large gamme de gazole de distillation directe) (N° CAS : 64741-49-7 et N° CE : 265-049-4)
  • produitsd’acétalisation entre le glucose et les alcools en C20-22 (numéros pairs) (tests proposés avec les produits d’acétalisation entre le glucose et les alcools en C16-18 (numéros pairs)) (N° CE : 923-835-0)
  • produitsd’acétalisation entre le glucose et les alcools en C16-18 (numéros pairs) (N° CE : 927-870-2)

Les informations sur ces substances sont à soumettre pour le 31 octobre 2011.

http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Offre d’emploi à pourvoir à l’ECHA

(16/09/2011)

L’ECHA a publié une nouvelle offre d’emploi. Cette offre peut être consultée à l’adresse http://www.echa.europa.eu/opportunities/positions_en.asp. La date limite d’envoi des candidatures est le 17 octobre 2011.

Consultation publique sur la restriction de quatre phalates 

(19/09/2011)

L’ECHA a lancé un appel à commentaires sur une proposition de restriction de quatre phtalates : le DEHP, BBP, DBP et DIBP. Ces phtalates sont présents principalement dans le PVC comme assouplissant, mais ils peuvent également être présents en faibles concentrations dans d’autres plastiques, des peintures et vernis. La consultation publique se terminera le 16 Mars 2012. Cependant, l’ECHA encourage les parties intéressées à envoyer leurs commentaires par 16 Décembre 2011.

http://echa.europa.eu/news/na/201109/na_11_38_phthalates_en.asp

Adoption de trois avis scientifiques sur le plomb, le mercure et les composés du phénylmercure

(20/09/2011)

Le comité d’analyse socio-économique (SEAC) a adopté des avis sur trois propositions de restriction lors de sa 12ème réunion, tenue 13 au 15 Septembre 2011 à Helsinki. Les restrictions concernent le plomb, le mercure et les composés du phénylmercure.

http://echa.europa.eu/news/na/201109/na_11_39_seac_three_opinions_20110920_en.asp

Le Comité sur l’évaluation des risques adopte sept avis scientifiques

(20/09/2011)

Le comité sur l’évaluation des risques (RAC) a adopté sept avis scientifiques. Ces avis concerne la classification et l’étiquetage harmonisé pour sept substances : Polyhexamethylene biguanide hydrochloride (PHMB), Di-n-hexyl phthalate (DnHP), Fenamiphos, Trichloromethylstannane (MMTC), 2-ethylhexyl 10-ethyl-4-[[2-[(2-ethylhexyl)oxy]-2-oxoethyl]thio]-4-methyl-7-oxo-8-oxa-3,5-dithia-4-stannatetradecanoate (MMT (EHMA)), Benzenamine, 2-chloro-6-nitro-3-phenoxy- (Aclonifen), Perestane. Les avis sont consultables sur :

http://echa.europa.eu/news/na/201109/na_11_39_seac_three_opinions_20110920_en.asp

L’ECHA publie une analyse sur les substances n’ayant pas été enregistrées fin 2010 échéance malgré les déclarations d’intention

(21/09/2011)

Quelques 1500substances, identifiées pour être enregistrées lors de la première échéance de décembre 2010selon une enquête réalisée en avril 2010, n’ont pas été enregistrées fin 2010. Le Groupe de contact des réalisateurs (DCG) a accepté de mener une analyse des raisons de ce non enregistrement, et l’ECHA publie les résultats aujourd’hui, disponibles sur le lien suivants :

http://echa.europa.eu/news/na/201109/na_11_41_substances_not_registered_20110921_en.asp

L’ECHA supprime des pré-enregistrements invalides

(21/09/2011)

L’ECHA a supprimé certaines informations non pertinentes de pré-enregistrement de la base de REACH-IT. Cela permettra d’améliorer le processus de partage des données entre les déclarants potentiels. Après consultation avec les intéressés pré-déclarants, l’ECHA a retiré les éléments suivants:

– les pré-enregistrements pour lesquels la suppression a été demandée par le pré-inscrit

– les pré-enregistrements correspondant à l’annexe IV

– les pré-inscriptions qui sont considérées comme invalides parce que les pré-inscrits ne sont pas légalement établis dans l’UE ou les pré-inscrits n’ont pas pu être identifiés, parce que leur adresse postale n’est pas correcte et ils n’ont pas répondu aux demandes de renseignements électroniques et postaux

– tous les pré-enregistrements effectués par des personnes morales dont le compte REACH-IT a été bloqué et l’utilisation du compte n’a jamais été récupérée.

http://echa.europa.eu/news/na/201109/na_11_42_removal_of_pre-registrations_en.asp

Les entreprises sont invitées à commencer à préparer l’échéance de 2013 pour l’enregistrement REACH

(23/09/2011)

L’ECHA lance une campagne « REACH 2013 – Agir maintenant» pour rappeler à l’industrie qu’elle doit commencer dès maintenant à préparer la seconde échéance d’enregistrement REACH. Les entreprises fabricant ou important des produits chimiques en quantités égales ou supérieures à 100 tonnes par an doivent enregistrer ces substances auprès de l’ECHA avant le 31 mai 2013. L’ECHA a créé une page spéciale sur l’échéance de 2013. Retrouver le détail sur : http://echa.europa.eu/2013_en.asp

L’ECHA met en place un réseau d’échange sur les scénarios d’exposition (ENES)

(26/09/2011)

Le nouveau réseau vise à identifier les bonnes pratiques de l’industrie sur la rédaction des scénarios d’exposition et la construction d’un dialogue entre les acteurs de la supply chain pour améliorer la protection de la santé humaine et de l’environnement.

L’ECHA avec l’European Chemical Industry Council (CEFIC), Eurométaux, CONCAWE (association européenne des compagnies pétrolières), l’Association européenne des distributeurs de produits chimiques (FECC) et l’Association Internationale de la Savonnerie, détergents et produits d’entretien (AISE) ont établi un réseau de collaboration intersectorielle pour partager des connaissances, des techniques et approches pour la construction et de l’application des scénarios d’expositiontel que prévus dans le règmenet européen REACH. La première réunion se tiendra à Bruxelles, les24et 25 novembre 2011. L’industrie, les ONG, les autorités des États membres et d’autres parties prenantes seront invitées à participer.

http://echa.europa.eu/news/na/201109/na_11_44_ENES_en.asp

L’ECHA lance une nouvelle procédure de soumission des demandes de nom de substances chimiques

(30/09/2011)

Une nouvelle procédure en ligne permet aux fabricants, importateurs et utilisateurs en aval de demander l’usage d’un nouveau nom pour un produit chimique. Ils peuvent choisir de le faire s’ils pensent que la divulgation du nom de la substance présent dans un mélange sur l’étiquette ou dans les fiches de données de sécurité révèle un secret. Ceci est en conformité avec l’article 24 du règlement CLP. Pour toute information complémentaire :

http://echa.europa.eu/news/na/201109/na_11_46_alternative_chemical_name_in_mixtures_en.asp

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Revue du Web #9 : les vidéos de la semaine

Cette semaine :

– la découverte par la NASA de Kepler 16b, une planète circumbinaire ayant deux soleils, comme la planète Tatooine dans le film « La Guerre des Étoiles » ;

– une tête robot un peu effrayante mais ayant la capacité de lire la musique et de reproduire une partition en la « chantant » ;

– une incroyable vidéo en timelapse prise depuis l’avant de la Station Spatiale Internationale alors qu’elle orbitait la nuit autour de la Terre ;

– une autre vidéo tout aussi incroyable, prise elle aussi depuis la Station Spatiale Internationale, et permettant d’admirer une aurore australe ;

– iCub, le robot qui va peut-être pouvoir porter la flamme olympique lors des Jeux Olympiques de Londres en 2012 ;

– des vidéos à partir d’images stockées dans le cerveau humain, reproduites approximativement par les scientifiques de l’université de Berkeley ;

– enfin le gadget (inutile ?) de la semaine, un simulateur de « french kiss », enregistrant les mouvements de langue et les reproduisant (à l’envers) via un autre simulateur ;

– pour conclure et en bonus, le nouveau « Blue Screen of Death » de Windows 8, qui se veut un peu moins aride et effrayant que ses prédécesseurs.

Kepler 16b, la planète aux deux soleils :

La NASA a annoncé il y a plus d’une semaine la découverte par le télescope américain Kepler de la planète Kepler 16b, qui a la singulière particularité d’être la première planète « circumbinaire » dont l’existence est confirmée. Située à près de 200 années-lumières de la Terre, la « circumbinarité » de cette exoplanète signifie qu’elle possède deux soleils, impliquant deux couchers et deux levers de soleil par « jour ». L’une des étoiles serait orange, l’autre serait rouge selon le journal The New-York Times, qui explique aussi que la révolution de Kepler 16b autour du soleil principal se ferait en 229 jours.

La technique utilisée pour découvrir cette exoplanète est classique : le télescope repère lorsque la luminosité d’une étoile est réduite de manière momentanée, ce qui signifie la présence d’une planète. Toutefois, la présence des deux étoiles a légèrement compliqué la donne. Il a donc été déduit qu’une des étoiles orbitait autour de l’autre, comme Kepler 16b.

Cette planète a momentanément enflammé la Toile au moment de sa découverte car elle rappelle la planète Tatooine du film « La Guerre des Etoiles ». Mais contrairement à Tatooine, qui est habitée dans la célèbre saga, Kepler 16b est une planète froide et gazeuse, approximativement de la taille de Saturne.

Voici deux vidéos réalisées par un artiste, montrant comment Kepler orbite autour de ses deux soleils, ainsi qu’un court extrait de « La Guerre des Étoiles » se déroulant sur Tatooine :

 

 

Une tête robot mélomane :

Comme il est dit dans la vidéo qui suit, cette tête robot n’a peut-être pas la meilleure des voix (ni le physique le plus rassurant), mais elle a bien d’autres atouts dans son sac. Capable de photographier une partition qui lui est présentée, un algorithme vient prendre la relève pour déterminer le rythme, la hauteur des notes ainsi que les paroles qui sont ensuite transmises au synthétiseur vocal permettant au robot de chanter les bonnes paroles – en mandarin – avec les bonnes notes, au bon rythme de la partition. Son programme commande aussi un système de moteurs permettant de synchroniser les mouvements des lèvres avec la voix synthétique. Ayant la faculté de reconnaître les visages, ce robot pourrait – selon la vidéo, mais on en doute pour l’instant – remplacer un réceptionniste dans un restaurant. Saluons le travail effectué, même s’il reste tout de même du chemin à parcourir pour rendre l’interaction moins effrayante…

Vidéo en timelapse prise depuis l’ISS :

Voici une magnifique vidéo qui pourrait se passer de tout commentaire : prise depuis l’avant de la Station Spatiale Internationale alors qu’elle orbitait autour de la Terre, cette vidéo en timelapse (en accéléré) nous fait partir en pleine nuit au dessus de l’océan Pacifique, pour continuer au-dessus de l’Amérique et enfin s’achever avec le lever du jour en Antarctique. Notez les très impressionnants orages sur tout le parcours de la station :

Aurore australe observée depuis l’ISS :

En supplément de la vidéo précédente, voici un film qui a été construit à partir de photos prises depuis la Station Spatiale Internationale, le 17 septembre dernier, alors qu’une superbe aurore australe pouvait être observée au dessus de l’océan Indien, de l’Australie jusqu’au sud de Madagascar. La couleur des aurores dépend des éléments chimiques impliqués, ainsi que de l’altitude à laquelle l’aurore se produit. Lorsque l’aurore prend une coloration rouge à haute altitude et une couleur verte plus proche de la Terre, ce sont les atomes d’oxygène présents dans l’atmosphère qui sont excités par le vent solaire.

On remarque aussi que lorsque l’aurore australe n’est plus visible directement, la luminosité et la couleur persistent, résultats d’un phénomène appelé « airglow » qui provoque cette rémanence.

iCub, le robot candidat pour porter la flamme olympique :

C’est l’université d’Aberystwyth, au Pays de Galles, qui a annoncé en premier la nouvelle : iCub, le robot sur lequel les scientifiques gallois travaillent depuis quelques années et conçu par le consortium RobotCub, sera candidat pour porter la flamme olympique lors des Jeux Olympiques de Londres l’année prochaine, afin de commémorer le centième anniversaire de la naissance du fondateur et pionnier de la science informatique, le britannique Alan Turing.

Icub mesure un peu plus d’un mètre pour 22 kilos, tout en ayant les mensurations d’un enfant de trois ans et demi. Il profite de traits humains ainsi que de propriétés très complexes d’apprentissage et d’adaptation à son environnement, tout comme un enfant.

Jetez un coup d’oeil aux trois vidéos suivantes : une dans laquelle il rampe, l’autre dans laquelle il essaie de « jouer » avec deux balles, et enfin la dernière dans laquelle il fait ce qui ressemble à des mouvements de gymnastique :

Un pas de géant vers la mise en image de nos rêves ?

La vidéo suivante touche de près à la science-fiction : les chercheurs du laboratoire Gallant, attaché à l’université de Berkeley, en Californie, ont réussi à reconstruire des images vidéo vues par un cobaye, à l’aide de l’analyse de son activité cérébrale.

Pour ce faire, ils ont enregistré l’activité cérébrale du cobaye alors qu’il regardait de nombreuses heures de bandes-annonces. Les chercheurs ont ensuite élaboré à partir de ces données un « dictionnaire » (un modèle à régression linéaire, souvent utilisé pour les analyses de prédiction) permettant des équivalences entre les formes, les bords, les mouvements et l’activité cérébrale, ainsi qu’un dictionnaire séparé recensant les différents endroits où l’activité est mesurée. Ils ont ensuite testé la qualité des dictionnaires sur une nouvelle série de bandes-annonces et construit une bibliothèque à l’aide de vidéos choisies aléatoirement sur Youtube, – n’ayant pas de lien avec les bandes-annonces précédentes –. Ils les ont ensuite passé par le filtre des dictionnaires, afin de générer les prédictions de l’activité cérébrale. Les cent extraits dont la prédiction sur l’activité cérébrale et l’activité réellement observée est la plus proche sont alors utilisés sous forme de moyenne pour la reconstruction.

Vous pouvez observer que la reconstruction est loin d’être parfaite, mais certaines des images sont tout de même bluffantes. L’équivalent d’un pas de géant vers la reconstruction et la mise en image… de nos propres rêves.

Le gadget (inutile ?) de la semaine : le « simulateur » de french kiss :

Pour conclure la revue du Web #9, voici une vidéo qui laisse bouche bée : il y est présenté un appareil permettant non seulement de s’entraîner à embrasser avec la langue (à l’aide d’une paille motorisée tournante et incurvée…), mais aussi et surtout de transmettre tous les mouvements effectués sur l’un des deux boitiers, connectés entre eux et reproduisant les mouvements de l’un ou de l’autre des embrasseurs, mais à l’envers. En prenant la paille motorisée dans la bouche, vous pouvez vous laisser guider par les mouvements de votre « partenaire » se trouvant à une grande distance de vous. Ah non, ce sera toujours une paille en plastique… Voyez plutôt :

Le nouveau Blue Screen of Death de Windows 8 :

En bonus, voici la photo du tout nouveau Blue Screen of Death (BsoD) de Windows 8. Le BSoD, écran craint par les utilisateurs car synonyme du plantage de votre système, se voit relooké de manière moins aride – disparition du texte rédhibitoire et trop long, pour un texte court et « explicatif » – et se voit même accompagné d’un smiley (triste, mais smiley tout de même), probablement censé rendre l’écran moins effrayant pour les utilisateurs standards. Initialement prévu pour être un « Black Screen of Death », c’est pourtant bien celui-ci qui a été présenté à la conférence Build de Microsoft, qui s’est tenu à Anaheim, en Californie, du 13 au 16 septembre dernier.

Par Rahman Moonzur

 

À lire aussi :

Revue du Web #8 : les vidéos de la semaine

Revue du Web#7 : les vidéos de la semaine

Revue du Web#6 : les vidéos de la semaine

Revue du Web #5 : les vidéos de la semaine

NI LabVIEW fête ses 25 ans avec une nouvelle version !

Comme chaque année lors de son événement mondial NIWeek, National Instruments a dévoilé, en août dernier, la nouvelle version de son logiciel de conception graphique : NI LabVIEW 2011. Et comme toujours, les développeurs de NI ont fait en sorte d’augmenter l’efficacité de développement au travers de bibliothèques spécifiques à l’ingénierie, ainsi que sa capacité à interagir avec quasiment n’importe quel matériel ou cible de déploiement, y compris le contrôleur multicœur de la plate-forme NI CompactRIO et l’analyseur de signaux vectoriel RF PXI le plus performant de l’industrie, tous deux introduits également lors de NIWeek.

LabVIEW 2011 se distingue par 13 caractéristiques découlant des retours d’information des utilisateurs, et par des gains de productivité significatifs dans une grande variété de tâches, grâce aux atouts suivants :

  • développement rapide d’interfaces utilisateurs plus modernes, avec unenouvelle palette de commandeset d’indicateurs ;
  • réutilisation du code avec le support des assemblys de .NET, des structures .m et des nouvelles IP de Xilinx pour le Module LabVIEW FPGA ;
  • division par cinq du temps nécessaire au chargement, à la liaison, à l’édition et à la compilation du code FPGA ;
  • construction et distribution par programme d’exécutables sur cibles ;
  • génération de threads asynchrones pour créer plus vite des applications multithreads avec une nouvelle API de communication.

Au-delà de ses améliorations, NI s’est donné les moyens, plus que jamais, de renforcer la stabilité de son logiciel, afin notamment de répondre aux exigences de fiabilité des applications les plus critiques, notamment dans les domaines du test automatique, de la surveillance de structures, des dispositifs médicaux, de la robotique et la mécatronique, de la physique atomique et de l’avionique. C’est ainsi que la version Beta, testée par les utilisateurs, s’est soldée par un nombre retourné de bugs qui n’a jamais été aussi faible.

 

Pour en savoir davantage, visitez www.ni.com/labview/f.

Mesurer l’« écoconduite » pour payer son essence moins cher

L’idée de Logica n’est pas nouvelle. En 2010, le groupe développe des capteurs visant à évaluer le style de conduite des automobilistes. Après coup, les automobilistes étant catalogués comme ayant une conduite souple, n’accélérant pas trop de façon abrupte… sont considérés comme des « écoconducteurs », et à ce titre ils bénéficient de prix avantageux lors de leurs arrêts à la pompe.

Lors du lancement de ce capteur intelligent, Logica promettait :

  • De 15 à 18 % de baisse de consommation sont promis grâce à cette technologie. En attendant, la pratique de l’écoconduite permet déjà de réaliser une économie de 10 à 15 % de carburant.
  • De 15 à 18 % de baisse de consommation sont promis grâce à cette technologie. En attendant, la pratique de l’écoconduite permet déjà de réaliser une économie de 10 à 15 % de carburant.

Evidemment, l’idée de base est d’inciter les conducteurs à mieux gérer leur véhicule pour limiter les rejets de gaz à effet de serre dans l’atmosphère. Le principe est en effet assez simple : le conducteur qui adopterait une conduite souple et moins énergivore se verrait récompensé en arrivant à la pompe via une ristourne sur le prix de son carburant. L’idée vient de la société de services Logica, qui a développé un système dûment breveté, baptisé EMO, présenté la semaine dernière à Paris. Sa genèse est assez classique et révélatrice du parcours de l’innovation dans bien des entreprises. « Un ingénieur trouvait stupide d’avoir à passer au garage pour faire réviser sa voiture et imaginait qu’il serait possible de le faire à distance en transmettant certains paramètres », se rappelle GBS Bindra, directeur international de l’innovation chez Logica. Jugé intéressant, le concept a été et mis à l’étude. Avec une question principale : comment créer de la valeur ? « L’idée a alors surgi de faire le lien avec le prix de l’énergie, précise GBS Bindra. Pour entrer dans une société moins dépendante des sources d’énergie à base de carbone, il faut créer un nouveau modèle économique. Et le seul qui puisse vraiment marcher, c’est de récompenser économiquement le fait d’être vert. »

Les ingénieurs se sont alors mis au travail et ont développé un prototype. Le composant central et essentiel consiste en un capteur (« on board unit ») qui se connecte sur le boîtier électronique de contrôle du moteur (« engine control unit »). Il enregistre en temps réel les données liées à la conduite et aux émissions de polluants et de gaz à effet de serre. A l’arrivée dans la station-service, au moment de faire le plein, le capteur aura repéré les accélérations excessives ou les freinages brutaux et calculé une moyenne de la performance du conducteur depuis son précédent passage à la pompe. Il communiquera alors par radio les données à la pompe à essence. Cette dernière se connectera immédiatement, via le réseau téléphonique GSM, à un ordinateur central, qui en retour indiquera un prix de carburant calculé en fonction de la performance du conducteur.

Une technologie prometteuse

Bertrand-Olivier Ducreux, ingénieur au département transport et mobilité de l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) et spécialiste de l’écoconduite, est intéressé mais tout de même sceptique sur les performances annoncées : « Je ne suis pas convaincu qu’un seul périphérique puisse apporter autant de résultats que Logica le prétend. Quand nous faisons ce type de mesures, le coffre de la voiture est plein d’appareillages. » Un tel système, aujourd’hui testé dans les rues de Bangalore avec une dizaine de véhicules, est-il envisageable à grande échelle, notamment en France, où l’on a bien du mal à promouvoir l’écoconduite ? « Si cela concerne les compagnies pétrolières, voire les compagnies d’assurances, cela peut d’abord intéresser les gouvernements. Rappelons que, dans la plupart des pays, le prix du carburant est composé à 70 % de taxes », insiste GBS Bindra.

De fait, l’idée interpelle les spécialistes. « On pourrait imaginer un constructeur automobile qui, avec l’achat d’une voiture ainsi équipée, vous donnerait des cours d’écoconduite. On pourrait aussi imaginer que cela intéresse certains pétroliers qui, grâce à une baisse de la consommation de carburant, gagneraient des certificats d’émission », explique Alain Besançon, chargé de mission transport et mobilité pour l’Ademe en Aquitaine.

Bertrand-Olivier Ducreux est plus dubitatif : « Les promoteurs du système promettent de 15 à 18 % de baisse de consommation. Cela me laisse perplexe, puisqu’il est démontré qu’en pratiquant l’écoconduite vous gagnez déjà de 10 % à 15 % de carburant. Avant l’instrumentation, il est à notre sens plus judicieux de mettre l’accent sur la formation pour bien montrer que non seulement l’écoconduite n’engendre pas de perte de temps, mais qu’il s’agit d’une nouvelle compétence et d’une meilleure utilisation du véhicule. » Autre souci, le prix. Logica estime le coût d’un tel capteur à environ 60 euros. « Le prix baisserait très rapidement dès lors qu’il serait fabriqué en série et en volume », assure GBS Bindra.

La technologie semble pourtant porteuse de promesses, reconnaît Bertrand-Olivier Ducreux : « Le suivi de la consommation et de l’émission de polluants grâce à l’instrumentation est dans l’air du temps. Les systèmes en développement aujourd’hui permettent d’envisager de l’aide au conducteur en fournissant des informations en temps réel. On peut aussi envisager de comparer les performances avec d’autres automobilistes. »

Sources : Les échos, ademe

Les capteurs, le défi de la mécatronique du futur

Je veux bien entendu parler des capteurs.

Que ce soit pour surveiller, analyser ou contrôler un process, la collecte des informations se fait par le biais de capteurs. Les exigences grandissantes en ce qui concerne leur précision, leur miniaturisation, leur consommation d’énergie ainsi que leur coût en font l’objet d’une attention toute particulière, dans la recherche notamment.

Ainsi, les grandes tendances dans ce domaine portent entre autres sur le développement de capteurs sans fil, destinés par exemple à équiper les systèmes en rotation (capteur de pression dans un pneumatique par exemple). L’énergie nécessaire à leur alimentation est apportée à l’aide d’une onde électromagnétique, qui permet par la même occasion le flux des informations recueillies par le capteur. Du pain béni pour le développement de systèmes mécatroniques pour l’automobile.

La miniaturisation est également une problématique phare que rencontrent les chercheurs et industriels. En effet, le nombre croissant des appareils nomades, la nécessité d’un encombrement et d’un poids minimum, ainsi que la course à la sobriété énergétique font de la taille des capteurs un enjeu majeur.  Ainsi VTI Technologies présenta lors du salon Electronica 2011 de Munich le plus petit capteur numérique gyroscopique triaxial au monde (3,1×4,2×0,8 mm), qui s’avère être également le moins gourmand (consommation électrique de 5 mA). Il peut ainsi équiper sans encombre les smartphones dernier cri.

En outre, tout comme la mécatronique, les nouveautés en matière de capteurs semblent naître de la pluridisciplinarité. Ainsi, le capteur de demain semble tirer sa force de plusieurs disciplines complémentaires, notamment dans le domaine médical, où médecins, physiciens, opticiens, informaticiens et ingénieurs mettent en œuvre leur connaissance pour développer des biocapteurs, capables d’être implantés directement à l’intérieur du corps humain pour détecter des cellules cancéreuses.

Source : Abmecatronique.com

Compteurs intelligents : des risques de piratage informatique

On sait par expérience que les réseaux apparemment les mieux sécurisés ont des failles qui sont autant de points d’entrée pour des hackers à la recherche d’un « exploit ». Le scénario d’une attaque visant à couper l’alimentation électrique d’un pays entier relève-t’il de la science-fiction ?

Sécurité ou pas ?

Lors d’une conférence de mars 2009 sur les nouveaux compteurs d’énergie électrique, le chargé de la conduite expérimentale sur la région lyonnaise des compteurs Linky semblait balayer l’éventualité d’une intrusion d’un revers de main, estimant que les sécurités du système le mettaient à l’abri de tels risques : « Concernant le piratage, effectivement c’est un système informatique, et comme tout système informatique, il est soumis à des aléas, comme les systèmes actuels peuvent être soumis à des attaques. On utilise des systèmes de cryptage et de protection qui aujourd’hui nous permettent d’éviter tout piratage important en la matière. Et les systèmes d’exploitation qui sont en cours de développement répondront bien évidemment au même souci de protection de nos installations. Nous sommes extrêmement attentifs à ce que bien évidemment des intrusions n’interviennent pas sur l’ensemble de nos systèmes informatiques. »

Une étude menée par deux chercheurs de Cambridge, spécialistes de la sécurité informatique, Ross Anderson et Shailendra Fuloria, montre au contraire que tout réseau de communication et d’information peut faire l’objet d’intrusions plus ou moins malveillantes, et les compteurs intelligents envoient des données précises, mais peuvent aussi recevoir des ordres à distance : « Du point de vue de l’attaquant – gouvernement hostile, organisation terroriste ou de protection de l’environnement –, le meilleur moyen de s’attaquer à un pays est de lui couper l’électricité. C’est l’équivalent, cyber, d’une attaque nucléaire : quand il n’y a plus d’électricité, tout s’arrête. »

En effet, les systèmes SCADA (Supervisery control and data acquisition, en français « supervision, contrôle et acquisition des données »), parmi lesquels figurent les compteurs intelligents comme Linky, sont considérés par les spécialistes de la sécurité informatique comme des « maillons faibles », les plus sensibles au piratage informatique. De nombreuses études faites sur le sujet démontraient l’importance des conséquences, que ce soit pour utiliser des données ou pour prendre le contrôle de systèmes informatiques.

( Source image : internetactu)

Des incidents sont déjà arrivés

Ainsi le projet américain Aurora (2007) démontrait qu’un piratage pouvait entrainer l’autodestruction d’un générateur électrique. En 2008, le Club de la Sécurité de l’Information Français (CLUSIF) relevait toute une série d’accidents ou de malveillances comme l’introduction de vers informatiques dans des systèmes :

 

  •   2003 : ver Slammer et site nucléaire (Ohio)
  •   2003 : ver Nachi et réseau DAB (billetterie) Diebold
  •   2005 : ver Zotob, arrêt de 13 usines d’assemblages de véhicules
  •   2007 : erreur de commande et contamination accidentelle (hydroxyde de sodium) des eaux de ville, dizaines de victimes, blessures légères (Michigan)
  •   2007 : prise de contrôle et perturbation des feux de signalisation
  •   2008 : prise de contrôle [d’un train] et déraillement de 4 wagons (Pologne)

Un autre spécialiste de la sécurité SCADA, Jonathan Pollet, a expliqué qu’en une centaine d’audits sur 10 ans, il avait identifié 38 000 problème de sécurité : « les systèmes SCADA sont bien moins sécurisés que les systèmes informatiques ». Notamment la présence sur les ordinateurs de programmes inutiles mais qui pouvaient servir de vecteurs d’attaques : « Ce n’est qu’une question de temps : d’ici peu, nous assisterons à bien plus d’attaques ou d’incidents sur des réseaux SCADA du fait de l’absence de mesures de sécurité, ou de systèmes de défense mal configurés. Il faut nommer des responsables sécurité de ces systèmes. C’est une bombe à retardement. »

La société IO Active, dans une étude sur la sécurisation des réseaux intelligents, relève quant à elle dix risques : outre les atteintes à la vie privées déjà évoquées, l’usurpation d’identité, la surveillance, l’espionnage ou la malveillance en font partie, mais aussi le simple bug informatique  et tous les problèmes inhérents à tout système informatique de réseau.

Des risques de fuites ou de prises de contrôle

Les chercheurs de Cambridge attirent aussi l’attention sur les risques de coupure massive d’électricité, pris insuffisamment en compte par les fournisseurs. Ainsi la Grande-Bretagne a décidé de centraliser toutes les données transmises par les compteurs intelligents avant qu’elles ne soient ensuite renvoyées aux distributeurs. Cela ouvre la voie selon eux au pire scénario en cas de bug ou de piratage.

Un autre chercheur sur les failles de la sécurité informatique, Karsten Nohl, fait une remarque inquiétante : « D’un point de vue matériel, les téléphones portables sont aujourd’hui bien plus sécurisés que la plupart des compteurs intelligents, (alors) qu’ils devraient bénéficier des meilleurs systèmes de protection disponibles. (…) Nous n’avons trouvé aucune des mesures de sécurité que nous serions en droit d’espérer dans un dispositif de ce type, relié à une telle infrastructure critique. »

Les composants physiques n’étant pas protégés, on peut les modifier, tout comme on peut modifier la consommation, et la réduire sérieusement par exemple. Il est ainsi parvenu à « planter » et à redémarrer un compteur intelligent. Comme ils sont tous reliés à un réseau, on imagine facilement qu’en cas de piratage, des réactions en chaîne entraineraient une paralysie totale du système.

Des technologies permettant une meilleure sécurité existent, mais elles représentent un surcoût important pour les fournisseurs et « un marché à fort potentiel » pour les industriels, d’où le fait qu’en Europe notamment, chacun défende ses propres intérêts. On sait d’autre part que le financement des coûts du déploiement des compteurs est d’ores et déjà un sujet épineux en France, si ERDF doit encore revoir le système de sécurité, la facture risque encore d’augmenter. Et l’encre n’a pas fini de couler…
 

Claudine / blog EcoCO2

 

À lire aussi :

Vers un réseau électrique intelligent international

Les compteurs de gaz vont être plus intelligents

Malte, une île branchée… au compteur intelligent

Le compteur Linky généralisé à partir de 2013

Le compteur communicant est conçu pour remonter les index des compteurs vers les fournisseurs d’énergie : charge à eux ensuite de restituer cette information à leurs clients. Certes le nouveau compteur permet d’afficher cet index mais rappelons, d’une part, qu’une fois sur deux le compteur est invisible car placé dans un coffret en limite de propriété, et que, d’autre part, son affichage ne diffère que très peu de celui des compteurs électroniques actuels.

Le débat autour du déploiement du compteur Linky tourne autour de son faible potentiel à générer des économies d’énergie pour le consommateur. On sait que la surveillance de la consommation au jour le jour peut effectivement amener l’usager à limiter de lui-même sa consommation. Mais, ça, on peut déjà le faire avec un vieux compteur électro-mécanique : il suffit pour cela de relever son compteur chaque jour à heure fixe. Sauf que ce n’est pas particulièrement pratique et que peu résistent à la corvée de descendre à la cave chaque jour à la même heure ou de grimper sur son escabeau ou encore de sortir par tous les temps et de se battre avec la porte  du compteur juste pour relever sa consommation quotidienne !

Le compteur Linky, intelligent autant que communicant, offre donc l’avantage de pouvoir rendre cette consommation consultable à distance : sur un site Internet par exemple ou sur un joli boitier (l’esthétique est avant tout affaire de goût) posé dans un endroit bien visible du logement. Mais pas gratuitement. EDF Bleu Ciel vient de proposer à une partie des 250 000 abonnés équipés de Linky à Lyon ou en Touraine l’expérimentation de ce service, sur Internet uniquement, contre… une modeste contribution mensuelle de l’ordre de 3,50 €. Pour ce prix, on a le droit à une visualisation de sa consommation journalière, de son budget et des émissions de CO2 dont on est directement responsable par sa consommation.

Donc, pour alléger (peut-être) sa facture, il faut commencer par l’alourdir. C’est le paradoxe autour duquel tourne depuis un moment les équipes marketing des fournisseurs d’énergie. Le Parisien s’est livré à un calcul plein d’enseignement. On sait que l’équipement du compteur lui-même coûtera le double de ce qui était d’abord annoncé, soit 8 millions d’euros (au lieu de 4), financés, directement ou indirectement,  en grande partie par l’usager à hauteur de 240 € en moyenne sur sa facture, répartis heureusement sur une dizaine d’années à raison de 1 à 2 € par mois (donc 12 à 24 € pour un an). EDF propose son service Internet contre 3,50 € par mois, soit 42 € sur l’année. 42 + 12  = 54 €  ou 42 + 24 = 66 €, voilà donc ce qu’il faudra débourser pour pouvoir commencer à faire des économies.

D’autre part, la facture moyenne étant de 400 € annuels par foyer, si on compte entre 10 et 15 % d’économie d’électricité, on peut au maximum diminuer sa facture de 50 €, toujours en moyenne. Autrement dit, pour économiser 50 €, il faut en dépenser jusqu’à 16 de plus. Ou dit autrement ce service n’intéressera que les clients ayant une facture au moins double du coût du service, soit environ un quart des clients.

Le ministère de l’énergie affirme que ce nouveau compteur est totalement gratuit pour les abonnés, et que ce nouveau service est complémentaire, mais facultatif. Mais Jean-Marc Proust, le responsable de la communication de la FNCCR, la Fédération Nationale des Collectivités Concédantes et Régies, a quant à lui précisé : « EDF a admis que Linky coûterait bien au consommateur entre 1 et 2 € par mois pendant dix ans, soit entre 120 et 240 € au total. »

De son côté, le secrétaire d’Etat à la Consommation, Frédéric Lefebvre, interrogé par Canal + a déclaré : « Je n’aime pas si les compteurs intelligents ne rapportent pas au consommateur. C’est l’objectif de ces compteurs. »

Ce qui sera le cas si l’on ne peut s’offrir le service payant que propose EDF, ce qui est de toute façon le cas des foyers en situation de précarité énergétique (et/ou si l’on n’est pas équipé d’Internet, ce qui est encore le cas, il ne faut pas l’oublier, d’une partie de la population).  Les services qu’offriront les fournisseurs en complément du compteur Linky risquent donc d’être réservés à une élite…

 

Claudine / blog EcoCO2

 

À lire aussi :

Vers un réseau électrique intelligent international

Les compteurs de gaz vont être plus intelligents

Malte, une île branchée… au compteur intelligent

Attention, Google s’intéresse au comptage intelligent !

Introduction à la mécatronique

La mécatronique est issue de l’intégration de technologies provenant de la mécanique, de l’électronique, de l’automatique et de l’informatique dans la conception et la fabrication d’un produit en vue d’augmenter et/ou d’optimiser sa fonctionnalité. Il ne s’agit ni d’une science, ni d’une technologie mais d’une démarche d’intégration de technologies en synergie.

Historiquement, cette démarche s’est imposée d’abord sur les automatismes qui ont eu besoin de recourir aux technologies de l’électronique, puis, avec l’arrivée de l’informatique, des microprocesseurs et de la technologie internet, de nouveaux produits sont apparus et les possibilités des produits existants, qui ont intégré ces technologies, ont été décuplées.

La mécatronique, qui s’est d’abord imposée dans l’aéronautique, s’est ensuite largement diffusée dans l’automobile puis a progressivement envahi les produits de l’industrie mécanique. Toutefois, la démarche d’intégration et les méthodes de conception et de simulation associées n’en sont qu’à leurs débuts tout comme les possibilités offertes par l’ensemble des technologies ainsi fusionnées.

 

Lire la suite

Un analyseur énergétique, lauréat du prix « Fibre de l’Innovation 2011 »

Opticsvalley, qui fédère la communauté des technologies optique, électronique et logicielle (entreprises, établissements d’enseignement supérieur, laboratoires de recherche, et entités publiques et privées qui soutiennent l’innovation et le développement économique) en Ile-de-France, vient de décerner, pour la troisième fois, son prix « Fibre de l’Innovation ». Cette année, dans le cadre de la manifestation « De l’innovation à l’emploi industriel – Un défi pour l’Ile-de-France », a été couronné, dans la catégorie Industrie, Robert Lacoste d’Alcion, cabinet d’expertise et d’études amont en électronique, spécialisé dans les signaux mixtes, pour son analyseur énergétique Powerspy.

Plus qu’un énergimètre classique, le Powerspy mesure très finement la consommation énergétique de tout appareil électronique, en particulier en mode de veille, alors que la puissance n’est que de quelques dizaines de milliwatt. Avec plus de 30 paramètres mesurés, il permet de visualiser en temps réel et d’analyser les courbes de tension, courant et puissance (pics, mesures RMS, facteur de puissance, analyse harmonique et THD…). Des informations qui permettent aux concepteurs d’identifier et de réduire les sources de surconsommations de leurs produits : validations de produits, certifications EuP (Energy using Products), optimisation d’alimentations à découpage, éducation…

Destiné également aux organismes de certification, aux centrales d’achat, à l’éducation, le Powerspy doit ses fonctionnalités à son architecture brevetée, constituée d’un boîtier d’acquisition haute performance transmettant en temps réel les données de mesure à un ordinateur standard doté d’un logiciel d’analyse. Sa liaison Bluetooth garantit une utilisation en toute sécurité et offre une isolation galvanique parfaite.

« Maintes fois, nous avons fait appel à Alciom pour des développements de projets spécifiques. Nous avons aussi fait l’acquisition du Powerspy. C’est un équipement très simple d’emploi, qui nous permet de faire des diagnostics de consommation de manière rapide et pertinente », déclare Philippe Matillon, directeur Innovation et Architecture Services chez Bouygues Télécom.

 

 

Un capteur de pression qui s’étire, qui s’étire…

Imaginons un instant le scénario suivant : un conducteur perd le contrôle de sa voiture, qui termine sa course sur un poteau. Le passager s’était auparavant penché pour ramasser quelque chose sur le sol de la voiture. Les airbags se déploient correctement, protégeant le conducteur, mais blessant le passager, car trop en avant. Il y a un moyen de se prémunir contre un tel incident.

Des chercheurs de l’Institut Fraunhofer de Recherche en Silicate ont développé un capteur de pression ayant la capacité de se déformer, s’étirer jusqu’à atteindre deux fois sa taille. Ces capteurs pourraient être intégrés à un siège de voiture, afin de déterminer la position exacte de la personne assise, qu’elle se penche ou soit assise bien au fond du siège. Cela permettrait de diminuer la puissance de sortie de l’airbag, en cas d’accident et si la personne n’est pas installée correctement.

Les chercheurs avancent que la flexibilité de ces capteurs en élastomères et diélectriques multiplient les possibilités d’applications. Ils sont suffisamment souples pour pouvoir être intégrés à un vêtement, ou à une tenue sportive, laissant entrevoir une analyse des mouvements des athlètes très précise, optimisant leur entrainement.

Jauge de contrainte

Ces capteurs fonctionnent comme une jauge de contrainte, en mesurant la déformation en surface afin de connaître le niveau de contrainte. La péllicule de polymère élastomèrique et extensible est recouverte des deux côtés par des électrodes flexibles. En contrôlant le degré de liaisons chimiques dans le film élastomère, les chercheurs sont capables de concevoir ces capteurs pour différentes applications.

Ils peuvent par exemple être intégrés au sol d’une usine, pour indiquer une zone sensible à l’approche d’une machine dangereuse. Les chercheurs feront la démonstration de leur capteur au Salon Sensor+Test se tenant à Nuremberg, en Allemagne, du 7 au 9 juin prochain.

Par Rahman Moonzur

Caractérisation d’un gaz confiné à l’aide d’un capteur acoustique – Application aux crayons combustibles nucléaires

La consommation d’électricité dans le monde ne cesse de croître. En France, environ 80 % de l’électricité est produite à partir de l’énergie nucléaire. Dans les centrales, le combustible nucléaire est conditionné dans des tubes hermétiques, les crayons combustibles. En confinant les éléments radioactifs, les crayons constituent la première barrière biologique vis-à-vis de l’environnement.

Au fur et à mesure de son activité de désintégration, après plusieurs cycles en centrale, l’uranium produit dans le tube qui le contient des gaz, essentiellement de l’hélium et du xénon. Un meilleur suivi du relâchement (mesure de la pression et de la composition) des gaz de fission pourrait permettre une optimisation de la durée d’utilisation des crayons en centrale.

À ce jour, les seuls contrôles effectués sont destructifs : les crayons sont extraits des centrales, puis percés et les gaz analysés. Une mesure non destructive in situ des propriétés de ces gaz constituerait une avancée considérable dans le contrôle de la gestion des centrales.

 

Lire la suite