Innovation : les entreprises françaises et allemandes à front renversé

En 1996, les entreprises françaises consacraient 1,69 % de leur valeur ajoutée à des projets de recherche et développement, contre 1,65 % pour leurs homologues allemandes.

12 ans plus tard, la tendance s’est inversée : les investissements des entreprises tricolores ont cédé du terrain (1,47%), pendant que leurs voisines d’Outre Rhin ont redoublé d’efforts, avec 2,11% de leur valeur ajoutée affectée à la R&D.

Comment expliquer ce contraste ? Une étude publiée ce mois-ci par la direction générale de la compétitivité, de l’industrie et des services (DGCIS), qui dépend de Bercy, tente de cerner les causes du reflux français.

La France a « un positionnement sectoriel pénalisant »

Premier constat, l’Hexagone n’est pas un si mauvais élève. Quand elles investissent dans les secteurs stratégiques, les entreprises françaises le font dans des proportions substantielles. Dans les TIC, le transport et les machines électriques, elles consacrent même des parts plus importantes de leur valeur ajoutée à la R&D que leurs voisines allemandes.

Problème, leur surplus d’effort financier ne suffit pas à compenser la faible part de la France dans les secteurs-clés de la R&D, qui ne représentent plus que 4,5% du PIB français, contre 10% Outre-Rhin… « La France souffre d’un positionnement sectoriel de son économie pénalisant son intensité globale de R&D », note l’étude, évoquant même un « désengagement de l’industrie » dans l’économie nationale, au profit des services, moins pourvoyeurs de recherche et développement.

Succès des entreprises de taille intermédiaire en Allemagne

La structure des entreprises explique également cette différence avec l’Allemagne. Là encore, la France sauve l’honneur, car ses entreprises sont plus nombreuses à investir dans la R&D. La DGCIS en a recensé 250 000 en 2006, contre 200 000 en Allemagne. Le détail des chiffres montre que les PME françaises investissent d’ailleurs plus que leurs concurrentes d’Outre-Rhin.

Mais un décrochage opère pour les entreprises de taille intermédiaire, plus nombreuses en Allemagne. Les entreprises de plus de 1000 salariés ne représentent que 73% de l’intensité totale de R&D en France, souligne l’étude contre 82% en Allemagne. Un paysage économique qui conditionne également la force de frappe financière du secteur privé : les entreprises allemandes sont ainsi parvenues à investir 36 milliards d’euros dans la R&D en 2006, contre 14 milliards en France…

L’auteur anticipe enfin des conséquences commerciales défavorables pour l’Hexagone, car les entreprises de taille intermédiaire parviendraient plus facilement à introduire leurs produits innovants sur le marché que les petites PME.

Par Marie Herbet / Euractiv.fr
 

Le plus petit laser à semi-conducteur au monde

La miniaturisation des lasers à semi-conducteurs mobilise de très nombreux chercheurs à travers le monde : elle semble en effet être l’une des nombreuses clefs permettant d’accéder à un univers de technologies photoniques plus rapides, plus petites et moins gourmandes en énergie. En première ligne, viennent les processeurs informatiques ultrarapides, les biocapteurs à haute sensibilité impliqués dans la détection, le traitement et l’étude des maladies, ainsi que la future génération des technologies de communication.

De tels appareils photoniques pourraient utiliser les nano-lasers pour générer des signaux optiques – et transmettre de l’information – et avoir ainsi le potentiel pour remplacer nos bons vieux circuits électroniques. Mais leur taille, ainsi que leur performance, ont longtemps été restreintes par la limite de diffraction tridimensionnelle.

Laser à semi-conducteur

Dans un article publié dans la célèbre revue américaine, Science, daté de cette semaine, un groupe de chercheurs de l’université du Texas, à Austin, épaulés par leurs confrères taïwanais et chinois, sont parvenus à développer un laser à semi-conducteur, présenté comme étant le plus petit au monde. Contrairement à un laser traditionnel, le milieu excité par le passage d’un courant électrique est ici constitué d’un semi-conducteur. Ne nécessitant pas de cavité optique, le résultat est alors un laser très compact, utilisé aussi bien dans les lecteurs de DVD que dans les pointeurs, utilisés encore comme excitateurs dans les lasers à impulsions ultracourtes.

« Le nanolaser que nous avons développé fait fi de la limite de diffraction tridimensionnelle », explique Chih-Kang « Ken » Shih, professeur de physique à l’université du Texas et responsable du projet. « Nous pensons que cette découverte peut avoir un large impact sur les nanotechnologies » ajoute-t-elle.

Lisse au niveau atomique

Le laser, émettant une lumière verdâtre, est composé de nitrure de gallium, un semi-conducteur à large bande interdite, partiellement couplé et « rempli » par un nitrure similaire, le nitrure de gallium indium, tout deux utilisés dans la fabrication des DEL. La nanotige ainsi formée est placée au dessus d’une fine couche isolante de silicone, elle-même couvrant un film d’argent, extrêmement lisse au niveau atomique.

C’est ce caractère lisse au niveau atomique qui conférerait au matériau ses qualités, permettant notamment de fabriquer des appareils photoniques ne perdant pas de plasmons, selon le professeur Shih qui aurait travaillé pendant une quinzaine d’années à perfectionner celui-ci. « Les structures atomiquement lisses sont fortement recommandées si l’on veut garder un faible niveau de perte d’informations », précise-t-elle encore.

Par Moonzur Rahman, journaliste scientifique

 

Grum, l’un des plus gros spammeurs mondiaux, a enfin été neutralisé

« Grum » : ce nom, comme son alias « Tedroo » a déjà fait pâlir plus d’un informaticien. Pourtant, Grum s’était immiscé dans la vie quotidienne de bon nombre d’entre nous. En effet, Grum est un botnet, responsable de pas moins de 18 % du spam généré quotidiennement sur l’ensemble du réseau mondial, soit la bagatelle de près dix-huit milliards de spams envoyés chaque jour. Pourtant, le botnet Grum serait maintenant de l’histoire ancienne : après plus de quatre ans d’activité, il aurait été démantelé grâce aux efforts combinés de FireEye, société américaine de sécurité fournissant une protection contre les malwares, et de SpamHaus, organisation internationale traquant les spammeurs compulsifs.

Qu’est-ce qu’un botnet ?

Botnet est la concaténation de « bot », contraction de « robot », et du mot anglais signifiant réseau, « net ». C’est un réseau de bots informatiques, agents logiciels automatiques ou semi-automatiques interagissant avec des serveurs informatiques, envoyant des demandes à celui-ci comme le ferait un humain à travers un programme-client.

A l’aide d’un réseau de machines dites « zombies », ordinateurs infectés dont l’utilisateur a perdu le contrôle sans même s’en douter – le plus souvent par le biais d’un « cheval de Troie » – le pirate combine la puissance de frappes de chacune des machines dans le but d’envoyer du courrier indésirable, casser un mot de passe, effectuer des attaques de type « déni de service », ainsi que pour des opérations de « phishing ». Un très grand nombre de machines seraient infectées à l’insu des propriétaires, selon de nombreux spécialistes. Plus le réseau est grand, plus la force d’attaque est grande.

Coordination de FireEye et de SpamHaus

Grum est l’un des plus vieux botnets qui était encore en activité. Il sévissait depuis 2008 et a même été le botnet le plus prolifique, avant de tomber sous les coups de l’attaque coordonnée par FireEye et SpamHaus. Grum ne possédait plus que deux serveurs « maîtres », l’un situé en Russie, l’autre au Panama, points faibles de l’ensemble du système : si les serveurs maîtres sont simultanément mis hors ligne, le botnet n’a pas de système de sauvegarde. Lorsque les autorités panaméennes ont  débranché le serveur sud-américain, le trafic fut redirigé vers de nouveau serveurs ukrainiens. Il aura alors suffi aux autorités russes et ukrainiennes de finir le travail, signant la mise à mort définitive de Grum.

La traque des botnets est longue et difficile. Un botnet viendra probablement prendre la place laissée vacante par Grum, sur les cendres encore chaudes d’un « acteur » historique d’internet.

Par Moonzur Rahman, journaliste scientifique

 

A lire aussi :

L’assaut des bots

La NASA cherche à reproduire l’odeur de l’espace

Lors des sorties spatiales, les combinaisons des astronautes s’imprégneraient de particules à haute énergie. L’odeur de ces particules, mélangée aux molécules d’air des cabines spatiales serait loin d’être agréable. Et ce n’est pas peu dire si l’on en croit les anciens astronautes, qui utilisent les expressions de « steak brûlé », « métal chaud » ou encore « fumée de soudage » pour la caractériser.

Si les témoignages sur le sujet varient, l’odeur demeure déplaisante. Mais à cela rien de vraiment surprenant, lorsqu’on sait que les astronautes n’ont pas le droit de se doucher et que l’air circule en circuit fermé.

Dans ce contexte, la NASA tenterait de reproduire l’odeur de la station spatiale afin de faciliter l’acclimatation des futurs astronautes. Le chimiste Steve Pearce, à qui l’on a confié cette recherche, travaille actuellement dessus en tenant compte des descriptions olfactives d’astronautes ayant déjà séjourné au sein de la station MIR.

Malheureusement pour lui, sa tâche est rendue plus difficile par la fantaisie des témoignages et le caractère souvent indéfinissable des odeurs perçues. Le spécialiste persiste néanmoins et poursuit toujours ses recherches.

Par Sébastien Tribot, journaliste

Le capitalisme d’héritiers

Très stimulant et percutant ouvrage. Son sous-titre est : « La crise française du travail ». Il part d’un constat inattendu, mais fortement documenté. Les sondages effectués à échelle internationale font ressortir régulièrement que les salariés français ont plus que d’autres le goût du travail et de l’effort ; en revanche, ces mêmes sondages témoignent d’un plaisir au travail au sein de l’entreprise et de relations professionnelles parmi les plus mauvaises d’entre les pays sondés.

On aime donc le travail, mais on n’aime pas travailler au sein des entreprises françaises. Quelles explications en donne l’auteur ? Certes, un syndicalisme peu renouvelé, paradoxalement impuissant, trop limité à la protestation. Mais surtout des relations hiérarchiques trop rigides, une promotion insuffisante des talents, une sélection trop étroite et élitiste des postes de responsabilité. Le coût économique en est très lourd.

 

Le capitalisme d’héritiers

Thomas Philippon

Coll. La République des idées, Seuil, 2007

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

Apple contre Samsung : la guerre des brevets

Apple a décidé de frapper fort. Alors que plusieurs procès ont déjà opposé Apple à Samsung sur la question de la copie et de la violation de brevets (dont une courte majorité remportée par la firme américaine), Samsung risque gros cette fois.

En effet, Apple lui réclame 2,5 milliards de dollars dénonçant le plagiat de son iPhone et de son iPad par Samsung. Il est vrai qu’au premier abord, les smartphones et tablettes Samsung de la série Galaxy (SII, SIII, Nexus, Tab) présentent de nombreuses ressemblances avec les produits d’Apple. Pour Alan Hely, directeur de la communication d’Apple Europe, « ce n’est pas une coïncidence si les derniers produits de Samsung ressemblent à l’iPhone et à l’iPad, de la forme de l’appareil à l’interface utilisateur, et même jusqu’au packaging. Ce genre de copie flagrante est injuste et nous devons protéger la propriété intellectuelle d’Apple quand des entreprises nous volent nos idées ».

Apple essaie de faire valoir que des brevets nécessaires au bon fonctionnement des réseaux de téléphonie, comme ceux relatifs à la 3G, sont des standards et que le détenteur doit permettre à la concurrence d’en faire usage. De son côté, Samsung renvoie la balle en accusant Apple d’être coupable de violation de ses propres brevets, notamment ceux liés aux réseaux 4G.

Une guerre des brevets jusqu’ici équilibrée, dont aucun des deux acteurs ne sort vainqueur. Néanmoins, le résultat du procès américain, s’il était en faveur du géant Apple, pourrait bien mettre Samsung dans l’embarras, même si de nombreux experts s’accordent à dire que contourner les brevets ne devrait pas être insurmontable…

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

Amazon s’attaque au marché des smartphones

La guerre des smartphones peut continuer avec l’arrivée du Samsung Galaxy S3

Mini iPad, rumeur ou réalité ?

La gestion des mails est chronophage

650 heures. C’est le temps passé chaque année par les américains à gérer leur messagerie (en ne comptant que deux semaines de congés). D’après l’enquête menée par le McKinsey Global Institute sur le comportement des américains au bureau, 28 % de la semaine est passée à répondre à des mails et 19 % à chercher des informations, ce qui représente 13 heures par semaine sur sa boîte mail !

Sachant en plus que les employés de bureau passent 14% de leur temps à collaborer et communiquer avec leurs collègues, l’Institut a finalement calculé que les employés ne passaient que 39 % de leur temps a vraiment travailler. Cela paraît peu…

Pour remédier à cela et réorienter les activités vers du travail effectif, l’Institut propose de raccourcir le temps « perdu » à gérer sa messagerie et à communiquer avec ses collègues. La solution ? Créer une sorte de Facebook interne. Sachant que les employés surfent sur les réseaux sociaux principalement sur leur lieu de travail et non à leur domicile, cela permettrait de canaliser l’essor des réseaux sociaux vers la communication professionnelle.

D’après le rapport, « les réseaux sociaux pourraient réduire les coûts de communication, améliorer l’accès au savoir et aux experts en interne, faire baisser les coûts de transport, améliorer la satisfaction des employés, réduire les frais de fonctionnement et même augmenter le revenu de 10 % par an en moyenne ». Un remède miracle en somme…

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

Cadres : comment mieux gérer son temps ? (1/5)

Cadres : comment mieux gérer son temps ? (2/5)

Savoir si une tâche est vraiment urgente pour mieux gérer son temps

Boostez votre efficacité en travaillant sur deux écrans

Marre de jongler avec les fenêtres sur votre 19 pouces ? De perdre des dizaines de clics à ajuster la taille des fenêtres de façon à tout faire tenir sur l’écran ? De vous énerver à rechercher la bonne fenêtre avec la bonne information puis de fermer par erreur le tableur ? Alors n’hésitez plus, demandez à votre patron d’acheter un deuxième écran pour vous faire gagner en efficacité.

C’est prouvé. Une étude de Microsoft a mis en avant un gain de productivité de 9 % en moyenne. Mieux, pour les tâches nécessitant de nombreux copier-coller, la productivité bondit de 50 %. Voilà un argument qui séduira votre employeur à coup sûr…

En pratique, vous répartissez le travail sur les deux moniteurs : l’un avec votre page de texte, l’autre affichant les informations dont vous avez besoin pour rédiger votre document. Avant d’investir, vérifiez quand même que votre carte graphique supporte deux écrans. De plus, privilégiez deux écrans de taille identique. Inutile de viser des grandes tailles, limitez-vous à des dimensions d’écran comprises entre 19 et 22 pouces, cela suffit et vous permet de ne pas perdre trop de place sur votre bureau.

Un bémol quand même, quand vous aurez goûté au travail multi-écrans, vous serez incapable de vous en passer…

Par Audrey Loubens, journaliste scientifique

La microscopie multi-photons s’offre une troisième couleur

Comment faire pour observer des tissus biologiques intacts avec plusieurs marqueurs distincts ? C’est le casse-tête que viennent de résoudre les équipes d’Emmanuel Beaurepaire (Laboratoire d’optique et biosciences (LOB), École Polytechnique, CNRS, Inserm), de Jean Livet (Institut de la Vision, CNRS, UPMC, Inserm) et de Xavier Morin (Institut de Biologie de l’École Normale Supérieure (ENS), CNRS, INSERM).

Parus dans la revue Nature Methods, leurs travaux montrent comment utiliser le mécanisme d’absorption non linéaire à deux photons. Ils ont utilisé un laser femtoseconde qui émet dans l’infrarouge autour des 800 nm. Celui-ci pompe un deuxième étage de laser qui va produire lui aussi des impulsions femtosecondes mais à 1 200 nm.

« Avec un seul laser nous obtenons deux faisceaux synchronisés », résume Emmanuel Beaurepaire, chargé de recherche au CNRS. « Plus précisément, le premier laser excite des molécules fluorescentes bleues, le deuxième des molécules fluorescentes rouges. Grâce au phénomène d’absorption à deux photons, si un photon est pris dans chacun des deux faisceaux en même temps, alors cela permet d’obtenir une troisième couleur, le vert ou le jaune», s’enthousiasme-t-il.

L’intérêt est d’ailleurs double car le fait d’obtenir cette troisième couleur est aussi une validation que les trois couleurs sont parfaitement superposées et qu’il n’y a pas d’aberration chromatique. Grâce à cette technique, les biologistes disposent désormais d’un nouveau moyen qui leur permet d’étudier les tissus biologiques intacts et en profondeur, comme l’étude de la formation du cerveau ou de l’embryon.

Par Audrey Loubens, journaliste scientifique

Première mesure de la taille du noyau d’une galaxie par « Radioastron »

« Malgré le fait que l’objet (la galaxie 0716 714 -. Ed) était à une phase de minimum d’activité, la détection réussie de réponses d’interférence a permis d’obtenir un résultat. Une analyse préliminaire de ces données montre que la taille du noyau est proche ou inférieure à 40 microsecondes d’arc (0,2 parsecs), « – peut-on lire dans le communiqué de presse.

Le système russe de télescopes « Quasar-KVO » et les télescopes Evpatoria (Ukraine) et Usuda (Japon) ont également participé à cette expérience visant à cartographier 0716 714. L’expérience se poursuit avec un aperçu de la masse des noyaux de galaxies actives sur toute la gamme du « Radioastron ». Un examen des galaxies actives permettra de comprendre la nature des jets relativistes dans ces objets à une distance de plusieurs milliards d’années lumière de la Terre » – a déclaré le chef du Laboratoire d’astrophysique de l’Institut de Physique Lebedev, Yuri Kovalev.

Le service de presse de « Radioastron » a également rapporté que l’observatoire orbital astrophysique a mené une série d’observations avec succès à une longueur d’onde de 1,3 centimètres, après avoir étudié le quasar compact 2013 370, dans la constellation du Cygne.

(Source : Bulletins Electroniques)

L’essentiel de Reach (juillet) 2/2

Aide-mémoire sur les VLEP aux agents chimiques

L’INRS propose un aide-mémoire technique regroupant, dans un tableau unique, les différents agents, y compris cancérogènes, pour lesquels le ministère chargé du Travail a publié des valeurs limites d’exposition professionnelle (VLEP), que ces valeurs soient indicatives, réglementaires indicatives ou réglementaires contraignantes. Le tableau est précédé de quelques rappels : méthodes de surveillance de l’atmosphère, définitions et limites des valeurs admises recommandations de la CNAMTS etc. Le document est disponible sur le site de l’INRS :
http://www.inrs.fr/accueil/produits/mediatheque/doc/publications.html?refINRS=ED%20984

Parution du guide pratique relatif à l’inventaire CLP publié en 22 langues

L’ECHA a mis à jour et publié le guide pratique n° 7 sur « Comment notifier les substances à l’inventaire des classifications et étiquetages ? » en 22 langues. La version française de ce guide est disponible sur :
http://echa.europa.eu/documents/10162/13643/pg_7_clp_notif_fr.pdf

Le registre d’intention de la classification et de l’étiquetage harmonisé a été modifié

Le registre d’intention de la classification et de l’étiquetage harmonisé a été mise à jour avec une nouvelle demande d’intention. Celle-ci concerne le disodium peroxodisulphate (N° CAS : 7775-27-1 et N° CE : 231-892-1). Les soumissions sont à soumettre pour le 29 octobre 2012.
http://echa.europa.eu/web/guest/registry-current-classification-and-labelling-intentions

Substances enregistrées

(12/07/2012)
La base de données de l’ECHA contient, à ce jour, 7 530 substances et des informations provenant de 30 216 dossiers d’enregistrement REACH.
http://echa.europa.eu/web/guest/information-on-chemicals/registered-substances

Informations pour éviter les essais inutiles sur les animaux – 6 nouvelles demandes

(15/07/2012)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. La substance concernée est l’acide 2-{N-[2,6-Diamino-4-oxo-4H-pyrimidin-(5Z)-ylidene]-hydrazino}-5-methyl-benzenesulfonic N° CE : 700-002-8).
Les informations sur ces demandes sont à soumettre pour le 30 août 2012.
http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Entrée en vigueur du nouveau règlement sur les biocides

(17/07/2012)
Le nouveau règlement sur les biocides adopté par le Conseil et le Parlement au printemps est entré en vigueur le 17 juillet 2012. Les exigences réglementaires pour l’industrie s’appliquent à partir du 1er Septembre 2013 et l’ECHA se prépare à lancer les nouveaux processus de réglementation à cette date. Avec ce nouveau règlement, l’Echa se verra attribuer 100 collaborateurs spécifiquement chargés des questions liées aux produits biocides. Le nouveau règlement Biocides fixe des règles pour la mise sur le marché de ces produits. L’objectif est de simplifier et d’harmoniser les procédures d’autorisation et, en même temps, assurer un niveau élevé de protection de la santé humaine et l’environnement. Le nouveau règlement met en place une nouvelle procédure d’autorisation par rapport à la réglementation actuelle (directive 98/8/CE). La directive prévoit un processus en deux étapes : une évaluation de la substance active au niveau de l’UE, et une autorisation des produits au niveau des Etats membres. Le règlement conservera cette approche en deux étapes, tout en prévoyant la possibilité que certains produits biocides soient autorisés à l’échelle de l’Union Européenne en leur donnant un accès direct au marché de l’Union tout entière. Plus d’informations sur :
http://echa.europa.eu/web/guest/view-article/-/journal_content/af90e51f-7f7d-4c10-9649-ec9fb871dea9
http://echa.europa.eu/regulations/biocidal-products-regulation

La FAQ sur les restrictions publiée

(18/07/2012)
L’ECHA a publié une FAQ sur les restrictions (annexe XVII de REACH).
http://echa.europa.eu/documents/10162/13645/questions_and_answers_+restrictions_en.pdf

Guide pratique concernant le résumé des rapports de toxicologie et les DNEL

(18/07/2012)
L’ECHA a publié un guide pratique (n°14) pour les déclarants REACH sur la façon de reporter les résumés toxicologiques, y compris les DNEL (derivation of no-effect levels) dans IUCLID. L’objectif est d’aider les déclarants dans leur préparation de l’échéance de 2013 et de fournir des conseils sur la façon d’améliorer la qualité globale de l’information dans l’évaluation de la sécurité chimique des dossiers existants. Plus d’informations sur :
http://echa.europa.eu/view-article/-/journal_content/41082eb8-fd8b-4bb5-8f67-c6e2191307f0
Guide pratique : http://echa.europa.eu/documents/10162/13655/pg_14_on_hazard_endpoint_en.pdf

Vue d’ensemble des rapports des utilisateurs en aval

(23/07/2012)
Les utilisateurs en aval sont tenus d’informer l’ECHA s’ils doivent préparer un rapport d’utilisateur en aval sur la sécurité chimique ou s’ils reposent sur certaines exemptions à l’obligation de préparer un rapport sur la sécurité chimique. L’ECHA a mis en ligne une vue d’ensemble de ces rapports. Ces données montrent le nombre de rapports reçus des utilisateurs en aval par l’ECHA, le nombre de substances déclarées et le nombre d’entités juridiques dont les rapports ont été reçus. Il indique également les raisons pour lesquelles la soumission du rapport. Cette vue d’ensemble sur les rapports des utilisateurs en aval est mis à jour régulièrement. Plus d’informations sur :
http://echa.europa.eu/en/information-on-chemicals/overview-on-downstream-user-reports

Informations supplémentaires sur les substances chimiques bientôt publiées

(24/07/2012)
L’ECHA va publier, à compter du mois de novembre, de nouvelles informations sur les substances chimiques provenant des dossiers d’enregistrement. Cela fait suite à une décision prise par l’ECHA en 2011 et est en conformité avec l’article 119 (2) d du règlement REACH. Ces nouvelles informations vont concerner le nom de la personne inscrite, le numéro d’enregistrement de la substance ainsi que d’autres éléments contenus dans la fiche de données sécurité (FDS). Les entreprises qui souhaitent demander la confidentialité de ces éléments doivent mettre à jour leurs dossiers et justifier leurs demandes de confidentialité avant le 31 octobre 2012. Plus d’informations sur :
http://echa.europa.eu/web/guest/view-article/-/journal_content/acde6540-cfbc-420c-b0cf-0b58485c7da9

Modification du calcul de la bande de tonnage total

(25/07/2012)
L’ECHA vient de décider de la méthode permettant de calculer les fourchettes totales de quantité des substances figurant dans sa base de données répertoriant les substances enregistrées. Les fourchettes totales de quantité des substances enregistrées ont été publiées courant juin 2012 sur le site web de l’ECHA. Plus d’information sur : http://echa.europa.eu/en/view-article/-/journal_content/81cace06-43bf-4756-aa10-784f3561ea4c

Postes à pourvoir à l’ECHA

Cinq nouveaux postes sont à pourvoir à l’ECHA. Informations et dates limites de candidatures sur http://echa.europa.eu/about-us/jobs/open-positions.

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Programmer des robots intelligents sur la base des mouvements humains

Le projet BesMan (« Comportements de manipulation mobile »), mené par le Centre de recherche allemand sur l’intelligence artificielle (DFKI) et le Groupe de robotique à l’Université de Brême, s’attache à cette problématique.

L’équipe de chercheurs dirigée par Frank Kirchner, directeur du Centre d’innovation robotique au DFKI et le Groupe de robotique à l’Université de Brême, développe des méthodes basées sur le mouvement humain pour gérer de manière souple et adaptable deux bras de manutention. Dans le même temps, les scientifiques développent des algorithmes pour que le robot puisse compléter des actions à distance de manière indépendante, sans intervention de l’homme. Ceux-ci fonctionneront sur le principe du répertoire de compétences : un ensemble de mouvements, comme la saisie, le porté, le vissage sont appris par le robot en laboratoire (via l’enregistrement par caméras des mouvements d’un scientifique), puis sont découpés en séquences et ajoutés à son répertoire comportemental.

Lors d’un voyage dans l’espace, et grâce à l’algorithme développé, le robot percevra les changements dans son environnement et pourra réagir de façon indépendante en puisant dans sa base de compétences. Ceci sera décisif au cas où les robots auraient besoin de développer une infrastructure sur place, dans des conditions imprévisibles. Car l’utilisation de robots intelligents pourrait permettre des économies de coûts et de risques immenses par rapport à un vol spatial habité, notamment du fait du poids moindre à envoyer dans l’espace, souligne Frank Kirchner.

Besman recevra 3,8 millions d’euros du Centre aérospatial allemand (DLR, basé à Cologne en Rhénanie du Nord-Westphalie) sur une période de quatre ans, via un financement par le Ministère fédéral de l’économie et de la technologie, à la suite d’une décision du Parlement allemand (Bundestag).

(Source : Bulletins Electroniques)

Nouveau laboratoire franco-taïwanais en robotique

Le programme I-RiCE (International-Research intensive Centers for Excellence) du Conseil National des Sciences taïwanais (NSC), est un programme de financement de coopérations internationales d’excellence en recherche scientifique. Ce programme du NSC, initié en 2010, a pour objectif de créer des centres d’excellence à Taiwan en recherche fondamentale et dans les technologies d’avenir. Il cofinance des projets de 3 à 5 ans, entre le NSC, une université taïwanaise et un partenaire étranger.

Le « Centre International d’Excellence de Recherche en Robotique Intelligente et Automatique » (iCeiRA), qui fût inauguré le 4 mai 2012, est le premier projet franco-taïwanais à participer à ce programme. C’est, de plus, le premier projet associant un partenaire européen puisque les sept autres projets initiés depuis la création de ce programme en 2010 l’ont été avec des laboratoires américains.

Il rassemble côté taïwanais le Centre d’Automatique et de robotique intelligente de l’Université Nationale de Taiwan (NTU) et côté français le centre de l’INRIA à Grenoble, le Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS) du CNRS et l’Institut des Systèmes Intelligents et de Robotique du CNRS et de l’Université Pierre et Marie Curie.

Les thèmes principaux de recherche seront :

  • Les technologies avancées cognitives ;
  • Les technologies d’apprentissage/adaptatives ;
  • Le contrôle et la planification avancée de la technologie ;
  • L’interaction Homme-machine ;
  • La sécurité

(Source : Bulletins Electroniques)

Optimiser l’aérodynamique des poids lourds en modifiant leur soubassement

Des chercheurs de l’Institut d’aérodynamique et de mécanique des fluides (IAS) du Centre allemand de recherche aérospatiale (DLR) de Göttingen (Basse-Saxe) développent des solutions aérodynamiques en modifiant le soubassement des poids lourds. « En raison de la différence de pression à l’avant et à l’arrière du camion, apparaît une force inverse au sens de circulation avec un effet d’aspiration », explique Johannes Haff, chercheur à l’IAS. « En modifiant le soubassement par un élargissement de sa section arrière, de manière analogue à un diffuseur, la pression derrière sur le transporteur pourrait être augmentée grâce à la génération de tourbillons dans la direction de l’écoulement, avec pour conséquence la réduction de l’effet d’aspiration », poursuit-il.

Ces éléments d’amélioration ont déjà été testés avec succès en soufflerie. Afin de les confirmer, les chercheurs du DLR ont réalisé, de nuit, des essais sur route en combinant des capteurs de pression sur la paroi arrière du camion à la technique de vélocimétrie par images de particules (PIV). A cet effet, un système de laser, des appareils de mesure, des ordinateurs ainsi qu’un générateur de fumée ont été embarqués à bord d’un poids lourd de 40 tonnes. Des caméras CCD haute résolution ont été fixées à l’arrière du camion. Ce dernier a parcouru la piste d’essais à différentes vitesses, recueillant des séries de données actuellement en cours d’exploitation.

(Source : Bulletins Electroniques)

Téléphoner et surfer dans le tunnel sous la Manche, c’est désormais possible

Eurotunnel et les opérateurs de téléphonie mobile Bouygues Telecom, Orange et SFR ont mis en service le 25 juillet 2012 un système de retransmission optique dédié aux réseaux 2G (GSM 900, DCS 1800) et 3G (UMTS 2100) de téléphonie et d’Internet mobile GSM-P qui permet aux passagers du Shuttle et des trains à grande vitesse d’utiliser leur portable, aussi bien pour téléphoner que pour accéder à Internet, dans le tunnel sous la Manche.

Ce projet piloté par l’équipementier Alcatel-Lucent est l’aboutissement de la coopération avec tous les acteurs français des télécoms à savoir Orange, SFR, Bouygues Telecom. L’application des technologies de pointe mises au point par Alcatel-Lucent et les opérateurs de l’industrie des télécoms a permis de réaliser plusieurs prouesses technologiques. Offrir un service sans fil, 100 mètres au-dessous du niveau de la mer, aux 20 millions de voyageurs qui empruntent les 53 kilomètres du Tunnel tous les ans a impliqué en effet la résolution de défis multiples. Ainsi, le dispositif a été déployé en 10 mois, soit un délai record ; les travaux ont été réalisés simultanément à la poursuite du trafic ferroviaire dans le tunnel : l’environnement confiné a demandé le respect de normes très exigeantes et la spécificité des Shuttle a exigé un traitement particulier pour obtenir une transmission des ondes appropriée.

De surcroît, les équipes ont dû proposer des solutions nouvelles pour que différents systèmes radio (GSM-P et GSM-R) puissent cohabiter dans le Tunnel. Eurotunnel peut offrir un nouveau service à ses clients, à la fois ceux des Navettes Eurotunnel et ceux des Eurostar. Les opérateurs français assureront une prolongation de leur couverture 2G/3G dans le tunnel ferroviaire Sud (sens France/Grande-Bretagne) grâce à un câble de diffusion du signal radio permettant la diffusion des ondes et des répéteurs optiques installés tous les 750 mètres. Le tunnel Nord (sens Grande-Bretagne/France) sera couvert par les opérateurs de télécommunications britanniques après les Jeux Olympiques.

Pour plus d’infos : http://www.alcatel-lucent.com/

Edité par Carole Hamon

 

Fiches pratiques : Déployer l’innovation

Ingénieur R&D, chef de projet, responsable de bureau d’études, l’innovation est au cœur de vos missions et de celles de vos équipes. Trouvez ici les fiches pratiques et outils pour lever les freins et déployer activement l’innovation dans l’entreprise.
45 auteurs, experts et praticiens de l’innovation, ont contribué à cet ouvrage sous la direction scientifique de Bernard Yannou et de Romain Farel, de l’Ecole Centrale Paris.

La salle de bain du futur en images

Le salon Ideo Bain a tenu cette année sa sixième édition à Paris. Organisé tous les deux ans, il propose aux visiteurs et aux professionnels des choix de matériaux innovants. Particularité du salon, les produits présentés sont tous déjà disponibles à la vente.

Ainsi, les innovations présentées sont à la fois destinées à personnaliser une salle de bain, suivant une tendance marketing très à la mode en ce moment, mais aussi à économiser l’eau, l’énergie de chauffage, améliorer l’isolation. Petit tour d’horizon des principaux matériaux présentés, et des fonctions que ces derniers pourraient remplir dans votre salle de bain de demain.

  • Carreaux thermochromes :

Habillez l’intérieur de votre cabine de douche de couleurs changeantes avec cette large gamme de carreaux verre variant leurs couleurs en fonction de la température. Des modèles de toutes sortes sont proposés: motif, textures, frises…
Les carreaux sont adaptés pour les sols aussi bien que pour les comptoirs et les murs.

  • Compolight :

Le Compolight est un matériau de synthèse très résistant aux aspects brillants, sans déperdition de chaleur, très doux et facile d’entretien. Ces matérieux métalliques légers sont le fruit de recherches menées depuis plusieurs années, et dont les résultats trouvent des applications bien au delà de l’exemple cité ici.

  • Béton de synthèse SMO

Plans de toilette, receveurs, panneaux de douche, tablettes… tous ces éléments sont aujourd’hui disponibles dans la même couleur grâce au béton de synthèse SMO. Ce matériau, constitué d’un mélange de pierre naturelle, de résine polyester et d’un gelcoat de surface antibactérien s’avère antidérapant, facile à nettoyer, résistant et hygiénique.

  • Luminist

Il s’agit d’un mélange extraordinaire de poudre de quartz extrêmement fine et d’acrylique qui permet de réaliser toutes les formes souhaitées. Les possibilités de design deviennent alors illimitées.

  • Le quaryl :

Il s’agit d’un mélange extraordinaire de poudre de quartz extrêmement fine et d’acrylique qui permet de réaliser toutes les formes souhaitées. Les possibilités de design deviennent alors illimitées.

  • Béton interactif :
Le béton interactif est un matériau composite composé d’une part d’une matrice PMMA conductrice de lumière et d’un substrat de béton fin d’autre part, dans lequel la matrice est enchassée.
La matrice optique donne au béton la capacité de jouer avec l’ombre et la lumière ou les mouvements environnants en créant des ondulations lumineuses à sa surface. Murs, façades, sols, écrans, cloisons, comptoirs, salles de bains, cabines de douche, piscines…
 
 
Par Pierre Thouverez
 
Dans les bases documentaires :

L’isolation, nerf de la guerre

A l’automne 2007, le Grenelle de l’Environnement a vu la France mettre en place les mesures qui accompagneront le pays, pour les décennies à venir, dans sa mutation écologique. L’ensemble de ce travail sur l’orientation énergétique de la France s’est traduit concrètement par le vote des lois Grenelle I et II.

Ces deux lois servent désormais de socle pour l’élaboration de l’ensemble des mesures nécessaire à la mise en place de la politique énergétique de la France, et notamment les principes de la RT 2012.

Les buts affichés sont clairs. Les constructions de nouveaux bâtiments, qu’ils soient destinés aux logements où à une activité tertiaire, devront être construit selon des normes de performance énergétique élevées. Isolation, matériaux de construction, il s’agit de repenser complètement les habitudes qui ont régi l’industrie de la construction les trois dernières décennies.

Course à la performance énergétique

Les exemples d’amélioration en termes de construction touchant toutes les composantes des bâtiments. Par exemple, les fabricants d’isolants ont développés des matériaux totalement inédits depuis quelques années, améliorant de façon drastique la conductivité thermique. Les nouvelles laines de verre, par exemple, présentent aujourd’hui des conductivité de l’ordre de 30 mW/m.K.

Comprendre la RT 2012

 La Réglementation Thermique 2012 (RT2012) a pour objectif, tout comme les précédentes réglementations thermiques, de limiter les consommations énergétiques des bâtiments neufs qu’ils soient pour de l’habitation (résidentiel) ou pour tout autre usage (tertiaire).
L’objectif de cette Réglementation Thermique est défini par la loi sur la mise en œuvre du Grenelle de l’Environnement. Cet objectif reprend le niveau de performance énergétique défini par le label BBC-Effinergie.
La réglementation thermique en vigueur sera, par conséquent, renforcée afin que toutes les constructions neuves présentent, en moyenne, une consommation d’énergie primaire (avant transformation et transport) inférieure à 50 kWh/m²/an contre 150 kWh/m²/an environ avec la RT2005. 

 

Mais de nouveaux matériaux, comme les mousse phénoliques, permettent désormais d’atteindre une conductivité thermique avoisinant les 20 mW/m.K !

Bien sûr, les nanotechnologies offrent également leur lot de nouveaux matériaux. Au niveau de l’isolation sous vide, certains matériaux nanostructurés ont permis d’obtenir des solutions d’isolation encore plus performantes et efficaces, atteignant jusqu’à 5 mW/m.K.

Aussi, ces matériaux présentent l’avantage d’avoir une épaisseur très réduite. Pas encore industrialisées, ces solutions ne sont pas commercialisées pour le moment.

Dernier exemple, les briques rectifiées à joints minces. Développées par l’industrie de la maçonnerie, ces matériaux ont pour but de pont thermique par les joints.

Performance énergétique des matériaux d’origine naturelle

  • le liège : le liège permet  de réaliser un isolant particulièrement polyvalent et résistant à l’humidité, à la compression, aux insectes Il est également très efficace. Distribué en granulé simple ou expansé et en panneaux.
  • le bois, choisi à partir d’essences naturellement durables peut se présenter sous de nombreuses formes d’isolant, en fibres, en laine isolante semi-rigide ou panneaux de fibres
  • le chanvre, plante de grande culture n’utilisant aucun herbicide, insecticide ou fongicide. a une conductivité thermique faible. Cette fibre creuse est l’une des fibres végétales les plus solides. Le chanvre n’attire pas les rongeurs. Il est commercialisé sous forme de panneaux semi rigides, de rouleaux ou en vrac. Mélangé à de la chaux, il permet de réaliser des dalles isolantes allégées ou des enduits isolants.
  • le lin, cultivé principalement pour ses fibres souples, élastiques et creuses, qui peuvent emmagasiner une quantité d’eau équivalente à sa masse sèche, ce qui en fait un bon régulateur hygrométrique. Il est utilisé sous forme de laine (en rouleaux), de panneau (mélangé à du chanvre et du polyester issu du recyclage) ou en panneau acoustique
  • la paille, partie de la tige de certaines graminées utilisées soit en tant que fibres (en torchis), soit en tant que bottes dans les murs porteurs ou ossature bois. Existe également en vrac à partir de paille de lavande recyclée et broyée.
  • les panneaux de roseaux offrent une efficacité thermique moyenne. Toutefois, leur souplesse permet de suivre la forme et l’inclinaison des murs au plus près. On les emploie surtout pour une isolation thermique extérieure, sur parois verticales et rampantes ou toitures
  • la fibre de coco, provient des fibres entourant la coque des noix de coco. Elle est principalement constituée de cellulose et se révèle donc très efficace, saine et naturelle. Elle est vendue en vrac, en panneaux, rouleaux ou en feutres, pour l’isolation phonique.

Isolation : innovations à tous les niveaux

Les nouveaux matériaux isolants se retrouvent partout : sans les murs, sur et sous les toits, les fenêtres… Les innovations récentes dans le domaine de la fenêtre et du vitrage prouvent que ce secteur est très dynamique. Cet essor est bien évidemment lié à l’environnement politique de la réglementation thermique, mais pas seulement. Le but est de sensibiliser le public aux problèmes de changements climatiques, à l’économie d’énergie et à la réduction d’émission de gaz à effet de serre.

Les performances thermiques sont déjà au sommet de l’innovation. On peut, toutefois, espérer dans le futur une plus grande variété de contrôles solaires associés aux autres fonctions, notamment acoustiques, sans dégrader les fonctions thermiques. L’axe de développement aujourd’hui est d’arriver à élargir les gammes de produits innovants déjà existants. A titre d’exemple, Saint Gobain Glass a été nominé au concours Décibel d’Or, organisé par le Conseil National du Bruit pour son nouveau modèle de double vitrage acoustique de 33, 34 dB, destiné à l’isolation des façades des grandes villes telles que Paris.

Voici quelques idées qu’ils nous préparent. Avec, parmi elles, des fonctionnalités qui n’ont pas encore trouvé leur modèle industriel, et d’autres qui sont aujourd’hui réservées à des logements ou bureaux très haut de gamme :

  • Le verre chauffant : une couche métallique conductrice invisible est appliquée sur le vitrage et alimentée électriquement. Elle diffuse une chaleur agréable (rayonnante) dans la pièce…  et, en supprimant la sensation de paroi froide avec le vitrage, elle permet d’abaisser la température de la pièce de 3°C environ en gardant la même sensation de confort.
  • Le verre auto-éclairant : on a découvert que certains polymères étaient électroluminescents. Cela signifie que leurs membranes peuvent produire de la lumière… ce qui permet d’envisager demain, une fenêtre qui le soir venant, continue à produire de la lumière !

Par Pierre Thouverez

Sources : Ademe, Ministère de lEcologie et du développement durable, rt-batiment, socialcompare

Dans les bases documentaires :

 

Matériaux éco-conçus : une solution pour l’environnement ?

Le cycle de vie des produits est aujourd’hui un réel enjeu pour les fabriquants, et une valeur ajoutée du produit à part entière.

Un produit éco-conçu est un produit pour lequel le bilan écologique global ou l’impact sur l’environnement et sur la santé humaine est positif sur l’ensemble du cycle de vie, pour une même utilisation, avec des coûts maîtrisés et un degré comparable de satisfaction pour le consommateur. L’éco-conception suppose donc une démarche globale qui intègre le respect de l’environnement dans la conception même des produits ou des services, de l’extraction des matières premières au traitement des déchets.

Les décisions politiques, comme la RT 2012, et la pression « écologique » populaire, entraine les fabricants à se tourner vers l’éco-conception de leur produit, et pas uniquement pour des raisons d’image. Ainsi, la mise en place de la RT2012, qui consacre l’approche thermique globale et non plus élément par élément, est une incitation supplémentaire pour les fabricants à se tourner vers ces types de conception.

Enfin, sur le plus long terme, les pouvoirs publics vont légiférer dans le sens d’une réduction du contenu en carbone généré tout au long du cycle de vie du bâtiment, et plus largement les impacts énergétiques, environnementaux et sanitaires des composants du bâtiment et des méthodes de construction et de conception.

Les produits éco-conçus devraont donc, dans les années à venir, relever trois défis :

  • Développer des matériaux toujours plus performants sans pour autant augmenter la masse de matière utilisée ;
  • ACV : prévoir dès la conception la fin de vie des matériaux et produits ;
  • Assurer la durabilité des matériaux tout préservant moins nocifs pour l’environnement.

Les défis résident donc dans le choix de matériaux les plus neutres possibles pour l’environnement, mais également plus performants que ceux utilisés actuellement. L’intégration des ACV, en amont et en aval, ce qui est en soi révolutionnaire, change du tout au tout la réflexion autour de la conception d’un produit.

On comprend que le choix des matériaux devient un enjeu crucial, et entre dans la prise en compte de nouveaux défis pour les fabriquants : des objectifs d’éco-conception pour réduire les quantités d’énergie et de matières utilisées, des utilisations plus extensives de matériaux recyclés ou d’origine renouvelable (les démarches sur le béton vert illustrent cette tendance).

De plus en plus de fabricants mettent en place des filières de démontage et de recyclage, ce qui illustre bien cette tendance. Le marché est réel, et le potentiel de retour sur investissement souvent sous-évalué.

L’impact sur la santé, enjeu fondamental

Prenons l’exemple du domaine du bâtiment : La qualité sanitaire des bâtiments, en particulier, la qualité de l’air et de l’eau, sont des enjeux majeurs. Il faut, d’une part, assurer aux habitants des futurs logements construits une qualité de l’air et une santé préservée sur le long terme. Mais il faut également préserver la santé des ouvriers qui appliquent ces produits. Ces deux notions, qui paraissent incontournables aujourd’hui, paraissaient optionnelles il n’y a pas si longtemps.

C’est d’ailleurs pour cela que les réglementations concernant certains produits se développent : un nouveau décret n° 2011-321 a été publié en Mars 2011, relatif à l’étiquetage des produits de construction, de revêtement de murs et de sols, des peintures et vernis sur leurs émissions de polluants volatils. Son entrée en application le 1er janvier 2012 concerne tous les nouveaux produits et à partir du 1er septembre 2013, elle concernera des produits déjà présents sur le marché.

Par exemple, les industriels de la peinture, de vernis, les fabricants de revêtements ont réduit les émissions de Composés Organiques Volatils (COV) de leurs produits pour se mettre en conformité avec les exigences réglementaires depuis le 1er janvier 2010. Les autres secteurs vont suivre.

Par Pierre Thouverez

Dans les bases documentaires :

Les composites dans l’industrie automobile

Si à ses débuts, il y a plus d’une centaine d’années, une automobile était constituée principalement de bois et d’acier, aujourd’hui elle rassemble de nombreux matériaux appartenant aux grandes familles suivantes :

  • matériaux ferreux : fontes, aciers, tôles (environ 62 % de sa masse) ;
  • matériaux non ferreux : aluminium (fonte et tôle), cuivreux, magnésium (environ 9 %) ;
  • matériaux minéraux : verre, céramique (environ 4 %) ;
  • matériaux organiques : environ 25 %, répartis en moyenne de la manière suivante : 4 % : élastomères, 6 % : peintures, adhésifs, textiles, fluides, 15 % : matériaux plastiques, thermoplastiques (TP) ou thermodurcissables (TD).

Selon les véhicules, ces 15 % peuvent varier de 10 à 20 % et se répartir dans les différentes fonctions constitutives d’un véhicule de la manière suivante :

  • équipement intérieur ou habitacle : 50 %,
  • applications extérieures : 30 à 35 %,
  • pièces sous capot : 15 %,
  • pièces de structure : 0 à 5 %.

À noter que le pourcentage d’utilisation des matériaux plastiques n’a cessé de croître depuis le milieu des années 50/60, il était de 6 % dans les années 60/70.

Aujourd’hui, en moyenne 15 % pour un véhicule moyen de 1 300 kg, cela représente environ 200 kg / véhicule de « matériaux plastique ».

Cette évolution est due au fait que le choix d’un matériau donné pour une application donnée oblige à une confrontation de solutions afin de rechercher le meilleur couple matériau/procédé de fabrication d’une pièce en tenant compte de nombreux critères : des critères techniques et industriels liés à la capacité et à la disponibilité des moyens industriels, des critères économiques liés au coût des matériaux et aux coûts de production et enfin des critères sociaux guidant les orientations des choix du client final.

Les matériaux composites sont apparus dans l’industrie automobile au milieu des années 1950. À cette époque, les matériaux et les procédés de transformation étaient peu nombreux : essentiellement des matrices polyesters thermodurcissables renforcées par des fibres de verre courtes, mises en œuvre manuellement dans des moules ouverts ou fermés suivant le procédé SMC (Sheet Moulding Compound).

Actuellement, de nombreux matériaux et procédés de transformation sont à la disposition des concepteurs.

Les matrices peuvent être thermoplastiques (polypropylène, polyamide, polyuréthanne,….) ou thermodurcissables (polyester, vinylester, époxy, polydicyclopentadiène,….).

Les fibres de renforcement peuvent être en verre, aramide, carbone, thermoplastique, voire végétales, utilisées sous forme coupée courte ou longue, continue, tissée, tressée, tricotée……

Selon le type de matrices utilisées, TP ou TD, les procédés de mise en œuvre sont très variés :

  • injection (RTM – Resin Transfer Moulding, BMC-Bulk Moulding Compound, RIM – Reaction Injection Moulding) ;
  • compression et formage (SMC – Sheet Moulding Compound, GMT – Glass Mat Thermoplastic, TRE – Thermoplastique Renforcé Estampable) ;
  • pultrusion ;
  • enroulement filamentaire ;
  • infusion sous vide.

Les procédés en moules fermés et l’utilisation de résines contenant peu de styrène sont aujourd’hui privilégiés afin de réduire les émissions de composés volatils dans les ateliers (pour le styrène la limite maximale est de 20-200 ppm, voire 20-25 ppm dans certains pays).

En savoir plus

Nanotechnologies dans le textile

Les nanotechnologies ont permis de générer toutes sortes de nanomatériaux aux propriétés singulières, qu’il est opportun de marier aux fonctionnalités intrinsèques des textiles.

Ainsi nanoparticules d’argent aux effets antibactériens, membranes à base de nanofibres et revêtements nanostructurés imitant la feuille de lotus se retrouvent déjà dans des produits textiles de grande consommation.

Pour réaliser ces nanotextiles, les entreprises du secteur ont deux choix : incorporer des nanomatériaux préfabriqués avec les outils traditionnels ou faire évoluer cet outil industriel vers la production de nanocomposés (nanocouches, nanofibres principalement) directement intégrés aux textiles.

Quelle que soit la stratégie adoptée, elle doit s’accompagner des précautions nécessaires à la manipulation de ces nouveaux produits, en particulier aujourd’hui dans un cadre règlementaire toujours en cours de définition.

En savoir plus

Les jeux Olympiques, générateur d’innovation !

Les Jeux Olympiques de Londres 2012 signent la 25e collaboration avec la marque Suisse Omega, qui assure le rôle de Chronométreur Officiel. Comme à chaque édition, de nouvelles technologies sont présentées :

Des Starting-block repensés. Le nouveau prototype permet de déterminer le temps de réaction des athlètes et de n’importe qui, par la mesure de la force exercée contre le patin. Il est armé d’un capteur de détection de faux-départ entièrement électronique. Les patins ont été élargis, de 120 à 160 cm, afin de permettre aux coureurs de modifier leur position de départ.

Les Swimming Show. En ce qui concerne les épreuves de natation, les plots se situant à côté des panneaux de contact sont désormais équipés d’un système lumineux. Appelé « Swimming Show », il permet au compétiteur, selon le nombre de points lumineux qu’il voit, de connaître sa position. Le vainqueur n’aperçoit qu’un seul point lumineux éclairé.

Ci-dessus : Le swimming Show

Le quantum Timer, ou le chronométreur le plus perfectionné. Doté d’un composant intégré crée par Micro Crystal, il présente une résolution 100 fois supérieure aux précédents appareils (un millionième de seconde) et une précision cinq fois plus élevée que l’ancienne version. La précision est de 0,1 ppm (part par million). De plus, intégré à l’unité centrale, le Quantum Timer utilise un dispositif de sauvegarde permettant d’enregistrer seize temps simultanément et de les communiquer aux tableaux d’affichage. A Londres, la marque Oméga dépositaire de ces innovations a déroulé plus de 180 km de fibre optique pour faire fonctionner de façon optimale les chronométres et les tableaux d’affichage.

Un nouveau revêtement de piste a été conçu par la société italienne Mondo. Ses caractéristiques permettraient aux athlètes de ne plus utiliser de crampons. Elle comporte deux couches distinctes et un « effet coussin ». La piste est en caoutchouc synthétique, de couleur rouge. Elle avait été testée l’année dernière par la spécialiste du demi-fond Hannah England.

Oscar Pistorius, le « Blade Runner » des circuits

Alors que le Sud-Africain de 25 ans, Oscar Pistorious, s’apprête à concourir pour le 400 m au même titre que les « athlètes valides », les prothèses en carbone font débat. À la pointe des innovations technologiques, ses jambes de substitution pour celui qui s’est fait amputer à l’âge de 11 mois, ne constituent-elles pas un avantage par rapport aux autres ? C’est ce qu’avait conclu une enquête lancée en 2008 et menée par le Pr Brüggemann, prétendant que les prothèses conféraient un avantage certain.

En 2008, Oscar Pistorious faisait appel. Plus tard, le tribunal statuait finalement en sa faveur affirmant qu’il n’était pas possible de prouver qu’il détenait un avantage.

Nike ultra-présent. Cette année, Nike a fait le Buzz pour plusieurs raisons. Sans s’associer aux JO comme Adidas a pu le faire en investissant 100 millions d’euros de son capital, la marque serait grâce à ses publicités mettant en scène des athlètes anglais, la marque qui revient le plus dans l’esprit des gens. Loin devant les véritables sponsors !

Et puis il y a eu l’histoire des faux équipements Nike de l’équipe Olympique égyptienne. Le nageur Khallaf Yomna s’était plaint sur Twitter que son sac porte le logo Nike mais que le zip soit Adidas. Soupçon répandu à la vitesse de la lumière sur internet, confirmé par la suite par le président du Comité national olympique égyptien.

Enfin, le week-end de l’ouverture des jeux, la marque a inauguré sa toute dernière innovation, la Flyknit Racer. Fabriquée à partir d’une méthode à base de tricot, la chaussure offrirait un confort suprême. Très légère, elle est considérée comme la seconde peau du pied. Ce n’est donc pas un hasard si la Fédération américaine d’athlétisme l’a directement adoptée.

Ci-dessus : la Flyknit Racer, de Nike

 

Par Sébastien Tribot

Sources :

Découvrez les bases documentaires :

Surprenant gallium

Le gallium est un élément chimique de la famille des métaux pauvres, de symbole Ga et de numéro atomique 31 dans la classification périodique des éléments de Dmitri Mendeleïev. Le groupe des métaux pauvres (bloc p de la table périodique), comprenant aussi l’aluminium, le plomb, l’indium, l’étain, le thallium, le bismuth et le récent flérovium, se caractérise par une température de fusion et d’ébullition inférieures à celles des métaux de transition, ainsi que par une électronégativité plus élevée.

Découvert en 1875 par un Français, le chimiste Paul-Émile Lecoq de Boisbaudran, il tirerait son nom de « gallus » (« coq » en latin) bien que Lecoq de Boisbaudran ait assuré avoir baptisé l’élément ainsi en l’honneur de la France (« Gallia », la Gaule). A l’état pur, le gallium a une belle couleur couleur argentée, et est relativement cassant.

C’est la faible température de fusion du gallium qui nous intéresse ici : à 29,76 degrés Celsius, le gallium peut fondre dans la main sans trop attendre. Il est néanmoins légèrement irritant pour la peau et les muqueuses, bien qu’il ne présente qu’une toxicité réduite et que peu d’études aient été réalisées à ce sujet.

Ici, quelques morceaux de gallium fondent – très doucement – dans la main.

Cuillère de gallium pur

Conséquence de la température de fusion peu élevée du gallium : un objet composé de gallium pur sera solide en dessous de la température de fusion, mais fondra plus ou moins rapidement lorsque l’on dépasse cette température. Ici, une cuillère composée de gallium pur à 99,998 %, fond en moins de temps qu’il ne faut pour le dire dans un verre d’eau chaude, créant une petite flaque de gallium liquide au fond de celui-ci.

Il est assez aisé de récupérer le gallium liquide pour reconstituer l’ustensile, à condition d’avoir bien entendu un moule approprié. Une fois la température du gallium redescendue en dessous de son point de fusion, la cuillère sera de nouveau solide.

Expérience du « cœur qui bat »

Tout comme le mercure, le gallium se trouve au centre d’une expérience baptisée « expérience du cœur qui bat ». Dans une boîte de Pétri, recouvrir du gallium liquide par de l’acide sulfurique. Lorsque l’on y ajoute une petite quantité d’un oxydant, tel que du bichromate de potassium ou du permanganate de potassium, la réaction ne se fait pas attendre : le « cœur » du gallium se met alors à battre. Cette réaction est due a la tension de surface, instable et changeante, du composé chimique, qui se « tend » et « se détend ».

L’aluminium et le gallium, frères ennemis ? 

Au vu de la vidéo qui suit, c’est le moins que l’on puisse dire. Comme le gallium, l’aluminium est un métal pauvre malléable et de couleur argentée, de numéro atomique 13. C’est le troisième élément le plus abondant sur Terre, ainsi que le métal le plus abondant de l’écorce terrestre, bien qu’en raison de sa très grande réactivité, on ne le trouve pratiquement que sous forme combinée avec d’autres minéraux, notamment la bauxite, principal minerai permettant sa production.

Son abondance n’est pas la seule et unique raison de sa très grande utilisation industrielle : malgré son caractère très oxydable, l’aluminium sait se protéger très efficacement contre la corrosion. En effet, la vitesse d’oxydation de l’aluminium est sensiblement ralentie par une fine couche d’oxyde d’alumine (Al2O3 ), de quelques micromètres d’épaisseur et imperméable, protégeant le métal contre la corrosion. Cette protection cinétique, appelée passivation de l’aluminium, explique que l’aluminium soit utilisé dans les domaines de l’aéronautique, de la construction, ainsi que dans l’alimentaire.
Les canettes de soda, notamment, sont composées d’aluminium, et le gallium représente un grain de sable dans cette mécanique bien huilée de la passivation.

Et pour cause : le gallium entrave la formation de la fine couche d’alumine censée protéger l’aluminium, rendant le métal très sensible a la corrosion. L’oxydation rend alors la canette… étonnamment fragile.

Par Rahman Moonzur

Nanotechnologies et nanomatériaux pour la construction – Bâtiment et milieu urbain

Un monde aussi traditionnel que le bâtiment et le génie civil – le « BTP » pour faire court – peut-il être un terreau fertile pour l’accueil d’innovations faisant appel à la maîtrise de la matière aux échelles de longueur approchant celles de l’atome et des molécules ? Il n’y a pas si longtemps la question aurait paru saugrenue, tant le désir de traditionnel et de perpétuation des savoir-faire était au cœur des préoccupations, en particulier dans le monde du bâtiment. Le seul moteur du changement était pour le particulier le désir d’un confort supérieur et, pour le monde industriel, la marche vers plus de rationalité, d’efficacité et de profit.

Les choses ont changé, même si les motivations qui viennent d’être évoquées restent d’actualité. Les soucis d’efficacité énergétique, de réduction des émissions de gaz à effet de serre, d’économie des ressources naturelles, de durabilité et de recyclabilité, de maintien de la biodiversité, de sécurité aussi ont désormais pris le pas sur les précédents ou, tout au moins, les complètent. Ceci ouvre des perspectives nouvelles pour les innovations. Il reste malgré tout deux spécificités du monde de la construction à laquelle les nanotechnologies doivent s’adapter.

La première est l’échelle – en volume, tonnage, nombre de pièces – à laquelle ces technologies doivent pouvoir diffuser. Aucun autre domaine de l’activité humaine ne rivalise sur ce point avec la construction.

La seconde spécificité, qui découle en réalité de la première, est ce que l’on pourrait appeler la rusticité ou, plus exactement, la robustesse impérative de leur mise en œuvre. Une technologie n’a de chances de se répandre dans le monde de la construction que si elle est compatible avec une mise en œuvre relativement simple et si possible tolérante (robuste) vis-à-vis des écarts de procédure.

Le monde de la « construction » recouvre en réalité plusieurs domaines assez distincts sur le plan technique. Le premier est celui du bâtiment, c’est-à-dire essentiellement de l’habitat – individuel ou collectif – et des bâtiments du tertiaire. Le deuxième recouvre les grandes infrastructures de ce que l’on appelle habituellement le génie civil. C’est le monde des « ouvrages d’art » : ponts, tunnels, viaducs, barrages… Le troisième est celui de la route, qui possède lui aussi ses spécificités. Ce premier dossier traite du bâtiment en se concentrant sur les matériaux d’enveloppe et, plus particulièrement, sur les fonctionnalités que les nanotechnologies leur apportent grâce, le plus souvent, à l’ingénierie de leur porosité et de leurs propriétés de surface.

En savoir plus

News Environnement : juillet 2012

Victoire juridique pour l’EPA qui valide sa position dans la régulation des Gaz à Effet de Serre

« C’est ainsi que fonctionne la science. L’EPA n’a pas à redémontrer l’existence de l’atome chaque fois qu’elle aborde une question scientifique ». Ce court extrait de l’arrêt rendu le 26 juin dernier reflète la vigueur et l’unanimité du sentiment qui a animé les trois juges de la cour fédérale d’appel du District de Columbia pour débouter les plaignants contre les récentes décisions de l’Environmental Protection Agency.

Pourtant, pour un peu, cet arrêt en faveur de l’EPA serait passé inaperçu. Il a en effet été noyé par le déferlement médiatique entourant la décision de la Cour Suprême au sujet de la réforme du système de santé, qui a vu l’administration Obama remporter une victoire éclatante. Mais le verdict qui valide les méthodes de l’EPA est important, lui aussi, puisqu’il légitime la stratégie adoptée par l’administration en matière de lutte contre le changement climatique : si le législateur ne s’empare pas du dossier, les gaz à effet de serre (GES) seront traités par voie réglementaire…

Dans son arrêt, la cour d’appel statue, à l’unanimité des trois juges, que les gaz à effet de serre menacent la santé humaine, validant l’ « endangerment finding » de l’EPA, une décision-clé issue du verdict rendu par la Cour Suprême en 2007, lequel enjoignait l’agence de statuer sur la dangerosité des GES pour « la Santé et le bien-être humains », ce qu’elle fit de manière positive en 2009.

La cour reconnaît donc la légitimité de l’EPA à réglementer les émissions de GES. Ce faisant, elle valide les dispositions de l’EPA sur les émissions industrielles en général, sur les centrales de production d’énergie et sur les émissions des véhicules. Ces dispositions avaient été attaquées par des groupes de pression (U.S. Chamber of Commerce, the National Mining Association, the National Association of Manufacturers, etc.) et par des Etats fédérés (dont le Texas et la Virginie). La cour indique dans son arrêt que les réglementations de l’EPA ne sont « ni arbitraires ni capricieuses », et que l’interprétation du Clean Air Act par l’EPA est « correcte et sans ambiguïté ». Cette décision constitue une victoire pour les ONG de protection de l’environnement et pour l’administration Obama, et renforce le corpus juridique de la règlementation des gaz à effet de serre.

Globalement, elle n’est cependant pas révolutionnaire, puisqu’elle aménage d’amples marges de manoeuvre pour les industriels. Elle aura néanmoins des conséquences pour le secteur de la production d’énergie et pour celui des constructeurs automobiles à moyen terme. En effet, les règles de l’EPA ne concernent pour l’heure que les nouvelles installations fixes, émettant plus de 100.000 tonnes de CO2 par an, et accordent aux centrales à charbon 10 ans pour se doter d’un système de séquestration du carbone (Carbon Capture and Storage ou CCS. Mais au vu du surcoût qu’engendre le CCS dans les conditions économiques du moment, ce texte revient concrètement à interdire la construction de nouvelles centrales à charbon sans CCS.

L’arrêt impactera également le secteur automobile : l’administration Obama avait proposé en 2011 un doublement des objectifs globaux de consommation des véhicules pour 2025 (normes dites « Corporate Average Fuel Economy », ou CAFE). Ce doublement requiert que la flotte mise sur le marché par un constructeur atteigne une efficacité de 54.5 miles/gallon (4.3L/100kms) en 2025, soit une amélioration de 5% par an. Actuellement, les normes sont de 27 miles/gallon (8.6 L/100kms) et passeront à 35.2 miles/gallon (6.7 L/100kms) en 2016. Ces performances permettraient d’économiser 12 milliards de barils de pétrole et de réduire les émissions de GES de 6 milliards de tonnes entre 2017 et 2025, soit environ 10% des émissions américaines sur la base de 2005.

L’arrêt de la cour d’Appel constitue indéniablement une victoire à court terme, pour l’administration comme pour les ONG environnementales, en légitimant l’action de l’EPA. Mais il convient de ne pas oublier que sa portée pratique reste modeste : en termes de réduction des émissions des GES des sources fixes, seule la réglementation des installations existantes aurait un véritable impact. Par ailleurs, la Chambre des Représentants (où le mouvement Tea Party est très présent) et le Sénat (malgré sa majorité démocrate), voient les pouvoirs de l’EPA d’un mauvais oeil. Le camp républicain est loin d’en avoir fini dans sa bataille contre l’EPA, qui vise à rogner à l’agence son pouvoir réglementaire.

Source : http://www.bulletins-electroniques.com/actualites/70675.htm

Conversion des mouvements en électricité

Une nouvelle nanotechnologie développée par une équipe de recherche du département de sciences des matériaux et ingénierie de l’Université Nationale Tsing Hua (NTHU) permet de générer de l’électricité en stockant l’énergie créée par le mouvement.

L’équipe a réussi à développer des nanogénérateurs, à base de nanofils de nitrure de gallium, capables de récupérer l’énergie cinétique du mouvement en la stockant sous forme d’énergie électrique, par effet de piézoélectricité.

Pour le moment, ces nanogénérateurs ont été utilisés pour alimenter de petites diodes électroluminescentes (LED). A terme, cette technologie pourrait être utilisée dans la confection de nouveaux textiles intelligents.

Source : http://www.bulletins-electroniques.com/actualites/70686.htm

Publication du rapport « Les Bioénergies au Japon : politiques publiques et R&D »

En 1997, en signant le protocole de Kyoto, le Japon s’est engagé à réduire ses émissions de gaz à effet de serre de l’ordre de 6% pour 1998. Depuis cette date, cet engagement pour l’environnement n’a jamais faibli. Au contraire il a été renforcé par les décisions prises par le gouvernement à la suite des événements tragiques qui ont frappé le Nord-Est du pays en mars 2011.

Il s’est concrétisé par la volonté, affichée par le Cabinet du premier ministre, de développer les différentes filières des énergies renouvelables, notamment en promouvant la construction de centrales géothermiques, en mettant en place des tarifs avantageux de rachats d’électricité verte, etc. Le développement de la filière « bioénergies » répond parfaitement à cette volonté, en ceci qu’elle permet la production à la fois d’électricité et de combustible liquide ou gazeux.

Les matières premières de ces bioénergies recouvrent une vaste gamme, allant des ordures ménagères aux copeaux de bois en passant par la paille de riz. Leur avantage principal réside dans le fait qu’elles dégagent le dioxyde de carbone qu’elles ont emmagasiné lors de leur croissance. De ce fait, leur bilan carbone est considéré comme neutre.

L’engagement pris par le Japon se matérialise sous la forme de nombreux projets de recherche menés soit par des instituts de recherche nationaux, soit au sein des universités. Mais cette volonté ne s’arrête pas à la porte des laboratoires. Elle mobilise les collectivités locales via le label de « biomass-town » qui est attribué aux villes s’engageant à développer la filière biomasse et à impliquer les citoyens dans cette dynamique. Les sociétés privées participent à ces actions en créant des pôles manufacturiers expérimentaux de biocarburants ou en incorporant des technologies utilisant les bioénergies dans leur fonctionnement quotidien. A travers tout l’archipel de nombreuses initiatives naissent et sont supportées par le gouvernement, ce dernier ayant voté le 26 août 2011 une loi visant à promouvoir l’usage des énergies renouvelables, et parmi elles, des bioénergies.

Cet engagement apparaît crucial et déterminant pour l’avenir du Japon à la lumière des événements récents survenus à la centrale de Fukushima Daiichi. C’est à la suite du 11 mars 2011 que les importations de carburants fossiles et de gaz naturel ont crû de manière significative, augmentant ainsi l’empreinte carbone du pays. De plus le Japon est particulièrement sensible à la fluctuation des prix des énergies fossiles en raison de l’absence quasi-totale de ressources pétrolières et de gaz naturel sur son territoire.

Prenant en compte le risque sismique élevé, ces facteurs ont poussé le gouvernement à réévaluer sa politique énergétique et plus globalement l’importance donnée au nucléaire. La volonté du Japon de développer la filière « bioénergies » est à rapprocher des initiatives prises par la France dans ce domaine : des recherches complémentaires existent dans les laboratoires hexagonaux.

Ce document a pour objectif de présenter clairement les initiatives gouvernementales, locales et privées dans le domaine des bioénergies ainsi que l’état de la recherche sur les biocarburants au Japon.

Source : http://www.bulletins-electroniques.com/actualites/70616.htm

News Informatique : juillet 2012

Gestion de crise : le prototype Descartes couvre l’ensemble du spectre

Le 16 février dernier, dans les murs de Thales Research & Technology, à Palaiseau, non loin de Paris, s’est déroulée la démonstration finale d’un système de gestion de crise baptisé Descartes. Fruit de 42 mois de travail des équipes du groupe Thales (Thales Services, Thales Research & Technology, Thales Communication and Security), du CEA (CEA-DAM, CEA-LIST) et de trois PME (Géo 212, Géoconcept, Masa Group), réalisés dans le cadre d’un projet, piloté par Thales, labellisé par le pôle de compétitivité Systematic Paris Région et financé en partie par le Fonds Universel Interministériel (FUI), ce prototype unique en son genre, puisqu’il couvre tout le spectre de la gestion de crise, a donc démontré ses potentialités tout à fait exceptionnelles à l’occasion d’un scénario de crise particulièrement difficile. Précisons que tout au long du développement de ce projet, le suivi technique a été assuré par la Direction Générale de l’Armement et plus particulièrement par son établissement de Rennes.

Préfet, sapeurs pompiers, force de l’ordre, service de santé, tous avaient répondu évidemment présent pour cette démonstration finale qui faisait suite à un exercice d’évaluation effectué le 18 janvier dernier. La salle où elle s’est déroulée avait été organisée en un centre opérationnel zonal, un centre opérationnel des forces de l’ordre (police et gendarmerie) et un centre opérationnel des sapeurs-pompiers. Le scénario retenu était le suivant : trois attentats à l’explosif venaient de toucher les transports en commun dans Paris. Un attentat supplémentaire s’était produit sur un des sites déjà touchés, attentat au cours duquel des substances radiologiques et chimiques avaient été utilisées. Il s’agissait donc d’une crise majeure en plein Paris pour laquelle le prototype de commandement et de contrôle issu du projet Descartes allait devoir coordonner tous les acteurs en présence.

Un ensemble de 6 fonctions principales à disposition de l’opérateur

Dès la réception de l’alerte qu’un attentat venait d’être commis, la fonction « contexte » a permis a l’opérateur de créer une situation, l’objectif étant d’y stocker toutes les informations remontant et à venir concernant l’événement. « C’est en fait un conteneur », précise-t-on chez Thales. Grâce à la fonction « observation-main courante », une référence événementielle a pu être aussitôt créée, afin d’y saisir toutes les informations et les décisions reliées à l’événement via un code couleur. « Une information saisie ne peut plus être modifiée. Aussi peut-elle servir de référence judiciaire par la suite, ce qui constitue une innovation spécifique du système », souligne l’un des responsables du projet. La fonction « Renseignement-SITAC », elle, a permis de matérialiser la situation sur une carte et d’assurer ainsi le suivi à l’aide de tableaux du nombre des victimes et des moyens d’intervention engagés sur place. « Les déplacements des véhicules géo-localisés, à l’aide du système d’information géographique (SIG) intégré à la plateforme, peuvent ainsi être suivi en temps réel de même que les flux vidéo de toutes les caméras connectées au système ».

Parallèlement, la fonction « Opération » a permis la création d’ordres d’engagement des secours, sachant que l’opérateur peut les créer selon quatre modes (en manuel, à partir d’un plan existant, à partir d’un ordre préparé par la cellule d’anticipation, à partir du module d’ordonnancement). Disposant d’une autre fonction dite d' »Anticipation », les forces en présence ont pu envisager les évolutions possibles de la situation et préparer des réactions à ces différentes évolutions. « Ainsi l’opérateur a pu présenter simultanément à l’écran les différentes solutions avec leurs avantages et leurs inconvénients afin de fournir toutes les informations nécessaires au décideur final », indique-t-on chez Thales. Enfin, grâce à la fonction « Collaboration », la gestion de l’ensemble des messages entrants et sortants du centre d’opération a pu être assurée.

Une palette d’outils de simulation développés dans le cadre de Descartes

Ajoutons que pendant toute la durée de cette démonstration, les représentants des pouvoirs publics et les différents décideurs ont eu à leur disposition d’autres systèmes, modules et outils d’aide à la décision, intégrés à la plateforme via le Bus SOA (Service Oriented Architecture), qui leur ont permis d’évaluer le contexte de la crise et ses évolutions en temps réel. Plus généralement, dans le cadre de ce projet Descartes, une palette d’outils de simulation a également été développé. Ainsi le CEA-DAM a conçu un outil de modélisation de la progression spatio-temporelle des panaches de gaz toxiques, grâce auquel il est permis d’évaluer en milieu urbain les effets sanitaires sur la population de panache toxique et de déterminer les zones de danger compte tenu du bâti urbain et du réseau des rues. De son côté, le CEA-LIST a mis au point un outils de formation utilisant la réalité virtuelle. Au moyen d’un casque de vision et d’un dispositif de capture de mouvement, celui-ci permet de simuler en 3D une intervention sur le site d’un événement. Pour sa part, MASA Group a développé un outil de simulation du comportement des acteurs et des foules, intégré à la plateforme de Thales. Enfin, Thales Training & Simulation a conçu un outil de simulation 3D grâce auquel il est possible de visualiser une zone et de s’y déplacer de manière immersive afin de se familiariser avec les lieux, de planifier le cheminement des équipes d’intervention ou de décider de l’implantation d’un poste de commandement.

Source : http://www.bulletins-electroniques.com/actualites/70162.htm

 

Une clé de cryptage palpitante

Une équipe du département de génie électrique de l’Université Nationale Chung Hsing vient de démontrer que les battements cardiaques d’une personne pouvaient être utilisés pour le cryptage et le décryptage de données.

Nos battements de coeur suivent un modèle irrégulier qui ne se répète jamais tout à fait et qui est unique à chacun d’entre nous. L’équipe de recherche a donc développé un algorithme, basé sur la théorie du chaos, permettant de générer des clés de cryptage au caractère aléatoire de très grande qualité à partir d’un électrocardiogramme.

Ceci laisse entrevoir le développement d’appareils qui par le simple toucher pourraient crypter et décrypter des informations personnelles

 

Source : http://www.bulletins-electroniques.com/actualites/70689.htm

 

A propos d’ordinateurs quantiques

Mike Thewalt, physicien à l’Université Simon Fraser de Vancouver (Colombie-Britannique), ainsi que des collègues européens, viennent de montrer comment une forme spéciale de silicium pourrait constituer une brique de base dans le concept encore flou d’informatique quantique.

L’ordinateur quantique est une machine futuriste qui pourrait fonctionner à des vitesses très au-delà des superordinateurs actuels les plus rapides du monde, en exploitant la capacité des atomes et des particules subatomiques (ions, photons, électrons) à effectuer des tâches de mémoire et de traitement. Seul ce nouveau silicium hautement enrichi et purifié permet ces processus atomiques, dont les scientifiques pensent que l’apparition et l’observation nécessitent l’utilisation de vide quasi-parfait dans un environnement à l’état solide.

En utilisant ce « 28Silicon », les scientifiques ont étendu de 3 minutes (à l’origine quelques secondes) la durée pendant laquelle ils ont pu manipuler, observer et mesurer un état cohérent ou quantique. « C’est de loin un record dans des systèmes à l’état solide », dit Thewalt. « Si vous aviez posé la question il y a quelques années sur la faisabilité de cette expérience, les gens vous auraient répondu non. Cela ouvre de nouvelles voies pour l’utilisation de semi-conducteurs tels que le silicium en tant que base de l’informatique quantique ».

Le chemin est encore long vers l’informatique quantique, qui remet en cause tout ce que nous avons appris avec les ordinateurs actuels. Alors que ces derniers traitent des unités fondamentales d’information appelés « bits », et qui peuvent prendre une valeur de « 0 » ou « 1 », les ordinateurs quantiques utiliseraient des « bits quantiques » (aussi appelés « qubits »), qui pourraient valoir « 0 » ou « 1 » en même temps. Etre capable de mettre en oeuvre un tel ordinateur avec suffisamment de « qubits » permettrait de réaliser des calculs en quelques minutes, là où il faudrait des années à des supercalculateurs actuels, et peut-être même des millions d’années à nos ordinateurs de bureau.

Source : http://www.bulletins-electroniques.com/actualites/70649.htm

Les trois-quarts de la population mondiale ont accès au téléphone mobile

Dans quelques années, il y aura plus d’abonnements téléphoniques que d’humains ! La téléphonie mobile est partout et son avenir, florissant.

Situation ironique quand on sait que ce succès n’est pas dû au besoin de communiquer entre personnes, mais aux multiples applications pratiques permises par cette technologie. D’après le rapport « Maximizing Mobile » publié le 17 juillet 2012, si les déficiences de la téléphonie fixe ont boosté le marché du mobile, ce sont principalement les applications qui ont séduit les consommateurs.

Pour Rachel Kyte, vice-présidente de la Banque Mondiale, « le téléphone mobile offre de formidables opportunités pour améliorer le développement humain et économique, fournissant un accès basique aux informations en matière de santé, permettant de régler en espèces ou encore favorisant la création d’emplois ».

Ainsi, parmi les 30 milliards d’applications téléchargées en 2011, celles permettant de payer avec son mobile ont rencontré un franc succès comme par exemple le système de paiement dématérialisé, M-PESA, développé au Kenya pour favoriser l’envoi de devises à des tarifs raisonnables. Toujours pour gagner de l’argent, une application permet aux agriculteurs d’être informés en temps réel des cours des marchés, une autre d’informer sur les conditions climatiques très localement (humidité, température…). Au Niger, les revenus des agriculteurs et des négociants en céréales ont ainsi progressé de 30 %, de 34 % pour les planteurs de banane en Ouganda.

Pour les auteurs du rapport, il n’y a aucun doute : la téléphonie mobile va continuer à progresser, grâce notamment à la chute du prix des appareils et les progrès en termes de qualité de réseau.

Par Audrey Loubens, journaliste scientifique

Alcatel-Lucent renforce sa position sur le marché chinois de la téléphonie mobile

China Telecom, via son programme Broadband China, tente de faire face à la demande toujours croissante en vidéos et en données en basculant vers le tout IP (Internet protocol). En effet, avec l’amélioration de la connectivité à travers le pays et l’utilisation croissante des smartphones, tablettes et autres terminaux mobiles, la demande en communications vidéo et services Internet bondit de 40 % chaque année. 

Prévu pour distribuer des services tels que la vidéo à la demande ou la télévision sur IP (IPTV) à des millions de foyers chinois, le déploiement FTTH (fiber-to-the-home, fibre jusqu’au domicile) à grande échelle de China Telecom génèrera des besoins de capacité encore plus importants sur son réseau. C’est là qu’Alcatel-Lucent intervient.

« Notre technologie IP/MPLS innovante fera partie intégrante de l’extension du réseau de China Telecom et permettra de fournir un accès haut débit à des millions de personnes en Chine », se félicite Ben Verwaayen, directeur général d’Alcatel-Lucent. Objectif : fournir des connexions FTTH à 35 millions de familles supplémentaires, des vitesses d’au moins 4 Mbits/s à 50 % des clients haut débit, et un accès haut débit fixe à 20 millions de nouveaux foyers, le tout avant la fin de l’année ! A terme, 800 millions de personnes, dont 200 millions en zones rurales, seront connectées en 2015.

Par Audrey Loubens, journaliste scientifique

La réalité virtuelle au service de la formation : un outil prometteur

Au sein du Département Intelligence Ambiante et Systèmes Interactifs (DIASI) du CEA/LIST, les chercheurs du Laboratoire de Simulation Interactive (LSI) développent des travaux autour de la simulation. Autrement dit, ils reproduisent des phénomènes physiques de manière interactive, l’objectif étant de permettre à un opérateur humain non seulement de visualiser ces phénomènes mais de pouvoir interagir avec eux. Aussi la simulation interactive présente-t-elle un grand intérêt dans le domaine de la réalité virtuelle. C’est ainsi que dans le cadre du projet Descartes, piloté par Thales, labellisé par le pôle de compétitivité Systematic Paris Région et financé en partie par le Fonds Unique Interministériel (FUI), un projet d’une durée de 42 mois qui vient de s’achever, les chercheurs du LSI ont développé, en collaboration avec les pompiers du centre CEA de Fontenay-aux-Roses, un outil qui permet à celui qui l’utilise d’être en immersion dans une rame de RER accidentée, et de s’y déplacer à la lueur de la lampe frontale fixée sur son casque afin d’effectuer une reconnaissance. Outil idéal pour la formation des pompiers, un système similaire pourrait à terme séduire également d’autres secteurs, et en particulier l’Education nationale.

« Imaginez que l’on simule un écoulement de fluide. On souhaitera alors pouvoir y plonger une main afin d’observer comment celle-ci perturbe cet écoulement », déclare Philippe Gravez, chercheur au sein du Laboratoire de Simulation Interactive du CEA/LIST. Eh bien, l’exercice auquel se sont livrés les chercheurs du CEA dans le cadre du projet Descartes, c’est un peu la même chose, à la seule différence que là, c’est un être humain, en l’occurrence un pompier, qui a été immergé dans un environnement virtuel, à savoir l’intérieur d’une rame de RER qui vient d’être l’objet d’un attentat. Un observateur extérieur verra ce pompier, dans une pièce, équipé de capteurs grâce auxquels le système informatique va être capable de suivre tous ses mouvements. « Ce vrai pompier et les mouvements qu’il effectue servent à animer un pompier virtuel, l’avatar du premier, qui, lui, se déplace dans un environnement virtuel en prenant en compte toutes les contraintes de ce dernier », explique le chercheur du CEA. Autrement dit, pas question pour le pompier de ne pas tenir compte des obstacles, comme la paroi de la rame du RER ou encore les sièges qui s’y trouvent. Ainsi, chaque fois qu’il se produit un contact entre le pompier virtuel et un élément de son environnement, il doit être aussitôt géré, ce qui n’est pas sans difficulté quand on sait qu’un modèle de rame de RER représente des centaines de milliers de polygones. « Il faut donc disposer d’algorithmes suffisamment rapides et d’une puissance de calcul importante pour détecter tous les contacts entre les polygones qui représentent l’humain virtuel et ceux qui représentent la rame dans laquelle il se déplace », précise-t-il.

Notre pompier réel est également équipé d’un casque de vision doté de deux petits écrans qui lui permettent de voir ce que verrait son avatar s’il était projeté dans cet environnement virtuel, les mouvements de ce casque étant traqués par rapport à la scène virtuelle. « Le casque est parfaitement adapté à la situation. En effet, il n’est pas trop lourd. Par ailleurs, les pompiers sont habitués à en porter un. Quant au champ de vision limité qu’il offre, ce n’est pas un problème puisque le pompier ne voit l’environnement que dans le faisceau de sa lampe frontale », indique Philippe Gravez. Ainsi équipé, celui-ci perçoit donc l’environnement virtuel et voit les contacts de ses mains. Grâce à cette vision 3D, il est par conséquent capable d’estimer les distances et de prévoir les contacts. Qui plus est, il ressent ces derniers, des vibreurs ayant été installés dans ses mains. Et que celui-ci vienne à ne pas tenir compte de cet avertissement sensoriel, de toute façon son avatar ne passera jamais à travers les obstacles et ne suivra pas alors tout à fait la progression du pompier.

Fruit d’un véritable partenariat entre les chercheurs du LSI et les pompiers du CEA – « dans ces domaines très appliqués, il n’y a pas de bons résultats sans partenariat fort « , tient à souligner Philippe Gravez – ce projet désormais achevé devrait connaître une suite. Aujourd’hui, les chercheurs s’orientent dans deux directions. La première a pour objectif de trouver une entreprise prête à investir dans le développement de ce produit. D’ores et déjà des discussions sont en cours avec certains partenaires. La seconde part du constat que le rendu des contacts à l’aide de vibrations n’est pas pleinement satisfaisant. D’où l’idée de faire appel à une autre technologie, la réalité augmentée qui, même si le concept sur lequel elle repose est connu depuis déjà longtemps, a enregistré quelques avancées notoires au cours de ces dernières années. « L’idée de la réalité augmentée c’est de pouvoir ajouter des objets virtuels dans un environnement réel », précise le chercheur du LSI. L’objectif de ces chercheurs serait alors d’utiliser une vraie rame de RER, voire une maquette réelle, et d’y recréer certaines conditions, par exemple une fumée virtuelle, un feu virtuel, des bruits virtuels, autrement dit combiner une situation totalement virtuelle à une rame bien réelle. « Le pompier aura alors de vrais contacts avec la rame. En revanche, si un siège brûle à l’intérieur, ce sera virtuel. Or dans ce cas, il semblerait que le potentiel pour un pompier soit beaucoup plus important », observe le chercheur du CEA qui indique que ce type d’applications fait déjà l’objet de travaux mais cette fois-ci pas pour les pompiers.

La réalité virtuelle dans l’Education nationale : bientôt une réalité ?

Car si ce type d’applications pourrait permettre aux pompiers d’appréhender des situations exceptionnelles auxquelles il leur est difficile d’être confronté hormis dans le cadre d’interventions sur le terrain, elle intéresse aussi de vastes secteurs comme l’Education nationale. Des appels d’offres sont en cours dans le cadre des Investissements d’Avenir, ceux-ci visant à développer des outils numériques pour les classes. « Les élèves pourraient alors laisser libre cours à leur imagination puisqu’ils se trouveraient plonger dans un univers virtuel », estime Philippe Gravez. Ce serait pour eux la possibilité de travailler à des échelles qui ne sont pas toutes accessibles, comme celle de l’Univers ou encore celle de l’atome et du monde quantique, mais aussi de manipuler des bâtiments complets dans le cadre de formations aux métiers de ce secteur. « Nous avons d’ores et déjà rencontré des équipes d’enseignants très enthousiastes pour développer ce genre d’outils du futur ». Les chercheurs du LSI sont allés jusqu’à proposer un projet, en collaboration avec les fameux Compagnons du Devoir, visant à développer une formation pour les tailleurs de pierre, « avec la possibilité de pouvoir tester son geste en fonction des propriétés du matériau choisi. Cette démarche présente un intérêt pédagogique considérable puisqu’elle permet un lien fort entre le cours théorique et la partie pratique ». Preuve que l’aventure ne fait que commencer tant les applications potentielles sont immenses.

(Source : Bulletins Electroniques)

 

Pour aller plus loin :

Découvrez la base documentaire Techniques de l’Ingénieur :

 

Participez à la formation Techniques de l’Ingénieur :

L’éthique du capitalisme

L’auteur (professeur de philosophie) soutient que, selon l’ethos, la doctrine et la morale du capitalisme, l’homme cesse d’être un « être naturel », en raison du progrès technique, et un « animal politique »,  sous l’effet de l’économie de marché,  justifiant ainsi l’aphorisme de Saint Simon : « du gouvernement des hommes à l’administration des choses ».

Cet état de « non nature et de liberté indéterminée » a libéré ses aspirations (la « grande libération », selon Nietzsche), mais a aussi révélé les contradictions de l’homme moderne, partagé entre sa condition de consommateur et de producteur, de citoyen et de contribuable, d’hédoniste et de pécheur…

Pour « repenser la vertu » – au sens d’Aristote – il doit servir l’enjeu écologique, reconstruire son identité et la fondre dans la conscience culturelle collective. L’homme d’aujourd’hui n’a pas de règles absolues à suivre, mais reste soumis à l’exigence de rechercher une harmonie psychique selon un nouveau modèle d’homme vertueux. Un ouvrage exigeant qui fait appel aux plus grands philosophes (avec une référence dominante à Nietzsche et à Foucault) pour tenter de résoudre les dilemmes de l’homme moderne.

 

L’ETHIQUE DU CAPITALISME, La question de la vertu à l’ère du libéralisme

Jean-Christophe Torres

Edition L’Harmattan, 2011, 279 pages.

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :