Le débat sur les OGM redémarre à cause des pommes de terre

La Commission européenne n’a pas suivi les règles de l’UE sur l’autorisation de la mise sur le marché de la pomme de terre génétiquement modifiée Amflora, juge le tribunal de l’UE.

Amflora n’est plus cultivé en Europe, car BASF a retiré le produit en 2012 en raison d’oppositions provoquées par le tubercule génétiquement modifié. Le jugement soulève toutefois à nouveau des inquiétudes quant au système d’autorisation de mise sur le marché, jugé complexe et très critiqué, pour les cultures OGM.

« La Commission ayant violé, d’une manière substantielle, ses obligations procédurales, le Tribunal annule les décisions contestées », indique la cour située à Luxembourg dans un communiqué.

La Commission et BASF n’étaient pas disposées à fournir des commentaires pour l’instant.

Système d’autorisation contesté

L’autorisation surprise de la mise sur marché d’Amflora constituait l’une des premières décisions prises par John Dalli, le commissaire européen à la Santé de l’époque. Le commissaire maltais, entré en fonction en février 2010, a été contraint de démissionner à la suite d’un scandale de corruption avec l’industrie du tabac. C’était la deuxième fois qu’une plante OGM pouvait être cultivée en Europe. Cette décision a suscité la colère des défenseurs de l’environnement et des groupes de consommateurs.

La Hongrie a également introduit un recours en annulation à l’encontre des décisions d’autorisation de la Commission. L’Autriche, la France, le Luxembourg et la Pologne ont soutenu l’initiative. La Commission avait d’abord proposé la culture et la vente d’Amflora en 2007, à la suite d’une évaluation scientifique positive de l’Autorité européenne de sécurité des aliments (EFSA).

Les ministres européens et les représentants de l’UE ne sont pas parvenus à trancher la question. La Commission a autorisé unilatéralement la mise sur le marché du produit en 2010. D’après le tribunal de l’UE, la Commission aurait dû soumettre de nouvelles propositions de décisions d’autorisation aux États membres à la suite de l’avis consolidé de l’EFSA en 2009. L’exécutif avait tout simplement statué sur la version de 2007.

« La Commission a violé les règles procédurales des régimes d’autorisation des OGM dans l’Union », conclut le tribunal. Seul un produit OGM est actuellement cultivé à des fins commerciales en Europe : un maïs résistant aux insectes mis au point par Mosanto. Ce produit est disséminé sur environ 100 000 hectares de terres arables, principalement en Espagne.

La quantité cultivée dans l’UE est une goutte d’eau par rapport à la culture mondiale d’OGM (170 millions d’hectares). Les continents américain et asiatique sont très actifs dans le domaine.

Alors que plusieurs avis scientifiques de l’EFSA ont conclu que les cultures OGM sont aussi sûres pour les humains et l’environnement que les produits similaires conventionnels, la population européenne continue de s’opposer à cette technologie.

Le débat reste vif au sein de la communauté scientifique, qui conteste les études démontrant les risques des OGM.

Source : Euractiv

Et aussi dans les
ressources documentaires :

L’Upsalite, de la magnésie de synthèse ultra-absorbante

Comme cela arrive parfois en sciences, cette découverte est due au hasard. Des chercheurs suédois un peu têtes en l’air n’ont pas rangé leur matériel expérimental avant de partir en week-end.

Quelle ne fut pas leur surprise le lundi matin de retrouver dans la chambre à réaction en lieu et place de résidus un gel rigide inconnu. Ils décident alors de le laisser sécher. En y regardant de plus près, les scientifiques de l’université d’Uppsala ont découvert qu’il s’agissait de carbonate de magnésium MgCO3. Une première surprise puisqu’à ce jour, le carbonate de magnésium n’avait jamais été synthétisé sans eau et à température ambiante.

Mais cette première fabrication de magnésie anhydre s’accompagne d’une autre découverte : cette forme est bien plus absorbante que toute autre forme naturelle. La raison de cette très importante capacité d’absorption est due à l’existence de mesopores, qui procurent à l’Upsalite une très importante surface de 800m²/g.

La synthèse de l’Upsalite est très simple et peu coûteuse : de l’oxyde de magnésium et du dioxyde de carbone dissous dans du méthanol. Une recette facile qui devrait contribuer à l’essor de ce tout nouveau matériau de synthèse, l’Upsalite, baptisé en référence à l’université suédoise hébergeant l’équipe à l’origine de la découverte. 

Un tel pouvoir absorbant pourrait faire la joie de l’industrie électronique ou pharmaceutique, en perpétuelles recherche d’un meilleur contrôle de l’humidité. Cette poudre ultra-absorbante pourrait aussi servir à capturer des toxines ou d’autres produits toxiques. 

Par Audrey Loubens, journaliste scientifique
 

Découvrez le pack « Matériaux fonctionnels »


Portrait d’expert : Jean Frêne

Jean Frêne est expert en lubrifications et tribologie. Professeur émérite au laboratoire de mécanique des solides de l’université de Poitiers, membre de l’Académie des Technologies, de l’American Society of Mechanical Engineers, Fellow of the Society of Tribologists and Lubrication Engineers, prix Edmond Brun de l’Académie des Sciences en 2006, Jean Frêne est chercheur en systèmes lubrifiés et tribologie depuis 1966.

Au cours de ses recherches, il a notamment collaboré avec les secteurs des centrales électriques, du nucléaire, du spatial, de l’automobile ou encore des énergies fossiles, sur des problématiques liées aux machines tournantes, mêlant de fait recherche et conseil. Il a ainsi été directeur scientifique du groupement de recherche créé par le CNRS, le CNES et la SEP (actuelle SNECMA) sur les roulements des turbopompes de la fusée Ariane 4.

Il anime également chez Techniques de l’Ingénieur la formation Systèmes lubrifiés : fonctionnement et solutions techniques.

Aujourd’hui grâce à Techniques de l’Ingénieur, l’expertise internationalement reconnue de Jean Frêne est à votre disposition pour vous accompagner dans la plupart de vos problématiques de tribologie.

REACH : les news du mois de décembre 1/2

Produits chimiques : bientôt une nouvelle directive

Le Comité des représentants permanents (Coreper), chargé de préparer les travaux du Conseil de l’Union européenne, a approuvé le 4 décembre une nouvelle directive sur les produits chimiques.Ce texte vise à protéger la santé et la sécurité des travailleurs contre les risques dus à l’exposition aux produits chimiques sur le lieu de travail. Il prévoit de modifier cinq directives afin de les mettre en conformité avec le règlement CLP.

La nouvelle directive devra être transposée par les Etats membres avant le 1er juin 2015, en cohérence avec le règlement CLP qui prévoit que, à cette échéance, tous les mélanges devront être classés, étiquetés et emballés conformément à ses dispositions.

Modification du règlement CLP

Un rectificatif au règlement n 487/2013 de la Commission du 8mai 2013 modifie, aux fins de son adaptation au progrès technique et scientifique, le règlement (CE) n 1272/2008 du Parlement européen et du Conseil relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges.

Le texte est paru le 06/12/2013 au Journal Officiel. Seule l’annexe 1 est modifiée.

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:326:0053:0053:FR:PDF

Mise à jour du guide pour les utilisateurs en aval et du guide pour l’élaboration des fiches de données de sécurité

05/12/2013

Le Guide pour les utilisateurs en aval a été mis à jour pour prendre en compte et mettre en œuvre l’expérience et les meilleures pratiques développées et mises en place depuis la version initiale rédigée en 2008.

Le Guide sur l’élaboration des fiches de données de sécurité (FDS) a été modifié. Cette mise à jour améliore la clarté et la cohérence des documents d’orientation de l’ECHA. 

Consultation publique pour des classifications et étiquetages harmonisés

05/12/2013

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé du acetochlor (ISO) (2-chloro-N-(ethoxymethyl)-N-(2-ethyl-6-methylphenyl)acetamide) et du methyl iodide (iodomethane). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 20 janvier 2014.

Newsletter de décembre

Elle est disponible sur le site de l’ECHA : http://newsletter.echa.europa.eu/

Le RAC conclut sur 9 avis pour les classification et étiquetage harmonisés

10/12/2013

Lors de sa dernière réunion du 2 au 5 décembre 2013, le comité d’évaluation des risques a adopté les avis concernant les substances suivantes : Sulfoxaflor ; Phenol, dodecyl-, branched (TPP) ; Lead (metallic) ; Tributyltin compounds ; Trisulfuron methyl ; Bifenazate ; Fenpyroximate ; Lenacil.

La boite à outils QASR – nouvelle version

12/12/2013

La version 3.2 de la boite à outils QASR est disponible sur le site de l’ECHA : 

http://echa.europa.eu/view-article/-/journal_content/title/qsar-toolbox-version-3_2-now-available

Le RAC et le SEAC d’accord sur des restrictions et des autorisations

13/12/2013

Le Comité d’évaluation des risques (RAC) et le SEAC ont adopté les observations sur proposition de restriction du plomb dans les articles de consommation présenté par la Suède. Des observations concernant trois autres substances ont également été adoptés.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/rac-and-seac-agree-on-restrictions-and-authorisations

Consultation publique pour des classifications et étiquetages harmonisés

13/12/2013

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé du N,N-dimethylacetamide, du perfluorononan-1-oic acid and its salts et de la réaction du bis(2,2,6,6-tetramethyl-1-octyloxypiperidin-4-yl)-1,10-decanedioate et du 1,8-bis[(2,2,6,6-tetramethyl-4-((2,2,6,6-tetramethyl-1-octyloxypiperidin-4-yl)-decan-1,10-dioyl)piperidin-1-yl)oxy]octane. Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 20 janvier 2014.

Plus d’informations sur : http://echa.europa.eu/harmonised-classification-and-labelling-consultation

 

Israël redoute une pollution liée à la destruction des armes chimiques syriennes

800 tonnes… C’est la quantité d’armes chimiques qui doit être détruite par les américains en pleine mer Méditerranée. Le régime de Bachar El Assad ayant enfin  reconnu officiellement détenir des armes chimiques, l’ONU a réussi à convenir d’un accord visant à détruire ce stock. Si cette décision était attendue avec impatience par une grande partie du monde occidental, reste à savoir comment procéder. En effet, la destruction des armes chimiques n’est pas sans risque.

Une première étape a déjà été franchie avec le désarmement dit fonctionnel, c’est-à-dire la destruction de l’ensemble des équipements de production, assemblage ou encore remplissage. Ce sont pas moins de 21 sites syriens de production et de stockage qui sont passés sous contrôle de l’ONU.  Ce coup d’arrêt au développement des armes chimiques en Syrie a été réalisé en un temps record, moins d’un mois.

Maintenant qu’aucune arme chimique ne peut plus être produite, reste à faire disparaitre celles qui l’ont déjà été. Une deuxième étape bien plus délicate au vu des réticences de nombreux états à intervenir directement sur le sol syrien à cause des risques liés aux affrontements. Car si la médiatisation du conflit s’est réduite, le pays reste en proie à la guerre civile. Ce sont donc les Etats-Unis qui vont prendre en charge cette étape. 

Les armes chimiques seront transportées à bord du Cape Ray, un navire de 198m de long capable d’en contenir 91 tonnes. Ce cargo naviguera donc en Méditerranée et pratiquera la destruction de son chargement à bord. L’équipage, formé à cette pratique, aura en charge de rendre inoffensives 800 tonnes d’armes chimiques, sur les 2100 recensées en Syrie. Pour réussir, des réacteurs en titane sont associés à un mélange d’eau à haute température et contenant des composants chimiques.

Un protocole qui n’a encore jamais été testé dans le réel, d’où les vives inquiétudes exprimées par l’état d’Israël. Ce dernier souligne la dangerosité des armes chimiques, notamment celles à base de gaz sarin. Leur décomposition génèrera de l’acide phosphorique dont le rejet en Méditerranée pourrait affecter la faune et contaminer les côtés Israéliennes.

La destruction du stock d’armes chimiques syrienne commence fin 2013, la phase de destruction des résidus chimiques est programmée pour février 2014.

Par Audrey Loubens

L’exposition aux PCB réduit les capacités intellectuelles

On savait les polychlorobiphényles (PCB) persistants, c’est-à-dire qu’ils restent présent dans la nature de nombreuses années. Des chercheurs canadiens viennent de prouver que notre exposition pendant plusieurs années à ces polluants induit un effet cognitif négatif. D’après cette étude parue dans la revue Environmental Health Perspective, les PCB s’accumulent et stagnent dans notre corps. Malgré des taux jugés faibles, leur présence permanente finit par retentir sur les facultés intellectuelles.

Pour mesurer cet effet à long terme, les scientifiques de l’Université de Montréal se sont intéressés à 708 séniors américains. Agés de 60 à 84 ans, les volontaires ont été soumis à des tests de façon à évaluer leurs capacités cognitives. Ces résultats ont été corrélés avec la valeur de concentration sérique en PCB présente dans leur organisme. Il ressort clairement un lien entre le taux de PCB et le score obtenu. Plus précisément, alors que la concentration sérique est de 271ng/g, une augmentation de 100ng/g implique une baisse de 2.7 points chez les sujets les plus âgés. Cette baisse est encore plus significative pour les femmes qui perdent 8 points sur leur score cognitif, l’équivalent de neuf années !

Ces polluants cumulent les toxicités. Ecotoxiques et reprotoxiques, leur influence nocive est connue depuis longtemps, la contamination se faisant principalement par l’alimentation.  Monsanto est même soupçonné d’avoir eu connaissance de cette toxicité dès les années 30, sans pour autant avoir stoppé leur utilisation. Classés au mieux comme cancérigènes probables mais surtout estampillés cancérigènes certains par le Centre International de recherche sur le cancer, les PCB n’ont été interdits sur le sol français qu’en 1987. 

Cette étude souligne un peu plus la nécessité d’être vigilants face aux PCB puisque même à faible dose, une exposition de 40 ans réduit les capacités intellectuelles.

Par Audrey Loubens, journaliste scientifique

Les phtalates favoriseraient les naissances prématurées

Les futures mamans vont être contentes. Un nouveau produit vient s’ajouter à la longue liste de ce qui leur est interdit. Il ne s’agit pas d’alcool, tabac, ou de lait pas frais, il s’agit des phtalates. Ceux-ci pourraient induire des risques d’accouchement prématuré. C’est en tout cas la conclusion d’une nouvelle étude parue au Journal of the american medical association. Des chercheurs américains y témoignent de leurs observations suite à leur étude menée sur 482 femmes. Leurs mesures révèlent l’existence d’un lien entre l’exposition des futures mamans aux phtalates et les naissances prématurées.

Des échantillons d’urine ont permis de déterminer le taux d’exposition aux phtalates des femmes. Celles ayant connu un accouchement prématuré présentent des niveaux de phtalates plus élevés que les autres. Les scientifiques émettent l’hypothèse que les phtalates modifient le système immunitaire de la mère, la rendant moins tolérante à la grossesse et favorisant les accouchement avant 37 semaines d’aménorrhée.

Une conclusion alarmante car les phtalates sont très présents dans l’environnement et le quotidien des femmes. Cette substance est utilisée dans les plastiques, les emballages de cosmétiques, les jouets ou encore les chaussures. La contamination se fait par contact, les phtalates migrant vers la surface de la matrice. Ils peuvent alors contaminer les aliments recouverts de films plastiques qui sont ensuite ingérés, migrer dans les cosmétiques appliqués directement sur la peau… Une omniprésence toxique, particulièrement pour cette population fragile que sont les femmes enceintes.

Par Audrey Loubens, journaliste scientifique

Revue du web #53 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web : 

  • Les tuiles constituant la protection thermique de la navette spatiale Atlantis, une prouesse technique ; 
  • Piloter un modèle réduit d’Airbus A380 télécommandé : un véritable jeu d’enfant !
  • Atlas, le Pierre Richard de la Boston Dynamics ; 
  • Le gadget (inutile ?) de la semaine : « Girlfriend coat », ou comment vaincre la solitude au Japon ; 
  • Enfin en bonus : Dan Clark, véritable virtuose du « heli-logging ».

Les tuiles constituant la protection thermique de la navette spatiale Atlantis, une prouesse technique 

Plus de deux ans déjà que le rideau est tombé sur la flotte de navettes spatiales américaines, avec pour baroud d’honneur le dernier vol d’Atlantis, effectué le 21 juillet 2011. Pour débuter notre cinquante-troisième Revue du Web, jetons un œil curieux sur les tuiles de protection thermique de la navette spatiale américaine, dont l’efficacité ne vous laissera pas indifférents.

Lors de la rentrée atmosphérique, les parties extérieures de la navette peuvent être soumises à des températures avoisinant les 1700 degrés, notamment la pointe avant et les bords d’attaque des ailes. Or, la carcasse de la navette doit impérativement être maintenue en dessous des 180 degrés, sans quoi la structure en aluminium se verrait sérieusement endommagée – ce qui est à l’origine de la destruction de Columbia durant la phase de rentrée atmosphérique, le 1er février 2003. La navette dispose donc d’un bouclier thermique, harnachement de tuiles en céramique recouvrant la structure, mises au point par le constructeur américain Lockheed dans les années 1960, dont le but est de minimiser la conductivité thermique tout en offrant une résistance maximale aux chocs thermiques. Ces tuiles sont constituées de verre de quartz pour près de 99,9%, avec une densité de 144,2kg/m3, et peuvent résister à une température allant jusqu’à 1200 degrés Celsius puis être immédiatement plongées dans de l’eau froide sans subir le moindre dommage.

Les tuiles conduisent tellement peu la chaleur qu’il est possible de les prendre (par les coins) presque instantanément après avoir été sorties d’un four les ayant portées à 1200 degrés.

Piloter un modèle réduit d’Airbus A380 télécommandé : un jeu d’enfant !

Il existe des modèles réduits d’avion à la pelle, mais rarement de la taille ni avec le souci du détail qui caractérise le petit avion de ligne civil très gros porteur présenté dans la vidéo qui suit… Réalisé à l’échelle 1/15eme, le petit A380 quadriréacteur du constructeur aéronautique européen Airbus, siglé d’un grand Singapore Airlines, a tout pour impressionner. D’une longueur de près de 4 mètres 50 pour une envergure de plus de 5,2 mètres, ce superbe avion modèle réduit décolle et atterrit sans encombre, sous les acclamations de quelques spectateurs.

Atlas, le Pierre Richard de la Boston Dynamics 

La Boston Dynamics ne chôme pas, c’est certain. Habituée de la Revue du Web, elle aligne les performances avec chacun de ses nombreux poulains, avec force assurance – et on aurait tort de s’en priver. Pourtant, l’un des derniers nés de la prolifique jeune société semble donner du fil à retordre à ses concepteurs. Atlas, robot humanoïde bipède anthropomorphe conçu pour se déplacer en extérieur en terrain difficile, à l’instar de la mule robot Big Dog, avait déjà vu sa première présentation au public tourner au fiasco, en finissant par se « casser » la cheville droite. Dans la vidéo qui suit, on peut le voir essayer de se dépatouiller fébrilement d’un terrain parsemé d’embûches, sans réellement convaincre, il faut l’avouer. Néanmoins, Atlas est en phase d’apprentissage, et il se pourrait bien qu’il gagne petit à petit en assurance.

Pour rappel, Atlas marche comme un être humain, en déroulant son pied à partir du talon, laissant ses membres supérieurs libres pour manipuler son environnement. En terrain particulièrement hostile, le robot humanoïde – du haut de son mètre 87 pour 130 kilos – s’adapte et fait preuve d’une grande coordination, allant jusqu’à s’aider de ses mains pour se frayer un passage à travers les obstacles. Articulées, les mains du robot Atlas ont été développées pour pouvoir utiliser des outils initialement conçus pour l’usage des humains. Articulée elle aussi, la tête d’Atlas embarque de nombreuses caméras et un télémètre laser lui permettant de mesurer les distances (avec un mode de fonctionnement proche du sonar avec les ondes acoustiques).

Atlas – encore au stade du prototype – est développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), Trelleborg Sealing Solutions (qui fournit les joints compacts haute performance, la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. 

Le gadget (inutile ?) de la semaine : « Girlfriend coat », ou comment vaincre la solitude au Japon

Les étudiants japonais de l’université de Tsukuba ont décidé d’unir leurs forces afin de lutter contre l’un des plus grands fléaux des temps modernes, la solitude et le manque de chaleur humaine… féminine. Mais comment transformer une vie extra-scolaire aussi pleine qu’un frigo de célibataire en quelque chose d’un tantinet plus excitant ? En prenant son courage à deux mains pour aller à la rencontre d’individus du sexe opposé ? Pas trop vite ! Non, grâce au « Girlfriend coat », le gadget (inutile?) de la semaine.

Le « Girlfriend coat » se présente sous la forme d’un manteau classique, mais est muni d’une ceinture spéciale censée recréer la douce sensation réconfortante produite par les bras d’une fille aimante autour de votre taille. Mais ce n’est pas tout… un jeu d’écouteurs permet de compléter l’expérience, laissant filtrer la voix criarde d’une fille s’excusant pour un hypothétique retard. Il n’en faut pas plus pour donner à la fois le sourire et du baume au cœur à notre jeune équipe d’étudiants, car à voir les mines réjouies de ce derniers – que l’on imagine tout de même volontiers potaches – nul doute que ce manteau soit un franc succès.

Bonus : Dan Clark, véritable virtuose du « heli-logging »

Avec la fin d’année et la période des fêtes qui se rapprochent à vitesse grand V, intéressons-nous pour clore cette cinquante-troisième Revue du Web à un pilote d’hélicoptère qui non seulement semble être un casse-cou, mais est également un as de la voltige. Son nom, comme celui de bon nombre d’inconnus bourrés de talent, ne vous dira absolument rien. : Dan Clark est un pilote d’hélicoptère américain officiant dans une sapinière du nord-ouest des États-Unis, la « Noble Mountain Tree Farm » à Salem, dans l’Oregon. Non content d’être un excellent pilote, Dan Clark est devenu avec le temps un véritable virtuose du « heli-logging », une technique somme toute assez commune permettant d’acheminer des arbres du lieu de coupe directement jusqu’à l’arrière d’un camion, à l’aide dudit hélicoptère.

On ne rigole pas avec les arbres de Noël dans l’Oregon : l’État est le plus gros producteur et exportateur du pays, représentant la coquette somme de 101 millions de dollars (près de 73 millions d’euros) pour 7,3 millions d’unités vendues chaque année.

Par Moonzur Rahman

La prévention des risques professionnels serait inefficace

2400 médecins du travail et de prévention  ont participé à une grande enquête baptisée Sumer. Pendant plus d’un an, ils se sont transformés en enquêteurs pour dresser un état des lieux de la prévention des risques en France. Et le bilan n’est pas très glorieux.

Tout d’abord, à peine la moitié des salariés seraient concernés par un comité d’hygiène, de sécurité et des conditions de travail (CHSCT). Pire, dans les établissements de plus de 50 salariés pour lesquels un CHSCT est pourtant obligatoire, 15% n’en disposeraient pas. L’enquête prouve que l’existence d’un CHSCT est souvent liée à une forte implication syndicale. En effet, 87% des salariés des établissements comptant un délégué syndical bénéficient d’un tel dispositif. Un chiffre qui chute à 3% pour les salariés non représentés !

Autre lacune. Un document unique d’évaluation des risques professionnels doit être rédigé et mis à jour chaque année dans toutes les entreprises. Or, d’après les médecins du travail, seuls 51% des entreprises s’y tiennent. Une donnée à modérer puisqu’ils sont 29% à déclarer ne pas savoir si ce document existe ou s’il a été mis à jour. Or, le médecin du travail est censé être une référence dans l’entreprise à ce sujet. Si lui-même ne sait pas, comment les salariés peuvent être informés ? 

Sumer a permis de dresser une carte des CHSCT. Il ressort clairement que plus l’établissement est important, plus l’existence d’un CHSCT est certaine. Seulement 16% des salariés d’une entreprise de moins de 10 salariés sont couverts contre 95% pour les établissements de plus de 500 salariés. Ce n’est pas la seule inégalité à laquelle doivent faire face les salariés puisque les fonctionnaires sont mieux couverts. Le secteur d’activité joue lui aussi un rôle important dans la mise en place ou non d’un CHSCT. Ainsi, la construction et l’industrie manufacturière ont plus fréquemment créées un CHSCT.

Plus logiquement, c’est dans les entreprises présentant des risques identifiés ou des conditions de travail reconnues pénibles que l’on retrouve une bonne couverture des salariés. Ainsi, lorsque les salariés sont postés, soumis à un bruit intense, à des radiations, exposés à des risques chimiques ou biologiques, alors les CHSCT sont plus présents.

Les oubliés de ces dispositifs de préventions sont les salariés au travail pénible sur un plan physique, les risques liés aux TMS restent sous-estimés. De même, les employés qui  travaillent plus souvent à l’extérieur qu’ au bureau, soit parce qu’ils sont en télétravail soit de part leurs déplacements chez le client, sont moins bien protégés.

Finalement, l’enquête Sumer met à jour de nombreuses inégalités suivant les salariés selon qu’ils appartiennent au privé ou au public, à de grosses ou petites structures. Mais cela impacte-t-il leur condition de travail ? Sur un plan organisationnel, il semble que non ! CHSCT ou pas, le médecin du travail exprime un jugement tout aussi positif avec 78% des salariés non couverts avec un poste de travail de bonne ou très  bonne qualité au regard des risques organisationnels contre 80% de salariés bénéficiant d’un CHST.

 En revanche, pour les risques physiques, chimiques et biologiques, le CHSCT joue bien son rôle protecteur. A titre d’exemple, d’après ce rapport, 51% des salariés exposés aux risques chimiques et couverts par un CHSCT profitent d’une protection collective de type ventilation générale, aspiration à la source. Des mesures de précautions qui ne concernent que 38% des salariés ne bénéficiant pas de CHSCT.

Toutefois, alors que l’objectif du CHSCT est de protéger le salarié, son existence peut être source de stress pour  ce dernier qui prend ainsi conscience que son travail est à risque : « […] le rapport de chances que le salarié juge son travail mauvais pour sa santé plutôt que le contraire est accru de 10% en présence d’un CHSCT. »

En cartographiant l’exposition des salariés aux principaux risques professionnels en France, la direction générale du travail (DGT) et la direction de l’animation de la recherche, études et des statistiques (DARES) souhaitent désormais définir des actions de prévention prioritaires.

Par Audrey Loubens, journaliste scientifique

 

Et aussi dans les
ressources documentaires :

Produire de l’hydrogène solaire à partir de la rouille

Dans la course à la recherche d’énergies propres, l’hydrogène est sans doute l’une des sources les plus prisées à ce jour, et l’apparition de véhicules fonctionnant avec ce gaz se fait de plus en plus visible. Récemment, la ville de Tel-Aviv s’est équipée d’un bus fonctionnant seulement à l’hydrogène, ce qui est une avancée par rapport aux moteurs hybrides déjà existants sur le marché.

Sa synthèse n’est néanmoins pas encore maitrisée et plusieurs chercheurs se penchent sur la question, privilégiant la voie dite « de séparation », qui consiste à séparer électrochimiquement les molécules d’eau en molécules d’oxygène et d’hydrogène. Les cellules photo-électrochimiques (PEC) sont utilisées pour effectuer cette séparation grâce à l’énergie solaire.

Des chercheurs israéliens et suisses du Technion et de l’Ecole Polytechnique Fédérale de Lausanne, ont découvert la structure moléculaire qui procurerait au PEC le meilleur rendement et la synthèse la moins coûteuse, et ce, en utilisant un matériau très abondant, stable et peu onéreux : la rouille. En observant à l’aide d’un microscope à transmission électrique le chemin parcouru par les électrons sur la structure d’oxyde de fer, les chercheurs ont pu comprendre en profondeur le processus de séparation qui constitue la synthèse d’hydrogène et ainsi créer la meilleure structure moléculaire possible. Si la synthèse de cellules photovoltaïques actuelles pour produire de l’hydrogène coûte environ 15 euros le kilo, la nouvelle structure moléculaire dont la découverte vient d’être publiée dans la prestigieuse revue Nature coûte moins de 5 euros le kilo produit.

Cette découverte constitue une avancée fondamentale dans la recherche sur les énergies du futur.

Source : Bulletins électroniques

Et aussi dans les
ressources documentaires :

Le premier microscope de photoionisation a été réalisé par des chercheurs lyonnais

Ces microscopes un peu particuliers ont pour objectif d’étudier la distribution spatiale d’électrons éjectés d’un atome dans le cas où la longueur de De Broglie est suffisamment grande pour être observable.

Plus précisément, il est possible d’observer le module carré de la fonction d’onde d’un électron éjecté sous l’influence d’un champ électrique. Sous certaines conditions, cette fonction d’onde est une projection directe à une échelle macroscopique de la fonction d’onde confinée autour de l’atome.

Ce sont des physiciens de l’Institut lumière matière – ILM (CNRS / Univ. Lyon 1), en collaboration avec des collègues de l’Université d’Ioannina (Grèce), de l’Université d’Auburn (USA) et de l’Institut Max Born de Berlin, qui viennent pour la première fois de mettre en œuvre ce concept de microscope et d’observer la fonction d’onde d’un électron dans le cas d’un atome de lithium. Publié dans Physical Review Letters, ce travail a consisté à placer des atomes de lithium dans un champ électrique statique d’amplitude supérieure à celle du champ généré par le noyau atomique à proximité de l’orbitale atomique excitée à laquelle ils se sont intéressés.

L’électron externe de l’atome de lithium est excité à l’aide d’une impulsion laser. L’onde électrique, libérée du champ électrique du noyau, se propage alors vers un détecteur de particules. Le système d’imagerie mis au point permet d’agrandir cette onde tout en maintenant sa forme. Les modifications de l’image liées à la présence des électrons non excités ont alors pu être mesurées.

Un premier succès de visualisation directe d’une fonction d’onde qui propose un nouvel outil d’observation.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’accord transatlantique risque de remettre en cause REACH

A l’occasion de la réunion d’une commission parlementaire, Karel de Gucht, le commissaire au commerce, aurait promis de vérifier si les procédures de règlement des différends entre investisseurs et États pouvaient donner lieu à des poursuites juridiques. Il ‘agissait de la privatisation du secteur de la santé ; mais l’hypothèse pourrait s’appliquer à n’importe quel autre domaine, et surtout celui de l’environnement.Depuis le mois de mai, l’inclusion de la clause « traitement juste et équitable » dans le projet d’accord commercial entre le Canada et l’UE (AECG) inquiète d’ailleurs les défenseurs de l’environnement. Cette nouvelle disposition interdit toute « violation des attentes légitimes des investisseurs ».

Le Canada et l’UE ont depuis lors signé cet accord, même si le document n’a toujours pas été publié dans ses détails et les responsables présents lors de l’annonce de cet accord ont refusé de répondre aux questions portant sur les sujets sensibles.  Mais il y a de forte chances pour que les modalités de cet accord fassent jurisprudence, ce qui explique l’angoisse des ONG.

Le règlement REACH

Pia Eberhardt, porte-parole de l’Observatoire de l’Europe industrielle (CEO), explique à EurActiv ses craintes relatives à la formule « traitement juste et équitable », qui est un terme ouvert à toutes les interprétations, et ajoute que la définition, qui a fuité, de l’AECG était particulièrement vague.

« Elle protège même les investisseurs « de changement politique imprévisible », qu’ils considèrent comme des attentes « légitimes » », selon la représentante de l’organisation qui milite pour la transparence.

« L’interdiction d’un produit chimique, qui s’avère nuisible à la santé publique, pourrait donc être considérée comme une violation de cette disposition. »

« Les investisseurs seront également en mesure de mettre en question des justifications scientifiques d’une politique et des relations « arbitraires » ou « déraisonnables » entre une politique et son objectif », ajoute-t-elle.

REACH est le règlement le plus complet au monde en matière d’environnement et de santé. Il est déjà dans la ligne de mire de l’industrie américaine. 

Ainsi la semaine dernière, la Société américaine des fabricants et des industries chimiques (SOCMA) a attesté devant la commission du commerce international de « l’impact disproportionné que les barrières commerciales ont sur les petites et moyennes entreprises (PME) américaines qui exportent vers l’Union européenne », selon un journal américain.

Toute tentative de contester ces règlements dépendra de la nature de la clause relative à tout traitement juste et équitable dans le texte définitif du partenariat transatlantique.

Procès réglementaires

Aux États-Unis, l’utilisation de ces clauses dans l’accord de libre-échange nord-américain (ALENA) a donné lieu à une série de procès relatifs à la réglementation. Les exemples donnent froid dans le dos.

Par exemple, une compagnie américaine, Lone Pine Ressources, a réclamé au Québec un dédommagement de 191 millions d’euros, car le pays avait instauré un moratoire sur l’exploration du gaz de schiste.

L’affaire qui opposait l’entreprise de gestion des déchets Tecmed et le Mexique est un autre exemple. Un tribunal a jugé que le Mexique n’avait pas « agi sans ambiguïté et en totale transparence » quand l’administration locale avait décidé de ne pas octroyer de nouveau un permis pour la construction d’une usine de traitement des déchets en raison de préoccupations environnementales.

Selon des défenseurs de l’environnement, les investisseurs américains ont obtenu gain de cause dans 74 % des procès contre l’État.

Lors de ces procès, les tribunaux ont révélé une violation du « traitement juste et équitable ». Les militants craignent également que des passages similaires non dévoilés dans le partenariat transatlantique de commerce et d’investissement (PTCI) viennent littéralement estropier les règles européennes en matière d’environnement.

John Clancy, porte-parole du commissaire européen au commerce a minimisé l’importance de la confidentialité des négociations et la stratégie de diversion pour apaiser les craintes.

Il a expliqué au journal eurosceptique danois Notat que la Commission veut « un haut niveau de transparence, mais la confidentialité est de rigueur comme dans toute négociation. […] Il en a toujours été ainsi, » a-t-il ajouté.

Croissance et emploi

Selon un rapport de la direction générale de John Clancy, le PIB de l’Europe augmentera de 68 à 119 milliards d’euros si l’accord global sur la levée des barrières douanières est ratifié, et environ 23 milliards d’euros en cas d’accord de libéralisation tarifaire.

José Manuel Barroso, le président de la Commission européenne, avait évoqué le montant de 119 milliards d’euros lors de plusieurs discours prononcés cette année. Cet optimisme attise les craintes selon lesquelles l’UE serait disposée à négocier ses règles relatives à l’environnement, à la santé et aux protections sociales.

Le président de la Commission n’a d’ailleurs pas rejeté cette notion lors d’un discours tenu à la chambre de commerce américano-européenne en avril dernier, à New York, intitulé « Une nouvelle ère de bons sentiments ».

Lors de ce discours, il s’était plaint du coût des mesures non tarifaires, ainsi que des questions réglementaires posées aux entreprises et aux consommateurs.   

Les entreprises ont souvent dû se conformer à deux séries de règles quand elles exportent des produits vers l’Europe.

Le président de la Commission a par exemple cité « la hausse des normes de sécurité, la limitation des dégâts sur l’environnement provoqués par des voitures ou la hausse des normes en matière de santé et d’hygiène dans l’alimentation ». 

« Nous souhaitons réduire les coûts inutiles et diminuer les retards pour les entreprises », a-t-il expliqué.

Selon lui, ni l’Europe ni les États-Unis ne mettraient en danger leurs normes strictes en matière d’environnement, de questions sociales ou de santé et de sécurité.

PROCHAINES ÉTAPES :

  • Déc. 2013 : troisième cycle des négociations sur le PTCI
  • Janv. 2014 : exercice d’inventaire avec le commissaire européen, Karel de Gucht, et le représentant américain au commerce, Michael B. Froman

Par Arthur Neslen – traduit de l’anglais par Aubry Touriel

Source : Euractiv

Portrait d’expert : Daniel Hubert, spécialiste en physique et métrologie

admin-ajax.phpDiplômé du Conservatoire National des Arts et Métiers (CNAM) en 1979, spécialisé en physique et métrologie, Daniel Hubert a effectué l’ensemble de sa carrière en recherche et développement, dans des domaines d’activités variés : des chaines de mesure embarquées en aéronautique au contrôle automatique des fluides, en passant par les textiles et l’ouate de cellulose.

Depuis 2013, il travaille comme expert indépendant en formation et conseil. Il anime ainsi chez Techniques de l’Ingénieur les formations Sécurité Machines, mais aussi Sécurité des procédés : prévenir et réduire les risques, et enfin Transmission de puissance et automatisme pneumatique : les composants.

La collaboration entre Daniel Hubert et Techniques de l’Ingénieur est toutefois plus ancienne, puisqu’il est l’auteur de la partie Transmission de puissance pneumatique de la base documentaireTransmission de puissance hydraulique et pneumatique, et ce depuis 2007.

Aujourd’hui grâce à Techniques de l’Ingénieur, l’expertise de Daniel Hubert est donc à votre disposition.

Phonebloks et Projet Ara : l’avènement du téléphone modulable ?

Motorola, nouveau porte-étendard de la lutte contre l’obsolescence programmée ? Rien n’est moins sûr, mais c’est pourtant un pas dans cette direction qu’effectue le géant américain – partie intégrante de la nébuleuse Google depuis août 2011 – en annonçant un partenariat avec 3D Systems, le spécialiste américain de l’impression 3D. C’est donc main dans la main que les deux groupes vont se lancer dans l’aventure du « Projet Ara », une ligne de smartphones modulables qui laisserait presque toute latitude à son heureux propriétaire afin de personnaliser le hardware de son smartphone, d’en choisir les composants comme d’en changer à l’envi. Une douce utopie ?

Phonebloks, genèse et mise en lumière du projet

Tout a – presque – commencé en septembre dernier lorsque Dave Hakkens, un étudiant hollandais en design, posta une vidéo sur YouTube baptisée « Phonebloks ». Dans cette vidéo devenue virale depuis (comptabilisant tout de même plus de 18 millions de vues fin novembre), Hakkens jette les bases d’un smartphone modulable conçu à la fois pour être au plus près des désirs de chaque utilisateur, ainsi que pour lutter contre l’obsolescence programmée qui gangrène selon lui le secteur des technologies, en permettant de faciliter le remplacement de n’importe quel composant défectueux, pas assez performant ou carrément obsolète. Du speaker à l’appareil photo embarqué, en passant par la batterie, la mémoire embarquée, le gyroscope ou encore le wi-fi.

Projet Ara

Tout a « presque » commencé en septembre, car Motorola a attendu que la vidéo du jeune Hollandais fasse un véritable tabac pour lever une partie du voile sur le projet Ara, projet en développement depuis plus d’un an selon le constructeur américain. Avec une différence notable : abandonner le système de « pin » permettant aux éléments de se clipser aisément à la base, au profit d’un système de pièces coulissantes.

Motorola et 3D Systems se proposent donc, avec ce projet, de mettre au point une ligne de smartphone modulable composée d’une « base commune » conçue pour durer, et de composants remplaçables, s’adaptant facilement sur la base, comme des briques de Lego emboîtables les unes aux autres, mais coulissantes. Plus besoin de se sentir obligé de se débarrasser de son téléphone à l’arrivée d’un nouveau modèle, ou lorsqu’un seul des éléments ne fonctionne plus (alors que les autres composants fonctionnent très bien).

Seconde collaboration pour Motorola et 3D Systems

Les deux entreprises n’en sont pas à leur première collaboration : Motorola et 3D Systems s’étaient déjà retrouvées ensemble pour « MakeWithX », une tournée promotionnelle à travers les États-Unis proposant aux utilisateurs du Moto X, le smartphone à écran tactile maison, de lui créer une coque personnalisée à l’aide d’une imprimante 3D « Cube ». Il faudra bien tout le sérieux et l’expérience de la filiale mobile de Google, ainsi que le dynamisme et le savoir-faire de la jeune 3D Systems pour apaiser les doutes des sceptiques, car au-delà de l’idée séduisante du smartphone modulable présentée dans la vidéo, Phonebloks n’avait guère convaincu les technophiles les plus avertis.

Quelques doutes sur la faisabilité

En effet, le projet du jeune Hollandais se heurtait à des problèmes complexes de niveaux de paradiaphonie (diaphonie locale ou NEXT : Near End Cross Talk) et de télédiaphonie (diaphonie distante ou FEXT : Far End Cross Talk), interférences entre les signaux de deux paires à la même extrémité de liaison, signaux parasites dont les effets néfastes (à la réception ou à l’émission) peuvent entraîner des blocages. Ce bruit, aussi nommé « crosstalk » en anglais, est donc une conséquence directe de l’induction électromagnétique.

Autre problème : la modularité du smartphone imaginé par Dave Hakkens ferait exploser le poids et la taille du terminal, notamment pour rendre « autonome » chaque bloc, entraînant entre autre la présence de composants redondants.

« Eco-Mobius », projet du constructeur chinois ZTE

Les Américains ne sont pas les seuls sur le coup : le constructeur chinois ZTE bûcherait également sur un projet de smartphone évolutif, baptisé « Eco-Mobius ». Le projet de ZTE s’inscrirait dans une démarche écologique, avec un smartphone composé de quatre éléments modulables (un écran, une base, une batterie et un appareil photo) et personnalisables, laissant à l’utilisateur le loisir d’améliorer le CPU, la mémoire ou encore le processeur graphique.

Aucune date n’est pour le moment avancée en ce qui concerne « Eco-Mobius », alors que Motorola devrait mettre une version test de son téléphone à la disposition des développeurs cet hiver.

Par Moonzur Rahman

Trop de formaldéhydes dans les produits nettoyants

Vivre dans un environnement propre aurait des conséquences sur notre santé. Surtout pour les adeptes des produits ménagers industriels, gorgés de substances chimiques. Or, si ce cocktail d’efficacité fait briller, il a aussi un fort pouvoir polluant. L’Institut National de l’Environnement Industriel et des Risques (Ineris), dont le rôle est d’évaluer les risques que les activités économiques représentent pour l a santé et la sécurité des personnes, a donc étudié les émissions des polluants volatils dans l’air intérieur.  Cette étude porte non seulement sur les émissions directes mais tient aussi compte de la formation de composés secondaires.

L’Ineris a donc étudié 54 produits ménagers de différents types, multi-usage et spécifiques, de conditionnements variés (liquide, crème, lingette, poudre…) et de plusieurs marques.

Concernant les polluants émis, l’Ineris mesure une augmentation de la concentration en aldéhydes dans l’air, couplé à une forte augmentation des concentrations en Composés Organiques Volatils (COV). Parmi les aldéhydes émis, le formaldéhyde est retrouvé à la fois comme polluant direct mais aussi comme composé secondaire. Il semble que des substances primaires réagissent avec l’ozone pour donner naissance à des formaldéhydes, renforçant ainsi la concentration de ce produit toxique. De plus, ce phénomène d’ozonolyse pourrait être à l’origine d’émissions de dioxyde d’azote, elles même induisant une réactivité de surface.

Ainsi, non seulement les produits d’entretiens contiennent de nombreux produits à la toxicité reconnues, mais des substances secondaires viennent majorer la pollution de l’air intérieur. Un cercle vicieux aux conséquences sur la santé non négligeables. Le formaldéhyde est considéré comme cancérogène et toxique pour les organes de la reproduction. Les nombreuses particules de taille nanométrique émises par ces produits d’entretien sont elles aussi soupçonnés de toxicité.

Ces analyses confirment la dangerosité des produits de nettoyages de consommation courante, une toxicité encore plus importante qu’attendue du fait  que « […] la réactivité chimique des substances émises, entre elles et avec d’autres composés présents dans l’air intérieur, conduit à la formation de composés dits secondaires dont l’impact sur la qualité de l’air n’est pas négligeable »  explique l’Ineris.

Par Audrey Loubens, journaliste scientifique

Lancement d’un concours mondial d’innovation ouvert à tous

Départ en grande pompe ce lundi 2 décembre 2013 au 104 pour un projet qui tend à attirer et encourager les « preneurs de risques » en France, en présence du Président de la République, du ministre du Redressement productif Arnaud Montebourg, et de la ministre déléguée chargée de l’Innovation et de l’Economie numérique, Fleur Pellerin. Baptisé Innovation 2030, ce concours d’innovation mondial est ouvert à tous les entrepreneurs : de la start-up à la très grande entreprise.

Son but ? Attirer et financer des projets industriels à fort potentiel pour « stimuler l’innovation en France » et « se hisser au meilleur de la compétition mondiale ».

Un projet financé sur les fonds du Grand emprunt géré par BPI France « sans création de structure, sans un euro de coût », selon Anne Lauvergeon, présidente de la commission d’experts indépendants chargés de sélectionner les 150 projets qui auront la chance d’être retenus lors des trois phases du concours.

Un concours en trois phases

La première phase, qui vient de commencer, s’étalera jusqu’à l’été 2014. Elle consiste à télécharger et remplir le dossier d’inscription, puis à défendre son projet lors d’un entretien oral, où sera déterminée l’éligibilité selon plusieurs critères :

  • Degré de réponse à l’ambition ;
  • Degré de rupture en terme d’innovation (technologique ou non) ;
  • Faisabilité technique et/ou scientifique ;
  • Retombées économiques potentielles du projet ;
  • Capacité du porteur à mener à bien le projet.

A la clef : 200.000€ pour chacun des 100 projets retenus.

La seconde phase, plus sélective, démarrera en septembre 2014, avec 2.000.000 d’euros à empocher de la part de l’Etat, peut-être davantage si des partenaires privés se greffent au financement du concours.

À l’issue du processus de sélection (2016), 7 projets seront retenus et soutenus financièrement dans une phase de développement et d’industrialisation.

 « Les projets retenus seront ceux axés sur l’innovation concrète, et pas uniquement l’innovation technologique, mais aussi de service, ou d’usage », a précisé l’ex patronne d’Areva. Et ce dans sept domaines prédéfinis :

  • Le stockage de l’énergie : projets d’innovation en matière de stockage d’énergie intermittente ou non.
  • Recyclage des métaux : projets permettant de rendre viable et efficace le recyclage des métaux
  • La valorisation des richesses marines : projets de valorisation des métaux sous-marins. Projets favorisant des solutions de dessalement moins onéreux et/ou plus faiblement consommateur d’énergie de l’eau de mer.
  • Les protéines végétales et la chimie du végétal : projets de développement de produits alimentaires à base de protéines végétales. Projets de chimie du végétal visant à développer de nouveaux matériaux.
  • La médecine individualisée : projets favorisant le ciblage des interventions thérapeutiques s’appuyant par exemple sur la génomique, les dispositifs médicaux et/ou l’imagerie à haute résolution.
  • La silver économie, l’innovation au service de la longévité : projets répondant à la eprte d’autonomie des seniors, liés à la robotique et la domo-médecine.
  • La valorisation des données massives (Big data) : projets permettant de mieux exploiter les données et de définir de nouveaux usages, modèles d’analyse et de valorisation de celles-ci.

Découvrez en détail ces 7 ambitions dans le rapport de la Commission Innovation 2030

Assurer le progrès sociétal et le développement industriel de demain

Pourquoi restreindre à ces secteurs ? Parce qu’ils correspondent aux besoins sociétaux de demain, à en croire les discours successifs d’Arnaud Montebourg, Anne Lauvergeon et François Hollande, mais aussi parce qu’ils seraient des secteurs stratégiques si la France veut, demain, être à la pointe de l’industrie mondiale. « L’innovation d’aujourd’hui est la croissance de demain », a ainsi martelé le Président de la République dans son discours, clôturant l’évènement.

« Comment s’assurer que les acteurs attirés en France par ces dotations y resteront ? », s’interroge-t-on dans la salle. En leur offrant un accompagnement de première qualité, répond Fleur Pellerin. Reste à savoir si, d’une part, la France est la meilleure dans ce domaine, et d’autre part, si cet argument suffira à conserver ces heureux élus sur le territoire national.

Pour en savoir plus, n’hésitez pas à télécharger le cahier des charges

Si vous souhaitez participer, vous pouvez déposer votre dossier en ligne

Par Bruno Decottignies et Iris Trahin

Du graphène dans les préservatifs de demain

Onze projets ont retenu l’attention de la fondation américaine du célèbre ex-patron de Microsoft. Des projets à la thématique originale puisqu’il s’agit de travailler sur les préservatifs du futur, l’objectif final étant de développer le recours à la contraception. Comme Bill Gates ne fait pas les choses à moitié, ce sont des subventions de 100 000 dollars qui ont été attribuées aux onze projets sélectionnés. Si les développements se révèlent fructueux, la fondation  pourra verser  jusqu’à 1 million de dollars pour faire aboutir les travaux.

Vous vous dites qu’à ce prix, ce seront des capotes en or ? Et bien  non ! Mais des préservatifs en graphène, oui. Deux projets subventionnés exploitent effectivement les propriétés de ce matériau constitué d’un unique plan atomique de carbone. Depuis sa découverte en 2004, le graphène suscite de nombreux espoirs dans différents domaines. Mais c’est la première fois qu’il prend part à l’élaboration des préservatifs du futur.

Pour le premier projet, il s’agit d’exploiter la finesse du graphène pour obtenir des préservatifs à la finesse exceptionnelle. Le deuxième projet souhaite intégrer du graphène au caoutchouc pour améliorer la sensibilité lors des rapports, argument parfois évoqué pour justifier la  non utilisation de préservatifs.

La fondation Bill & Melinda est très engagée dans la lutte contre les maladies sexuelles, le financement de méthodes de contraception est donc en parfaite cohérence avec leurs objectifs. Parmi les autres projets, l’université de l’Oregon travaille sur un préservatif en polymère de polyuréthane. Un matériau à mémoire de forme pour un préservatif « taille unique », capable de s’ajuster à toutes les tailles de pénis. Un laboratoire californien, quant à lui, s’oriente vers des fibrilles de collagène de tendons de vache.

Toutes ces approches visent à proposer des préservatifs qui altèrent le moins possible la sensation et facilitent l’enfilage. En levant ces deux freins, la fondation espère développer l’utilisation du préservatif et ainsi lutter contre les MST.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

REACH : les news du mois de novembre 2/2

Une nouvelle norme spécifie les exigences pour la présence de certains produits chimiques dans les jouets

La norme NF EN 71-3 va permettre d’évaluer la migration de 19 produits chimiques dans leurs produits. En spécifiant les exigences et les méthodes d’essai applicables aux matériaux entrant dans la fabrication des jouets comme l’aluminium, l’antimoine, l’arsenic ou encore le cadmium et le chrome (2 formes), cette norme permet de répondre aux enjeux fixés par la directive européenne 2009/48/CE sur la sécurité des jouets.

Création d’une section sur le site de l’ECHA dédiée aux travailleurs

L’ECHA a lancé une nouvelle page web dédiée aux travailleurs sur le thème de l’utilisation sûre des produits chimiques sur le lieu de travail. Cette page est traduite en français. Cette rubrique comprend des informations pratiques et des exemples sur la manière dont les règlements REACH et CLP entre autres, peuvent contribuer à l’amélioration de la santé et de la sécurité au travail.

Nouvelle consultation pour éviter les tests sur les animaux

17/11/2013

L’ECHA a lancé un appel visant à collecter des informations sur une nouvelle substance pour éviter les tests inutiles sur les animaux. Les informations relatives au tert-dodecanethiol sont à soumettre pour le 10 janvier 2014.

MSC traite des propositions d’essais d’alcènes et produits pétroliers

22/11/2013

Le comité des États membres (MSC) a accepté des propositions d’essais pour des groupes de substances basées sur des approches croisées. Ces propositions concernent 27 alcènes et 22 substances pétrolières.

ECHA publie une mise à jour des orientations sur l’application des critères CLP

25/11/2013

L’ECHA a publié une mise à jour des orientations sur l’application des critères CLP après la conclusion d’un processus complet de consultation. L’orientation est maintenant disponible dans la section « Guide sur CLP » sur le site de l’ECHA. Cette mise à jour concerne la partie 2 (Les risques physiques), la partie 3 (Dangers pour la santé). Ces modifications tiennent compte de la deuxième adaptation au progrès technique (ATP) du règlement CLP (entrée en vigueur en Avril 2011) et de la quatrième ATP (entrée en vigueur en Juin 2013). De plus, un rectificatif de la partie 1 (Principes généraux de classification et d’étiquetage) et la partie 4 (Dangers pour l’environnement et son annexes IV) a également été fait.

Première consultation publique pour une substance active biocide

26/11/2013

La première consultation publique en vertu du règlement sur ​​les produits biocides se fera sur la substance active Dinotéfurane en tant que potentielle substance pour la substitution. Au cours de cette consultation, les tiers peuvent soumettre des informations pertinentes, y compris des informations sur les alternatives disponibles. Lorsqu’une substance active est candidate pour la substitution, les produits biocides contenant cette substance active faire l’objet d’une évaluation comparative au moment de l’autorisation et ne seront autorisés que si il n’y a pas de meilleures alternatives. La consultation est ouverte jusqu’au 28 Janvier 2014.

Les quatre première conclusion sur l’évaluation des substances publiées sur le site de l’ECHA

26/11/2013

L’évaluation des substances a commencé en 2012 et les États membres ont évalués 36 substances. Les quatre premières évaluations sont maintenant terminées. L’État membre d’évaluation a finalisé son évaluation et tiré des conclusions sur les risques présumés. Ces informations sont disponibles dans les documents de conclusion. Des informations complémentaires sont également disponibles dans les rapports d’évaluation de la substance publiés sur le site de l’ECHA.

http://echa.europa.eu/regulations/reach/evaluation/substance-evaluation

Nouvelle consultation pour éviter les tests sur les animaux

27/11/2013

L’ECHA a lancé un appel visant à collecter des informations sur une nouvelle substance pour éviter les tests inutiles sur les animaux. Les informations relatives au cyclohexane-1,4-dicarboxylic acid sont à soumettre pour le 10 janvier 2014.

Consultation publique pour des classifications et étiquetages harmonisés

27/11/2013

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé du 3,7-dimethylocta-2,6-dienenitrile (N° CAS : 5146-66-7 et N° CE : 225-918-0). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 23 décembre 2013.

 

Espace : un nouvel instrument international nommé SPIRou

Pour détecter et étudier ces objets, SPIRou est composé d’un spectropolarimètre combiné à un vélocimètre de haute précision optimisé pour la détection par la méthode des vitesses radiales. SPIRou est un projet international piloté par la France, impliquant les chercheurs grenoblois de l’IPAG-OSUG (CNRS/Université Joseph Fourier) notamment en charge de la coordination du groupe science. La construction de SPIRou devrait débuter en 2014, pour une intégration à Toulouse en 2016 et une première lumière au CFHT en 2017.

Comment les étoiles et les planètes naissent-elles ? Comment le champ magnétique influe-t-il sur cette genèse ? La Terre, qui abrite une importante quantité d’eau liquide à sa surface, est-elle unique en son genre ? Notre Galaxie est-elle peuplée d’autres planètes similaires ? Des questions universelles, dont se préoccupent tout particulièrement les chercheurs en astrophysique stellaire et planétaire, auxquelles SPIRou se propose d’apporter des réponses originales au cours de la prochaine décennie.

Non seulement spectropolarimètre décomposant la lumière des astres dans ses couleurs et dans ses modes vibratoires élémentaires, SPIRou est aussi un vélocimètre de haute précision. Tel un radar routier qui flasherait l’étoile observée, non pas pour excès de vitesse, mais en raison de variations régulières et périodiques de sa vitesse, il sera capable d’enregistrer les infimes mouvements d’une étoile témoignant de la présence d’une planète en orbite. SPIRou pourra ainsi partir à la recherche de jumelles de la Terre dans les systèmes planétaires des étoiles naines rouges voisines du Soleil. Les atmosphères de ces planètes jumelles pourront ensuite être scrutées, avec le James Webb Space Telescope le futur télescope spatial, à la recherche d’eau et d’autres bio-molécules associées à la présence de vie. SPIRou pourra aussi percer les mystères de la naissance des étoiles et des planètes, en observant pour la première fois les champs magnétiques de proto-étoiles âgées d’à peine quelques centaines de milliers d’années.

Sur le plan technologique, SPIRou est aussi un défi d’envergure. Il doit fonctionner dans l’infrarouge pour observer au mieux les astres froids que sont les naines rouges. Cela nécessite de plonger le cœur de l’instrument, le spectromètre, dans un cryostat refroidi à la température de l’azote liquide (-200°C) pour éviter que le rayonnement thermique ambiant, omniprésent dans l’infrarouge, n’éclipse la lumière stellaire très ténue que l’on souhaite décrypter. De plus, pour permettre de détecter les mouvements nanométriques des spectres qui trahiront la présence de Terres habitables, la stabilité thermique du cryostat doit être exceptionnelle au point de garantir une température constante avec une précision de quelques millièmes de degrés Celsius.

Identifié comme projet astrophysique prioritaire du Centre National de la Recherche Scientifique (CNRS), SPIRou est un des éléments clés qui devrait garantir le futur du télescope sur la prochaine décennie. Le CFHT vient de confirmer sa participation financière à SPIRou, auquel contribue un large consortium international d’Universités et de laboratoires de recherche.

Sur le site grenoblois, l’université Joseph Fourier (UJF), l’Observatoire des Sciences de l’Univers de Grenoble (OSUG) et l’Institut de Planétologie et d’Astrophysique de Grenoble (IPAG) sont à la pointe du développement de SPIRou, dont les objectifs scientifiques et techniques sont des priorités pour de nombreux chercheurs grenoblois. Ce projet novateur et ambitieux contribuera à la visibilité internationale de l’Université Grenoble Alpes dans un domaine qui est une priorité définie par de nombreux organismes scientifiques internationaux : la compréhension de nos origines.

Pour en savoir plus :
Le budget de ce projet international en reflète l’enjeu scientifique majeur ; il s’élève à 10 M€ (coût de construction de 4 M€ inclus). Le consortium français, qui réunit plusieurs universités, observatoires et laboratoires sous la double tutelle du CNRS et du Ministère de l’Enseignement Supérieur et de la Recherche (MESR), notamment basés à Toulouse, Grenoble, Marseille et en Île de France, participe de façon majoritaire au financement et à la réalisation du projet.

SPIRou a également trouvé un fidèle allié pour la diffusion de ses futures découvertes auprès du jeune public, en créant un partenariat avec le Journal de Spirou !

Lexique :

  • CFHT : Sentinelle des cieux au sommet du Mauna Kea – volcan de 4200m situé sur la grande île d’Hawaii – le CFHT est un télescope de 3,6m exploitant plusieurs instruments. Bien qu’implanté dans un des meilleurs sites astronomiques du monde, le CFHT n’échappe pas à la concurrence et doit innover en permanence, via une politique scientifique ambitieuse, pour garder une place de premier plan dans un monde de télescopes géants. Le TCFH est une organisation appartenant conjointement au Conseil National de Recherches Canada, au Centre National de la Recherche Scientifique en France via l’Institut National des Sciences de l’Univers (CNRS-INSU) et à l’Université d’Hawaii. 
  • Spectropolarimètre : instrument capable de réaliser, non seulement le spectre de la lumière d’un astre, mais aussi une analyse de sa polarisation (linéaire ou circulaire) – due par exemple à l’effet Zeeman d’un champ magnétique sur la formation des raies spectrales.
  • Méthode des vitesses radiales : méthode qui permet de détecter, par effet Doppler, les variations de vitesse qu’une planète communique à l’étoile autour de laquelle elle orbite. Pour une exoTerre habitable autour d’une naine rouge, ces variations de vitesse radiale sont de l’ordre du m/s, et leur mesure nécessite un spectrographe à haute résolution d’une extrême stabilité, baptisé vélocimètre.
  • JWST : Le télescope spatial James Webb (JWST) sera le successeur du télescope spatial Hubble (HST), dont il est prévu qu’il prenne la relève en 2018. C’est une mission dirigée par la NASA à laquelle participe l’Europe, sous la responsabilité de l’Agence Spatiale Européenne (ESA), et le Canada, à travers l’Agence Spatiale Canadienne (CSA). Le télescope aura une surface collectrice 7 fois plus grande que le HST et sera consacré à l’observation de l’Univers dans le rayonnement infrarouge (de 1 à 27 microns de longueurs d’onde).

Par l’Université Joseph Fourier – Grenoble 1

Japon : l’île qui a émergé des flots continue de s’étendre

L’archipel japonais compte désormais une île de plus. Avec 200 m de diamètre à son apparition, l’îlot ne cesse de s’étendre. En deux jours, ses dimensions ont doublé, et sa croissance pourrait bien se poursuivre jusqu’à atteindre les 900 m de hauteur. Le Centre japonais de recherche océanographique prévient qu’« […] il est possible qu’elle grossisse encore, car le cratère s’étend et le magma remonte ».  Au point que les gardes-côtes ont dû mettre en garde les bateaux croisant à proximité.

Reste à savoir si l’île aura une durée de vie importante. Les précédentes îles apparues ont été soit détruites soit en grande partie avalées par les vagues.

Ce phénomène est si remarquable que le gouvernement japonais s’est réjouit par la voie de son porte-parole : « Si l’île devient pérenne, nous serons heureux d’avoir davantage de territoire ».

En attendant de savoir si cette île a un avenir, découvrez cette vidéo étonnante :

Par Audrey Loubens, journaliste scientifique

Revue du web spéciale domotique : les vidéos les plus étonnantes

Cette semaine dans la Revue du Web : 

  • La domotique en Do It Yourself : Elier Ramirez et son Home Network X ; 
  • La domotique par Vera Control Ltd ; 
  • Un autre exemple de maison intelligente ; 
  • inFORM, interagir avec le Dynamic Shape Display du MIT Media Lab

La domotique en Do It Yourself : Elier Ramirez et son Home Network X

Pour débuter cette cinquante-deuxième Revue du Web consacrée à la domotique, allons jeter un œil au système qu’Elier Ramirez a installé chez lui, sur son temps libre. Cet « amateur éclairé » et apôtre du DIY (« Do It Yourself », faire les choses soi-même) est un ancien d’HyperLearning Technologies, désormais consultant pour une jeune entreprise spécialisée dans les technologies de commandes vocales et réseau, Xfactor Technologies.

Dans la vidéo qui suit, Elier Ramirez nous fait une petite visite guidée de l’ensemble des installations qu’il a réalisées chez lui, baptisant le système « Home Network X ». L’éclairage de sa maison – ainsi que deux ventilateurs – peut être intégralement contrôlé à distance grâce à des modules et interrupteurs de la marque X10, via une application mobile. La partie divertissement du système, baptisée Media Center, permet de gérer aussi bien les écrans que le son de l’installation. L’interface de l’application sur tablette est très lisible et ludique, affichant une photo de la pièce choisie, laissant la possibilité d’appuyer sur n’importe quel appareil ou n’importe quelle lampe afin de les allumer ou des les éteindre.

Le cerveau du système est xENA, alter-ego du HAL de 2001, l’odyssée de l’espace, film culte de Stanley Kubrick. Ce petit ordinateur peu coûteux tournant sur Windows 7 détecte si les appareils sont allumés ou non, puis effectue les modifications en écho aux commandes reçues. Il sert également de transmetteur infrarouge, il scanne les e-mails afin d’y détecter la moindre ligne de commande et il s’occupe des tâches pré-enregistrées.

La domotique par Vera Control Ltd 

La seconde vidéo est le fruit du travail d’Armando Ferreira, bloggeur pour The Droid Effect et technophile avéré. Il y teste une installation réalisée par Vera Control ltd (anciennement la société Micasaverde), dont la box domotique est connue et utilisée dans près de 70 pays à travers le monde, et dont les ventes doublent chaque année depuis cinq ans. Cette box permet l’implémentation de scénarios et doit son succès à la simplicité de l’ajout des périphériques Z-Wave, un protocole de communication radio bidirectionnel entre les différents modules, avec accusé de réception après chaque commande.

Exemple de scénario : l’utilisateur désire regarder un film, et veut se mettre dans une ambiance « cinéma ». Il lui suffit alors de lancer la commande dédiée pour que la pièce se tamise, que le téléviseur et le serveur s’allument et proposent quelques films… pour couronner le tout, la machine à pop-corn démarre !

On peut voir Armando Ferreira nous expliquer comment fonctionne l’implémentation des scénarios et ambiances, prenant l’exemple d’une fête et de ses besoins supposés. L’application supporte également les commandes vocales.

Un autre exemple de maison intelligente 

Autre vidéo, autre installation, alliant un lecteur d’empreintes digitales pour plus de sécurité, un écran projeté combiné à un clavier tactile – projeté, lui aussi… – et d’autres modules et périphériques plus ou moins classiques. Les journalistes de « La chaîne Techno » de 01net font par exemple la démonstration d’une cave à vin réfrigérée intelligente : lorsque l’on retire une bouteille, la cave à vin pèse alors moins lourd et envoie l’information au propriétaire.

L’interface est assez intuitive (bien que datant un peu), laissant les différents utilisateurs interagir avec leur environnement en choisissant une pièce de la maison, puis ce que l’on veut y faire (gérer la lumière, allumer la radio ou un écran, lancer un appareil électroménager, contrôler les stores, rideaux et fenêtres…), permettant de prendre le contrôle de sa maison, pièce par pièce, avec un seul poste de commande.


 

inFORM, interagir avec le Dynamic Shape Display du MIT Media Lab

Le très prometteur inFORM n’a pour le moment été intégré à aucun système, mais nul doute que cette installation révolutionnera aussi bien la médecine que la domotique en passant par la représentation spatiale, car elle permet aussi bien de manipuler des objets à distance que de rendre tangible la manipulation d’objets numériques. InFORM est décrit comme un système à forme dynamique, prenant la forme hybride d’un plan de travail et d’un écran d’affichage dont chaque pixel serait remplacé par l’équivalent d’une petite colonne pouvant se mouvoir de haut en bas. Le mouvement de chaque « pixel » est directement lié aux mouvements de l’utilisateur, capturés par un capteur 3D de type Kinect, permettant d’avoir une représentation physique dynamique en 3D d’un objet.

Les architectes pourraient voir d’un très bon œil l’arrivée du dispositif mis au point par le MIT Media Lab, car il leur permettrait de visualiser plus aisément un environnement 3D.

 

Par Moonzur Rahman

Vidéo : le robot parfait existe-t-il ?

Vidéo réalisée par Universcience.tv
  • Réalisation : Elodie Fertil
  • Production : Gédéon Programmes avec la participation d’Universcience

Et aussi dans l’actualité :

Smartphone espion : 7 moyens efficaces de préserver votre vie privée

On constate à cet effet de plus en plus d’articles destinés à la sensibilisation de ce problème. Cela est bien normal puisque plus de 24 millions de Français possèdent un smartphone, ce qui représente 44 % de la population âgée de plus de 11 ans. Ces chiffres éloquents, preuve s’il en était besoin, témoignent à quel point ces outils ont su se rendre indispensables. 

Le problème est tel qu’il touche les plus hautes strates du gouvernement. Suite aux affaires d’écoute téléphonique PRISM et Hemisphere, les ministres ont reçu en septembre dernier une note de Matignon leur interdisant de se servir de leurs smartphones lors de « communications sensibles ». Désormais, les téléphones doivent être cryptés lorsqu’il s’agit d’informations classifiées.

En matière d’espionnage, les techniques évoluent continuellement. La dernière, pour le moins surprenante est en provenance du MIT et du Georgia Institute of Technology. Via l’accéléromètre* d’un smartphone, il serait possible de déceler nos frappes de clavier et ainsi obtenir des informations précieuses comme les mots de passe. Bien sûr, la démarche des chercheurs tend simplement à prouver la faisabilité d’une telle méthode pour des pirates avertis.

Voici donc quelques conseils à mettre en place afin de protéger sa vie privée :

  • Afin de sécuriser sa navigation web, bien choisir son navigateur est primordial. Évitez Google Chrome ou Safari par exemple et privilégiez un navigateur alternatif, tel que Firefox Mobile ou Opera. Pour les plus motivés, il existe le réseau The Onion Router (Tor), « un réseau mondial décentralisé de routeurs, organisés en couches, appelés noeuds de l’oignon, dont la tâche est de transmettre de manière anonyme des flux TCP ». Cependant, la NSA ne serait pas favorable à ce logiciel libre et tenterait de le briser selon un document révélé par Edward Snowden et relayé par The Guardian. Sinon, vérifiez bien les paramètres pour les modifier à votre convenance.
  • Car il s’agit bien d’un aspect essentiel : le réglage de ses paramètres de navigation. Soyez donc attentif à ce que vous permettez à votre navigateur. Il est par exemple conseillé, si vous désirez ne pas être la cible d’un matraquage publicitaire, de restreindre l’usage des cookies qui prennent des informations personnelles. Vous pouvez gérer facilement les paramètres de confidentialité dans le menu « Réglages », utiliser un onglet de navigation privée pour faire disparaître votre historique de navigation, supprimer manuellement les traces de vos activités Internet en effaçant l’historique, les mots de passe utilisés, les fichiers téléchargés…
  • Ne téléchargez pas n’importe quelles applications, elles peuvent transmettre vos informations personnelles; il est nécessaire de vérifier régulièrement ce qu’elles peuvent faire une fois installées. Vous devez donc surveiller les autorisations que vous leur accordez en les téléchargeant. Une étude réalisée par l’entreprise de sécurité Appthority démontre d’ailleurs que parmi les 50 applications les plus populaires de l’AppStore, aucune ne garantit la sécurité des données à ses utilisateurs. Quant à Google, seules 4 applications cryptent les informations qu’elles transmettent aux développeurs.
  • Pensez à désactiver les services de géolocalisation dans les menus associés pour iPhone ou Android, pour ne les utiliser que lorsque vous le souhaitez. En effet, le service de localisation a tendance à être systématique et se trouve bien souvent exploité par la suite par les deux concurrents qui conservent les lieux où vous êtes allés.
  • Rendez illisibles vos données en les cryptant. Ce procédé a pour nom le chiffrement. Voici quelques applications présentant ce service sur Android pour les fichiers, les photos, les mots de passe : Android Privacy Guard, Cryptonite, ObscuraCam, KeepPassDroid et InTheClear. En ce qui concerne les communications, ce procédé fonctionne aussi et permet de chiffrer ses appels, SMS, e-mails… Là encore, voici un petit listing des applications existantes : Ostel, TextSecure, K9 et Gibberbot.
  • Vous êtes adepte du Cloud Computing, restez prudent. Ne stockez pas des données trop personnelles sur le Cloud, on ne sait jamais si ses informations resteront bien confidentielles. Cela est d’autant plus vrai lorsque le stockage des données a lieu dans des zones géographiquement éloignées où il y peut y avoir un non-droit.
  • Enfin, en dernier recours contre le piratage en cas de perte ou de vol, pensez à protéger l’accès de votre mobile par un mot de passe et cryptez son contenu. Ces barrières simples s’avéreront efficaces.

Malgré toutes ces précautions, sachez qu’il est impossible d’être entièrement anonyme sur Internet. Nous laissons des traces, transmettons obligatoirement des données à Google, Apple ou Microsoft lorsque nous téléchargeons des applications. Ces quelques réflexes à avoir permettent juste de garder un certain contrôle de sa vie privée.

* définition Wikipedia : les accéléromètres sont des capteurs aux différentes applications dont la mesure de la vitesse, la mesure de déplacement, le diagnostic de machine par analyse vibratoire et la détection de défaut dans les matériaux

Par Sébastien Tribot

Domotique : pourquoi les entreprises ne veulent pas passer à côté

Le marché de la gestion énergétique domestique intelligente est valorisé à plus de 1,5 milliards de dollars en 2013, selon un rapport de Green Tech Média. La société envisage un marché jusqu’à 4 milliards de dollars en 2017. Plus largement, selon l’étude « Hype Cycle 2013 » du cabinet d’analyse Gartner, l’ensemble des objets connectés devraient générer une valeur ajoutée de 1 900 milliards de dollars pour l’économie mondiale à l’horizon 2020, soit 2,6 % du PIB mondial. Le cabinet estime que le nombre total d’objets connectés dans le monde va passer de 2,5 milliards en 2009  à au moins 30 milliards d’ici 2020.

Mais le cabinet d’études Idate et le cabinet d’analyse économique IDC vont encore plus loin. Pour eux, le nombre total d’objets connectés atteindra respectivement  80 milliards et 212 milliards en 2020. IDC prévoit ainsi une valeur ajoutée totale de 8 900 milliards de dollars, soit 12,4 % du PIB mondial !

La démocratisation des tablettes et Smartphones ces dernières années, la fiabilité des technologies sans fil et l’émergence des objets connectés réunit toutes les conditions pour le développement de la maison connectée. Les utilisateurs sont en effet demandeurs de nouvelles applications.

Les entreprises ne veulent pas passer à côté !

Les fabricants d’automatismes et de matériels électriques historiques ne veulent pas perdre leur place de leader. En autres, Intel, IBM, Legrand et Schneider Electric développent de nouvelles puces électroniques et de nouveaux logiciels informatiques pour parvenir à faire communiquer les objets et systèmes entre eux, rapidement, sans trop consommer d’énergie.

Dans leur étude Le marché de la domotique, les experts de Xerfi se sont intéressés à la mutation des acteurs de terrain avec l’entrée en scène de nouveaux acteurs puissants. Ainsi, Les opérateurs de télécommunications, Orange, SFR et Bouygues Telecom en tête, sont sur le coup. En effet, le développement de la domotique nécessitera un réseau de transmission de données à Très Haut Débit sans fil pour transmettre des flux d’informations numériques multipliés. Ces flux seront pris en charge grâce au déploiement de la fibre optique à très haut débit et du réseau de communication à haut débit sans fil 4G.

Les géants de l’Internet ne veulent pas non plus passer à côté de cette révolution. Google, Apple et Microsoft développent leurs propres objets connectés et créent ainsi de nouvelles plates-formes dédiées. De leur côté, les énergéticiens tels qu’EDF et GDF Suez travaillent sur de nouvelles offres d’abonnement, notamment à travers l’effacement chez les particuliers.

Les fabricants de produits électroménagers (LG, Sharp, Samsung, etc.) apportent également de l’intelligence aux équipements de la maison (réfrigérateur, aspirateur, etc.), mais peinent encore à offrir des solutions intégrées et pratiques.

Au final, le marché de  la maison intelligente se situe au croisement de différents acteurs : constructeurs, producteurs d’énergie, télécoms, sécurité, fabricants d’automatismes, de matériels électriques et d’électroménager. Le développement du marché passera par des collaborations accrues entre ces leaders de différents secteurs, mais aussi de plus en plus, avec des startups utilisant le Cloud.

Par Matthieu Combe, journaliste scientifique

Une domotique interopérable ou des logiciels ouverts ?

La multiplication des équipements domestiques, entre autres, pour le chauffage, l’électroménager, l’audiovisuel, les alarmes et la téléphonie entraîne un développement considérable des fils, des ondes hertziennes, wifi, etc. Les capteurs et les terminaux se multiplient également.

Dans cette nébuleuse technologique, chaque profession, chaque constructeur et chaque installateur proposait traditionnellement souvent son système unique, quitte à entraîner des interférences entre les différents systèmes. La multiplication et la redondance des informations, des fils, des codes, des ondes étaient monnaie courante. Pour changer la donne, différentes professions jouant un rôle dans l’habitat commencent à dialoguer entre elles.

Exporter un logiciel français ?

Pour rassembler les conditions de succès d’une filière domotique française, 6 entreprises leaders de la domotique ont décidé de créer la start-up Confluens. Celle-ci est destinée à favoriser l’interopérabilité entre les différents systèmes et équipements domotique. L’objectif affiché est aussi de créer une filière française, exportable sur les marchés étrangers.

Cette start-up est lancée par le spécialiste des systèmes de contrôle d’accès CDVI, le leader des automatismes de commande de volets roulants Somfy, le fabricant de dispositifs de contrôle de chauffage Delta Dore et les fournisseurs d’appareillages électriques de bâtiment Legrand, Schneider Electric et Hager.

« Le rôle de cette start-up est de développer une couche logicielle, qui permettra aux différents équipements dans la maison de dialoguer entre eux et ce quel que soient les protocoles filaires et sans fil qu’ils utilisent pour communiquer », explique Marcel Torrents, Président du directoire de Delta Dore, et président de Confluens. La solution, attendue dans 12 à 18 mois, prendra la forme d’un logiciel sous licence ou d’un module électronique à intégrer dans les produits. Concrètement, comme les acteurs ne définiront jamais de protocole standard, il s’agira d’un « transcripteur de protocole », capable de mutualiser les différents protocoles présents sur le terrain.

Des logiciels ouverts ?

Un autre enjeu réside dans l’élaboration de logiciels ouverts permettant de dialoguer avec les 300 protocoles existants. « Dès que la domotique est connectée à Internet et qu’il y a de l’intelligence à gérer, les logiciels doivent être ouverts », affirme Pierre Duchesne, Président d’AVOB.

Selon lui, les discussions traditionnelles portant sur la définition d’un protocole standard servent uniquement à cacher le débat de fond sur l’ouverture des logiciels à l’ensemble des protocoles.  À présent l’intelligence et l’interopérabilité des objets doivent se jouer dans le Cloud. « Les entreprises ne veulent pas parler du fait qu’ils ferment les protocoles, car cela a un impact sur leur image de marque, mais avec l’avènement des nouveaux logiciels, ils n’auront plus le choix », prévoit-il.

Par Matthieu Combe, journaliste scientifique

Piloter des bâtiments tertiaires, c’est rentable !

Seulement 2 % des bâtiments tertiaires utilisent un système de Gestion Technique du Bâtiment (GTB). La raison ? L’offre est trop chère, complexe et inadaptée aux bâtiments de petites et moyennes tailles ! Pour remédier à cela, l’éditeur de logiciels AVOB a lancé il y a 6 mois la solution « Building Energy Saver for SMB (Small & Medium Building) », une solution globale « plug and play ». Elle concerne les bâtiments tertiaires de 200 à 5 000 m2 et permet de piloter tout un tas d’appareils, via l’utilisation de capteurs de présence, d’éclairage, d’humidité, de qualité de l’air, etc. Elle permet aussi de mesurer et suivre les consommations d’eau, de gaz et d’électricité.

« La solution est constituée de box reliées à des compteurs multi-fluides et communiquant avec des capteurs et des actionneurs. Le système nécessite environ une box pour 200 m2. Pour les bâtiments plus grands, un réseau de box est relié à une box centrale. Cette boîte renvoie toutes les données sur un serveur centralisé ou sur le Cloud par 3G ou ethernet. Enfin, grâce à un ordinateur ou un iPad, il est très facile de vérifier les données et de changer les consignes de température, d’éclairage, etc. » explique Pierre Duchesne, Président d’AVOB.

La grande valeur ajoutée de cette solution est le logiciel qui permet d’obtenir un bâtiment entièrement pilotable. « Notre logiciel est une brique d’intelligence qui va exécuter de l’intelligence locale au niveau du bâtiment, au niveau du quartier, etc… jusqu’au serveur central. Nous fournissons la solution logicielle de dialogue entre les boxs et les serveurs d’analyse, de support des algorithmes de gestion énergétique et d’envoi d’ordre aux équipements », précise-t-il.

La solution est une plateforme ouverte : AVOB travaille avec plusieurs fournisseurs de capteurs, pour ne pas dépendre d’un seul équipementier. Ainsi, la solution actuelle mélange différentes technologies filaires (BACnet, ModBus etc.), sans-fil (Zigbee, etc.) et sans-fil-sans-pile (EnOcean). Le logiciel peut-être mis à jour pour intégrer de nouveaux protocoles de façon à fonctionner avec l’ensemble des capteurs du marché.

Combien cela coûte-t-il ?

 « Avec un système de GTB classique, les coûts se situent entre 5 000 et 7 000 € pour 250 m2. Le coût moyen tourne autour de 25 €/m2 pour un immeuble de la Défense à Paris, soit 6 250 € pour 250 m2. En considérant que les automates permettent une réduction de factures d’électricité d’environ 20 %, soit 1 000 € pour cette surface, le retour sur investissement est de 6 ans. Cela n’est pas viable pour la majorité des entreprises qui ont des baux en location ! Avec notre solution, on tourne autour de 10 €/m2, soit 2 500 € pour 250 m2 tout compris. Le retour sur investissement est abaissé à 2 ou 3 ans. » calcule Pierre Duchesne. Le prix dépend du volume des sites installés et du nombre d’équipements à piloter : il peut descendre jusqu’à 5€/m2.

De plus, le pilotage du chauffage et de la climatisation est éligible aux certificats d’économie d’énergie (CEE), ce qui permet de financer 250 € pour chaque tranche de 250 m2.

Quel est l’intérêt pour les entreprises ?

La norme ISO 50001 propose de développer une gestion méthodique de l’énergie pour améliorer la performance énergétique. Elle est citée dans la nouvelle directive sur l’efficacité énergétique 2012/27/UE en relation à l’Article 8 qui prévoit l’instauration d’un audit énergétique obligatoire dans les grandes entreprises. En France, 5000 entreprises sont concernées. Cette solution permet d’y répondre !

Par ailleurs, le diagnostic de performance énergétique deviendra progressivement obligatoire pour tous les établissements recevant du public de plus de 500m² et, d’ici le 1er juillet 2017, dans ceux de plus de 250 m². Cela tombe bien, le logiciel permet d’éditer facilement les rapports de consommation annuels.

L’intérêt est également de mieux mesurer les dérives énergétiques et les profils de consommation. Cela sera particulièrement intéressant en 2016, avec la fin des tarifs réglementés de l’énergie pour les entreprises, connaître ainsi les forfaits les plus adaptés à sa consommation et mieux gérer sa puissance électrique.

L’intérêt d’une solution unique est aussi de simplifier le pilotage global et de diminuer le nombre d’installations et de faire de réelles économies.  « Si les sociétés s’équipent d’une solution de pilotage d’éclairage, puis d’un pilotage du chauffage, et ensuite d’un système de pilotage d’énergie, pour répondre aux différentes réglementations, elles payeront beaucoup plus cher », prévient Pierre Duchesne.

Cette solution est aussi évolutive pour répondre aux différents arrêtés futurs. Par exemple, pour les utilisateurs souhaitant ajouter des capteurs de qualité de l’air, il suffit de prévenir AVOB et de placer les capteurs dans les endroits désirés. La Box les reconnaîtra et enregistrera les mesures. 350 types de capteurs sont d’ores et déjà enregistrés dans la base de données du logiciel.

Les entreprises ne s’y trompent pas. Déjà 40 clients du SBF 120 se sont manifestés auprès d’AVOB pour tester la solution. Cela représente des milliers de sites de banques, assurances, télécom, logistique, distribution… Les villes sont aussi intéressées pour les écoles et autres lieux recevant du public !

Par Matthieu Combe, journaliste scientifique

A quoi ressemblerait vraiment la maison connectée ?

25 novembre 2014 : 18h, il neige– Vous sortez du travail et prenez rapidement le métro pour rentrer à la maison en espérant trouver un peu de chaleur. Depuis quelque temps, votre Smartphone vous connaît bien et reconnaît chacun de vos trajets habituels. Ce soir, il comprend que vous rentrez chez vous. Il envoie donc l’information à votre maison, afin d’augmenter le chauffage. Et lorsque vous arrivez sur le pas de la porte, l’éclairage de l’entrée s’allume automatiquement.

Vous allez dans la cuisine, car en fin d’après-midi vous avez reçu un SMS d’alerte : une consommation anormale d’eau a été décelée sur le robinet de la cuisine. Après quelques recherches, vous découvrez bien une petite fuite sous l’évier : votre téléphone vous a fait gagner un temps précieux !

Un petit coup de clé à molette plus tard, vous avez bien mérité un divertissement à la télévision. Vous avez de la chance, l’enregistrement de votre téléréalité préférée « Nabilla chez les Ch’tis » s’ouvre d’un simple regard de vos Google Glass à l’écran. Une parole suffit à fermer les volets et à éteindre la lumière. Vous allumez alors une bougie parfumée pour vous détendre : vous savez bien que vos capteurs de qualité de l’air permettront d’épurer votre air au cours de sa combustion ! Mais votre montre sonne : c’est un appel de votre mère. Heureusement, vous avez encore le choix de ne pas répondre.

Une scène encore futuriste ?

Cette scène quotidienne n’est pas si futuriste. Apple vient de déposer un brevet qui utilise le GPS de l’iPhone pour localiser l’usager et contrôler les appareils et les installations domestiques en conséquence. Apple imagine ainsi un système prédictif qui anticipera certaines actions. Par exemple, chez soi, le prochain iPhone pourrait commander automatiquement le chauffage, les lumières, la porte de garage, de l’électroménager, l’alarme, etc.

Les Google Glass permettront aussi de contrôler des équipements domestiques.

En fixant un objet ou par commande vocale, il sera possible de contrôler l’éclairage, ouvrir les volets ou allumer la musique.

Selon l’analyste Brian White de chez Cantor Fitzgerald, l’iWatch d’Apple embarquera des fonctions de domotique. Ainsi, en plus d’afficher des notifications provenant d’un iPhone ou de recevoir les appels, elle pourrait servir de télécommande domotique pour une maison connectée. Reliée aux différents appareils de la maison en Bluetooth Low Energie, la montre pourrait les déclencher à distance. Elle pilotera ainsi, par exemple, la chaîne Hi-Fi, la télévision, réglera le thermostat ou encore l’intensité des lumières.

La qualité de l’air intérieur sera aussi améliorée

Avoir une maison hyperconnectée, c’est pratique. Mais à quoi bon rester enfermé si votre air intérieur est pollué ? Plusieurs sondes permettent donc d’améliorer la ventilation des habitations et d’améliorer la qualité de l’air intérieur. Parmi elles, NanoSense a développé la première sonde de qualité de l’air intérieur, QAI-E4000, capable de mesurer à la fois le taux de dioxyde de carbone (CO2), de Composés Organiques Volatils (COV), d’humidité (absolue et relative), la température et la température ressentie.

Fabriquée en France, cette sonde  contrôle directement, suivant les mesures enregistrées, la Ventilation Mécanique Contrôlée (VMC), un traitement de l’air éventuel, le chauffage et la climatisation pour une meilleure efficacité énergétique et une meilleure qualité de l’air !

Par Matthieu Combe, journaliste scientifique

Objets connectés : 4 tendances émergentes

Le web sémantique consiste à recenser et coordonner des informations présentes sur internet  afin de les rendre automatiquement lisibles, à la fois par l’homme et par la machine. Son objectif réel est de permettre aux machines de réaliser les demandes complexes de l’homme sans que celui-ci n’ait à l’aider dans ces tâches en lui donnant une direction.

Né avec le WAP (Wireless Application Protocol), le web mobile est comme son nom l’indique, la faculté d’un téléphone portable à accéder à internet et donc à ses nombreuses applications via les navigateurs conçus à cet effet. Le web mobile s’est très largement développé depuis ses débuts, notamment grâce à l’essor des terminaux mobiles comme les smartphones et de la formule « forfait internet illimité »

Quant au web des objets, il peut se définir comme « un réseau d’objets connectés à internet, équipés de capteurs intelligents qui communiquent entre-eux (Machine To Machine) et éventuellement avec leurs propriétaires »; il se résume brièvement par la capacité des objets du monde physique à interagir avec le web. La mise en relation de ces objets intelligents avec les technologies du web offre à ses utilisateurs des informations précieuses.

Ce que l’on considérait comme la révolution de demain s’appréhende dorénavant comme les prémices d’une nouvelle réalité dont les premiers jalons se mettent en place petit à petit mais dont on sait aussi que le développement sera exponentiel. Ce n’est évidemment pas un hasard si le président François Hollande avait inclus les objets connectés parmi les 34 projets d’avenir pour relancer l’industrialisation et que trois PME françaises (Medissimo, Netatmo et Sen.se) seront récompensées en janvier au CES 2013, le salon annuel consacré au high tech qui a lieu à Las Vegas.

Mais revenons à nos moutons, et parlons de ces tendances émergentes. Dans un futur proche, tous les objets de notre vie quotidienne pourront être connectés au web. On estime ainsi à 80 milliards le nombre d’objets connectés en 2020. Ils serviront de nombreux domaines tels que celui de la santé et du bien-être, celui du travail, celui de la sécurité, tout ce qui concerne les taches ménagères et le milieu urbain… Voici les quatre principales tendances ressenties par Cédric Oeblinger, chargé de projet Digital / Print & Community Manager cher Billiotte & Co :

Les objets collecteurs de données.

Rentre dans cette catégorie tous types d’objets pouvant collecter des informations puis les analyser dans un but défini en amont. En exemple, on peut citer le thermostat connecté inventé par la société Netatmo de Frédéric Potter. Le thermostat décortique les données de température pour un ajustement précis de la puissance du chauffage et permet grâce à son analyse de réaliser des économies d’énergie. La future invention de Rafi Haladjian (connu pour le lapin Nabaztag), pour l’heure mystérieuse, dévoilera lors du salon de Las Vegas « un objet utile pour collecter les données de la vie quotidienne ». Les smartphones et leurs services de géolocalisation utilisent nos données de la même manière. Plus anecdotique maintenant mais très certainement pratique pour les têtes en l’air, il existe un capteur susceptible de vous prévenir lorsque votre plante verte manque d’eau.

Les objets portés sur le corps.

Ils collectent les données et facilitent le quotidien. C’est le cas pour les tee shirt munis de QR-code ou de puces RFID (pour radio frequency identification). Cela peut aller assez loin : les Google Glass, issues du Google X Lab, intègrent caméra, micro, mini-écran, accès internet et pavé tactile. Les objets portés ont souvent un lien avec tout ce qui a trait à la pratique sportive. Le bracelet Nike+FuelBand SE notamment, mesure les mouvement du corps, mesure le poul et permet d’améliorer sa vie active. Dans le même ordre d’idées, le bracelet Fitbit, porté la nuit, enregistre les mouvements du corps de son utilisateur et détermine le nombre d’heures de sommeil et calcul via une équation simple sa qualité. On pourrait également prendre en exemple les chaussures intelligentes. Quoi qu’il en soit les bracelets et autres vêtements de ce genre se multiplient et deviennent les coach particuliers d’aujourd’hui.

Les objets liés à la reconnaissance utilisateur.

Ces objets nécessitent en amont l’authentification de l’utilisateur. Il est possible par exemple d’autoriser ou d’interdire l’accès d’une personne à distance, via la serrure Auguste Smart Lock connectée à un mobile. Dans cette rubrique, on compte donc les poignées de porte, les montres, les lunettes…

Les objets répondant à des besoins quotidiens ou l’application est manifeste.

Le magnet Evian Smart Drop, imaginé par Joshfire et BETC, collé sur le frigo peut détecter les besoins en eau de son détenteur et permet de passer commande en fonction de ce qu’il y a à l’intérieur. Dans un tout autre registre, Google a annoncé le déploiement de ballons dirigeables afin d’apporter des connexions wifi à certains pays d’Afrique.

Les apports et usages des objets connectés sont légions.

Cela se traduit au quotidien par un tas de petites innovations qui se destinent à l’amélioration de la qualité de vie. Forcément, en déléguant les taches aux machines et d’une manière générale en proposant une meilleure gestion du quotidien dans presque tous les domaines, les capteurs nous accordent un gain de productivité et de temps considérable. Mais cela a aussi des répercussions positives en médecine. Les équipements médicaux seront plus que jamais performants. Ils éviteront probablement le 1% d’erreur humaine en plus d’obtenir une anticipation  supérieure des risques spécifiques des malades par l’analyse constante de leurs données.

Du coup les objets connectés sont furieusement tendances. Tout le monde s’y intéresse, des géants Apple, Samsung et Nike aux sociétés plus modestes. Sans oublier les hommes politiques. On en parlait plus haut avec les 34 plans d’action à la réindustrialisation de la France. Car les objets connectés pourraient avoir une vertue précieuse : redonner de l’emploi. C’est en tout cas ce que pense Éric Carreel, président de Withings estimant que la fabrication toujours plus importante d’objets connectés s’accompagnera de services associés tels que la livraison de ces objets et pourrait donc créer des emplois en France.

Seul bémol, l’utilisation des objets connectés peut conduire à des dérives entre des mains mal intentionnées. L’accroissement de ces objets pourrait en effet aller de pair avec le risque d’intrusions dans nos vies privées et ouvrir une porte d’accès supplémentaire vers la cybercriminalité.

Par Sébastien Tribot

La domotique 2.0 à l’assaut des séniors

Enfin ! Le marché de la domotique devrait connaitre une forte croissance d’ici 2015. C’est du moins ce que pronostique le cabinet Xerfi pour qui « toutes les conditions sont enfin réunies pour faire de la maison intelligente un véritable marché de masse ».  Optimiste ? Xerfi chiffre à 35% le développement de la domotique et estime que ce marché pèsera près d’un milliard d’euros dans 2 ans.  Attendu depuis de nombreuses années, l’essor de la domotique va peut-être enfin avoir lieu. Parmi les différents facteurs de ce décollage, les séniors pourraient  bien peser massivement dans la balance.

Améliorer l’autonomie à domicile

La domotique, ensemble des technologies appliquées au bâtiment permettant d’en centraliser différents systèmes, existe depuis longtemps, mais peine à s’imposer dans les maisons. Systèmes d’éclairage, de chauffage, d’alarme et de commande à distance sont mis en réseau pour une gestion autonome. Et question autonomie, les personnes âgées en sont très demandeuses. Pour s’éviter la maison de retraite et rester chez eux ou simplement pour gagner en confort et en sécurité, les séniors ouvrent de plus en plus leurs portes aux solutions domotiques.

Un quotidien facilité

Grâce à la domotique, l’automatisation prend tout son sens et les équipements en deviendraient presque intelligents. Côté confort, les habitants peuvent compter sur des éclairages automatiques, la programmation du chauffage et le suivi de température ou encore le pilotage centralisé des volets et des portes. Des asservissements appréciables pour des personnes âgées à la mobilité difficile ou amoindrie. Mais ce qui séduit le plus sont les solutions garantissant la sécurité de l’habitant.

D’après l’enquête « Habitants, habitats et Modes de vie » menée par le CREDOC en juillet 2013, les solutions d’automatisation jugées les plus importantes à hauteur de 52% pour les personnes âgées sont celles qui répondent au besoin impératif de sécurité. Des systèmes de détecteurs de présence, de mouvement ou d’anomalie sont plébiscités par les familles qui y voient un moyen d’assurer la sécurité de leurs séniors lorsqu’ils sont seuls chez eux.

Les systèmes se sont perfectionnés, à l’image des détecteurs d’anomalie. Ceux-ci se familiarisent avec les habitudes de vie de l’habitant via des capteurs. Si ces derniers déclenchent une alarme en cas de chute, ils sont surtout capables de remarquer des modifications du comportement au jour le jour et de donner l’alerte. Une surveillance étroite donc, et personnalisée.

Tablettes et smartphones soutiennent la domotique

La domotique s’appuie sur les progrès des différents terminaux portables, comme les téléphones ou les écrans tactile. Certaines entreprises ont même développé des supports dédiées aux séniors avec de grosses touches par exemple. Des évolutions qui facilitent le recours à la domotique. Une aisance nécessaire pour dompter les séniors souvent réfractaires aux nouvelles technologies.  Pour briser leur isolement et garder un lien social, les personnes âgées peuvent utiliser la télévision connectée à internet comme plate-forme d’accès à toutes sortes d’informations pratiques : info, horaires des transports, services de proximité, envoi de SMS vocal et même visiophonie.

La domotique veille sur  nos séniors

En véritable gardien protecteur, la domotique propose aussi des systèmes de gestion des formalités administratives. A l’aide d’un scanner simplifié, factures et courriers importants sont scannés et soumis à une application qui gère automatiquement leur classement et leur traitement. De quoi simplifier la vie, et pas que des séniors ! Autre application, des piluliers équipés d’une carte SIM qui alertent en cas d’oubli de prise des médicaments.

Jusqu’au 29 novembre se tient la 4e édition des Journées Nationales de la Domotique, organisée par l’association Promotelec. Pour participer ou visiter un des nombreux showroom rendez-vous sur leur site des journees nationales de la domotique.

Par Audrey Loubens, journaliste scientifique