Votre smartphone met en danger votre entreprise

Et si notre professionnalisme mettait en péril notre employeur ? Assis à la terrasse d’un bistrot, à la machine à café, en vacances, dans notre canapé le soir… Alors que nous pensons simplement lire nos mails professionnels ou réviser un dossier, nous sommes peut-être sans le savoir en train d’aider un pirate informatique à pénétrer dans le système de notre entreprise ! Pour la société de sécurité internet Check Point cela ne fait aucun doute. Les attaques se feront de plus en plus via nos terminaux mobiles personnels car ils offrent de nouveaux points d’accès au réseau interne et sont moins protégés. Or ce nouveau phénomène de BYOD (Bring your own device) va augmenter : de plus en plus de personnes optent pour le télétravail, les salariés sont toujours plus mobiles et le marché des smartphones et tablettes est en pleine explosion. Les entreprises se doivent donc de repenser leurs protocoles de sécurité, ne devant plus se contenter de limiter l’accès au terminal mais désormais filtrer l’accès aux données elles-mêmes.
 
« La cybercriminalité est devenue un commerce. Lorsqu’on sait que des kits de piratage sont aujourd’hui en vente pour 500 dollars seulement, on comprend l’ampleur du problème et la nécessité de mettre en œuvre des protections préventives pour protéger les ressources stratégiques » alerte Tomer Teller, expert de la cybersécurité chez Check Point Software Technologies.

Dans une précédente enquête, Check Point révélait que la principale motivation des hackers était la fraude financière, suivie de l’intention de perturber le fonctionnement de l’entreprise,  mais aussi le vol de données clients. Et ces attaques sont coûteuses : une seule attaque ciblée réussie coûterait en moyenne 214.000 dollars selon les entreprises. En Allemagne, cela monterait à 300.000 dollars par incident.

Si l’inquiétude de nos dirigeants converge vers les tablettes et les smartphones privés, c’est-à-dire non fournis par l’entreprise, force est de constater que les salariés ne sont pas conscients du danger potentiel à accéder à leurs données professionnelles via un terminal privé. Il est donc important de sensibiliser l’ensemble des employés au risque de cyberattaque et de créer un espace limité d’informations accessibles de l’extérieur. Il existe par exemple des applications à installer sur les terminaux personnels des salariés pour leur permettre d’accéder grâce à un code à un éventail de services limité, tels que l’agenda, les mails ou une partie de l’intranet.

Par Audrey Loubens, journaliste scientifique

Revue du web #38 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Une jolie illustration de l’effet Leidenfrost, avec une bille de nickel incandescente dans de l’eau ;
  • La table tactile multi-touch de 3M, un géant de 84 pouces présenté cette année au Consumer Electronics Show de Las Vegas ;
  • « MeCam », le quadricoptère qui vous filme et vous suit à la trace ;
  • « CompressorHead », un vrai groupe de métal ;
  • et enfin, le gadget (inutile ?) de la semaine : le « déployeur » d’iPhone, présenté dans une vidéo pour le moins farfelue.

Mettre une bille de nickel incandescente dans l’eau

Pour débuter notre trente-huitième Revue du web, jetons un œil à l’une des meilleures illustrations d’un effet bien connu de nos scientifiques, à savoir l’effet Leidenfrost, du nom du premier chercheur à l’avoir décrit, l’Allemand Johann Gottlob Leidenfrost.

Cet effet s’explique assez facilement et est aisément observable en projetant des gouttes d’eau sur une plaque chauffante. En fonction de la température du support, la goutte va avoir un comportement différent : légèrement en dessous de 100°C, la goutte s’étale et s’évapore lentement ; au-dessus de 100°C, la goutte siffle en atteignant le support et s’évapore très rapidement ; lorsque le point Leidenfrost est atteint (autour de 160°C pour l’eau), la goutte ne s’évapore plus, mais glisse sur la plaque chauffante. En effet, la partie inférieure de la goutte se vaporise immédiatement, créant un film de gaz protégeant le reste de la goutte de la plaque, et assurant par la même sa suspension. La goutte peut alors rouler comme une bille et met plus de temps à s’évaporer que si la plaque était de température moins élevée.

Ici, le principe est le même : la bille de nickel est chauffée jusqu’à en devenir incandescente, puis elle est plongée dans une tasse remplie par ce qui semble être de l’eau. Le métal rougi vaporise instantanément l’eau qui l’entoure, créant une « chape » de vapeur autour de la bille. Cet écrin de vapeur limite les échanges énergétiques entre le nickel et le reste de l’eau. Tant que la bille est suffisamment chaude pour faire bouillir et vaporiser à une vitesse suffisante l’eau qui entoure l’écrin de vapeur, l’effet est entretenu et retarde le refroidissement de la petite sphère métallique. Lorsque la bille n’est plus assez chaude pour renouveler assez vite la chape de vapeur, le bouclier s’effondre et laisse l’eau entrer en contact direct avec la bille, qui se refroidit rapidement.

Nos oreilles ne sont pas en reste… La réaction émet de petits bruits pour le moins surprenants à partir de la vingtième seconde de la vidéo, dus au contact entre la bille et le contenant. En effet, la chape de vapeur suspend la bille, lévitant sur un coussin de vapeur qui se réduit peu à peu (il y a moins d’eau sous la bille). Lorsque le coussin n’est plus suffisant, la bille tinte en entrant en contact avec la tasse et l’eau se rapproche alors de la bille, générant à nouveau un fin coussin de vapeur sous celle-ci, et ainsi de suite.

La table tactile multi-touch de 3M, un géant de 84 pouces :

Le Consumer Electronics Show (ou CES) est le plus grand salon consacré aux technologies innovantes en électronique grand public, qui se tient chaque année début janvier à Las Vegas (Nevada). Ce salon majeur, plébiscité aussi bien par les exposants que par les visiteurs professionnels, sert souvent de plateforme pour la présentation de produits et technologies en avant-première. L’édition 2013 ne déroge pas à la règle : le géant américain 3M a en effet levé le voile sur une table tactile dont l’écran, multi-touch, présente une diagonale de 84 pouces (ce qui correspond à une diagonale de 2 mètres 13), dont nous vous parlions déjà ici.

Pour ne rien gâcher, l’écran est au format 4K – une résolution de 3840 x 2160 pixels, environ 4 fois supérieure au HD 1080p – une première pour un écran tactile. Le prototype présenté peut supporter une quarantaine de touches simultanées, bien que la version finale du monstre de 3M doive pouvoir en supporter une centaine. Le musée des Sciences et de l’Industrie de Chicago en utilise depuis peu une version afin de présenter des concepts scientifiques. Cette version, tournant sur Windows 7 avec une application utilisant Flash, est identique à celle que l’on peut apercevoir dans la vidéo qui suit.

3M Company (acronyme de Minnesota Mining and Manufacturing Company), créé il y a plus de cent ans aux Etats-Unis, s’est fait connaitre pour avoir inventé et commercialisé le « Scotch » au début du siècle, puis les « Post-it » dans les années 1980. Le conglomérat est notamment présent dans les domaines de l’industrie et du transport, de la santé, de la signalisation, des affaires de bureau, de la sécurité, de l’électronique…

« MeCam », le quadricoptère qui vous suit à la trace

Ce n’est plus un secret pour personne : les quadricoptères ont définitivement la cote chez les scientifiques de tout poil. MeCam n’est pourtant pas un quadricoptère ordinaire : de taille relativement réduite si on le compare à ses « congénères » (il tient dans le creux de la main), MeCam est conçu pour suivre et filmer son utilisateur à la trace, et ainsi flatter l’ego surdimensionné de quelques Narcisse en vadrouille.

Les quatre hélices du petit bolide transportent un module équipé d’un processeur de type ARM de 1 à 1,5 GHz, d’1 GB de mémoire vive, d’un slot pour carte SD, du wifi dual-band, du Bluetooth et d’un appareil photo numérique, capable de prendre aussi bien des photos que des vidéos. Il est également doté de quatorze capteurs pour prévenir toute collision, d’un stabilisateur vidéo (conçu par la start-up Morpho), et son logiciel de commande est pourvu de deux algorithmes pour les fonctions « autopilote ». Programmé pour suivre l’utilisateur à la trace, il est aussi possible de le passer en commande vocale. Cerise sur le gâteau, MeCam est également tourné vers les medias sociaux : chaque vidéo prise peut être envoyée sur un smartphone Android ou iOS via une application spécialement dédiée, pour ainsi être partagée en ligne presque instantanément.
Le petit bolide devrait couter 49 dollars, et être disponible sur le marché courant 2014.

« Compressorhead », vrai groupe de métal

Le groupe allemand « Compressorhead » commence à faire parler de lui : pas de passage en radio prévu, mais déjà plus de trois millions de vues sur Youtube. Le groupe d’un tube ? Vous ne croyez pas si bien dire. « Compressorhead » est le premier groupe de métal… en métal. Les trois membres du groupe – StickBoy, Bones et Fingers – ne sont en effet autres que d’agiles robots musiciens.

Le plus expérimenté de ces musiciens est le batteur, « Stickboy ». Conçu par les Allemands de Robocross en 2007, Stickboy triche un peu : le batteur, dont les mouvements sont régis par un moteur à air comprimé, est doté de deux jambes et de… quatre bras, lui facilitant quelque peu l’accès aux quatorze éléments de sa batterie. Vient ensuite « Fingers », le guitariste, conçu en 2009 par les Allemands de Kernschrott, qui tourne à l’aide d’un compresseur rotatif Hydrovane. Ses 84 mini-cylindres pneumatiques – en guise de doigts – lui permettent d’atteindre les notes voulues, avec la précision (et le manque de « feeling ») d’un robot programmé pour cette tâche. Enfin, « Bones » le bassiste et le plus récent membre de Compressorhead (achevé en 2012), dispose sous le manche de sa basse d’un rail permettant à sa main et à ses doigts métalliques de se déplacer et de jouer toutes les notes désirées.

La performance a eu lieu à Berlin, dans les locaux de Robocross, où le groupe a joué le titre « The Ace of Spades » du groupe de métal anglais Motörhead. Un concert est prévu pour le Big Day Out 2013, à Sydney. On peut se réjouir d’une chose : tous les robots ne sont pas là pour dominer le monde.

Le gadget (inutile ?) de la semaine : le « déployeur » d’iPhone

Pour conclure cette trente-huitième Revue du Web, rien de tel qu’un homme un tantinet trop sûr de lui et de son invention, se mettant en scène dans une vidéo pour le moins… loufoque. Très peu de choses ont filtré sur l’identité de ce jeune homme, mis à part le fait qu’il soit citoyen du pays du soleil levant. Ce Japonais, la trentaine, est investi d’une mission sacrée : il semble en effet décidé à tout faire pour lutter contre les appels en absence. Louons la noblesse de cette cause trop souvent oubliée.

Toute cause a besoin de soldats pour la défendre, et tout soldat a besoin d’une arme. C’est ici que notre ami japonais intervient, tel un soldat 4G, un fantassin du sans-fil, un justicier des appels manqués. Son arme ? Un « déployeur » d’iPhone, ressemblant à une extension de bras mécanique. Le stratagème de son gadget est simple : le smartphone est fixé (de manière précaire) à l’extrémité d’une pièce métallique montée sur un rail, l’ensemble étant fixé au bras de notre ami par deux sangles parallèles. Lorsque la sonnerie retentit, ce dernier donne une impulsion (un mouvement brusque du bras vers le haut) pour déclencher le ressort permettant de positionner l’iPhone dans sa main, à peu de choses près.

Dans une succession de scènes complètement surréalistes, nous pouvons l’accompagner dans ses succès comme dans ses échecs, allant jusqu’à se fixer quatre de ces déployeurs (un à chaque bras et un par jambe) pour se lancer dans une danse au désynchronisme hypnotique. Après une courte excursion dans le métro tokyoïte, il termine son entrainement sur le toit d’un immeuble, toujours dans la plus grande des solitudes. Car nul doute que notre ami soit prêt à répondre au téléphone, encore faut-il… qu’il se mette à sonner.

Par Moonzur Rahman

L’essentiel de REACH 2/2 (Janvier)

 

Nouvelle consultation pour éviter les tests sur les animaux

15/01/2013

L’ECHA a lancé un appel visant à collecter des informations sur de nouvelles substances pour éviter les tests inutiles sur les animaux. Il s’agit de la réaction en masse du 2-(2-((oxo(phenyl)acetyl)oxy)ethoxy)ethyl oxo(phenyl)acetate (2-(2-hydroxyethoxy)ethyl) oxo(phenyl)acetate (N°CE : 442-300-8). Les informations relatives à cette réaction sont à soumettre pour le 1er mars 2013. Plus d’information sur :

echa.europa.eu/information-on-chemicals/testing-proposals/current

 

L’ECHA recommande 10 nouvelles substances SVHC pour l’autorisation

17/01/2013

L’ECHA recommande 10 nouvelles substances extrêmement préoccupantes à la Commission Européenne, pour la procédure d’autorisation. Les 10 nouvelles substances ont été priorisées en fonction de leurs propriétés dangereuses, les volumes utilisés et l’utilisation potentielle liée à l’exposition à l’homme. Pour chaque substance concernée, une date limite est suggérée au delà de laquelle les entreprises ne pourront plus l’utiliser à moins d’avoir obtenu une autorisation. La décision finale sur l’inclusion des substances dans l’annexe XIV (la liste d’autorisation) sera prise par la Commission européenne en collaboration avec les États membres et le Parlement européen. Plus d’informations sur :

echa.europa.eu/view-article/-/journal_content/title/echa-recommends-10-svhcs-for-authorisation

 

La page Web de l’ECHA sur le règlement PIC disponible en 22 langues

17/01/2013

Le règlement sur le consentement préalable informé (PIC, règlement (UE) n°649/2012) administre les importations et les exportations de certains produits chimiques dangereux et impose des obligations aux entreprises qui souhaitent exporter ces produits chimiques vers des pays hors de l’UE. Il met en œuvre, dans l’Union européenne, la convention de Rotterdam sur la procédure de consentement préalable informé pour certains produits chimiques et pesticides dangereux qui font l’objet d’un commerce international. La page web de l’ECHA relative à ce règlement est consultable sur :

echa.europa.eu/fr/web/guest/regulations/prior-informed-consent-regulation

 

Nouvelle consultation pour éviter les tests sur les animaux

22/01/2013

L’ECHA a lancé un appel visant à collecter des informations sur de nouvelles substances pour éviter les tests inutiles sur les animaux. La substance concernée est le 2-(2-Vinyloxyethoxy)ethyl acrylate (N°CE : 451-690-9). Les informations relatives à cette substance sont à soumettre pour le 8 mars 2013. Plus d’information sur :

echa.europa.eu/information-on-chemicals/testing-proposals/current

 

Réduction de l’exposition aux perturbateurs endocriniens

24/01/2013

La Commission du Parlement européenne pour l’environnement, la santé publique et la sécurité alimentaire (ENVI) a adopté un projet de résolution sur la protection de la santé publique contre les perturbateurs endocriniens. Cette résolution sera soumise au vote lors de la session plénière du 11 au 14 mars. Plus d’informations sur :

reseau-environnement-sante.fr/2013/01/24/dossiers-par-themes/communique-de-presse-24-janvier-2013-les-deputes-europeens-pressent-la-commission-a-agir-sur-les-perturbateurs-endocriniens/

 

 

Avis du JORF modifiant l’avis de janvier 2013 relatif aux substances dans les articles

25/01/2013

Cet avis modifie l’avis du 3 janvier 2013 destinés aux opérateurs économiques sur l’obligation de communiquer des informations sur les substances contenues dans les articles en application des articles 7.2 et 33 du règlement (CE) n° 1907/2006 (règlement REACH). Dans le texte n°66, les mots : « Cette liste contient actuellement 84 substances candidates » sont remplacés par les mots : « Cette liste contient actuellement 138 substances candidates. ». L’avis est consultable sur :

legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000026977379&dateTexte=&categorieLien=id

 

Travailler avec les syndicats européens afin de promouvoir la sécurité des travailleurs et les sensibiliser aux FDS étendue (scénario d’exposition)

25/01/2013

La Confédération européenne des syndicats (CES) et la fédération syndicale IndustriAll étendent leur campagne d’information REACH pour les travailleurs. En coopération avec l’ECHA et l’Agence européenne pour la sécurité et la santé au travail (EU-OSHA), la campagne promeut la compréhension des scénarios d’exposition annexés aux fiches de données de sécurité et les mesures que doivent prendre les entreprises pour une utilisation sûre des substances dangereuses. La plaquette de sensibilisation est disponible en 22 langues. Plus d’information sur :

echa.europa.eu/view-article/-/journal_content/title/working-with-european-trade-unions-to-promote-worker-safety-and-awareness-of-reach-extended-safety-data-sheets

Plaquette de sensibilisation :

echa.europa.eu/documents/10162/13628/leaflet_etuc_echa_sid_es_fr.pdf

 

Modifications du règlement PIC

25/01/2013

Le règlement UE n°73/2013 de la Commission européenne du 25/014/2013 modifie les annexes I et V du règlement (CE) n° 689/2008 du Parlement européen et du Conseil concernant les exportations et importations de produits chimiques dangereux. Le règlement est consultable sur :

eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:026:0011:0016:FR:PDF

 

Poste à pourvoir à l’ECHA

Un poste est à pourvoir à l’ECHA. Les candidatures sont à soumettre pour le 21 février 2013. Plus d’informations sur : http://echa.europa.eu/web/guest/about-us/jobs/open-positions

 

Mise à jour de la FAQ sur les demandes de diffusion et de confidentialité des informations contenues dans les fiches de données de sécurité, dans IUCLID 5.4

28/01/2013

La mise à jour de la FAQ comprend des précisions sur les demandes de confidentialité des informations contenues dans les fiches de données de sécurité des monomères. Plus d’information sur :

echa.europa.eu/documents/10162/13651/questions_and_answers_sds_info_dissemination_en.pdf

 

L’ECHA appelle les parties prenantes à travailler sur les biocides

29/01/2013

L’ECHA souhaite que les parties prenantes prennent part aux travaux sur le nouveau règlement relatif aux produits biocides, qui entrera en vigueur le 1er Septembre 2013. Plus d’information sur : echa.europa.eu/view-article/-/journal_content/title/echa-calls-for-stakeholders-to-work-on-biocides

 

8ème journée des parties prenantes

30/01/2013

La 8ème journée des parties prenantes aura lieu à Helsinki le 26 mars 2013. Cette journée est dédiée principalement aux PME devant enregistrer avant le 1er juin 2013. Le programme de cette journée est disponible sur :

echa.europa.eu/documents/10162/13587/8th_shd_programme_en.pdf

Inscription sur :

webropolsurveys.com/Answer/SurveyParticipation.aspx?SDID=Fin598953&SID=da59c5e3-5017-4dfd-ad98-0d46122bed98&dy=942920216

 

Boîte à outils QSAR version 3.1 disponible

30/01/2013

La boîte à outils QSAR (Quantitative Structure-Activity Relationship) aide les entreprises à utiliser des méthodes pour grouper les produits chimiques en catégories, avoir plus d’informations sur ces produits en croisant des données, ceci dans le but d’évaluer les risques d’(éco)toxicité des produits chimiques devant être enregistrés sous REACH. Ceci contribue à réduire les coûts et l’utilisation des tests sur les animaux vertébrés. Plus d’informations sur :

echa.europa.eu/view-article/-/journal_content/title/qsar-toolbox-3-1-now-available

 

Les présentations du webinar “Comment mettre à jour son dossier en règle avec REACH ?” en ligne sur le site de l’ECHA

Ce webinar a donné des avis et conseils aux déclarants sur la façon de soumettre des informations sur les produits chimiques dans le dossier technique de l’ECHA, en conformité avec le règlement REACH. Ce webinar a eu lieu le lundi 28 Janvier 2013. Plus d’information sur : echa.europa.eu/web/guest/view-article/-/journal_content/title/how-to-bring-your-registration-dossier-in-compliance-with-reach-tips-and-hints-part-2

 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

 

Participez aux formations Techniques de l’Ingénieur :

 

Grande première : des scientifiques japonais sont parvenus à reconstituer du tissu rénal

Ce succès on le doit à l’équipe du professeur Kenji Osafune, en collaboration avec le Centre de l’Université de Kyoto destiné à la recherche et les applications des cellules iPS. Le tissu rénal, ou plutôt le tissu mésoderme intermédiaire qui le compose en grande partie, est généré après 11 jours de culture avec un taux de réussite de 90 %.

 

Cette reconstitution est rendue possible grâce aux progrès de la médecine régénérative et au grand potentiel qu’offrent les cellules souches. Le travail des scientifiques va évidemment dans ce sens. Ici il consiste à faire revenir des cellules adultes à l’état quasi embryonnaire. Par souci éthique, les cellules sont prélevées sur des êtres humains adultes puis reprogrammées en laboratoire. Ainsi, les cellules dites induites à la pluripotence, par leur « immaturité », ont la capacité de se transformer en n’importe quelle cellule en fonction du milieu dans lequel elles se trouvent.

 

Il n’y a pas encore de garantie quant à la guérison des maladies rénales par greffes de cellules régénérées souligne le Dr Osafune. L’utilisation de ces cultures pour un traitement médical n’est donc pas à l’ordre du jour. Une telle affirmation serait prématurée au vu de l’avancement des travaux. La recherche tend néanmoins vers la maîtrise de cette méthode et à déterminer, là est le hic, leur propension à développer des cancers. Et bien que le rein ait par nature une structure complexe, cela demeure un véritable espoir.

 

Sources :

Radio Canada

Nature.com

 

Par Sébastien Tribot

L’évolution de LabVIEW : des décennies de développement

Pour créer ce logiciel, NI a associé une interface utilisateur graphique à une programmation graphique intuitive. Comme l’a annoncé le P.D.G. de National Instruments, le Dr James Truchard, « LabVIEW a été développé pour faire, pour les ingénieurs, ce que la feuille de calcul a fait, pour les analystes financiers ». Ainsi la version 1.0 intégrait des technologies de base qui sont toujours fondamentales à l’heure actuelle : les flux de données parallèles, la hiérarchie, les E/S intégrées et les bibliothèques d’analyses. Après des millions d’heures de développement, de très fortes avancées technologiques, et une diffusion à des milliers de domaines d’applications par ses utilisateurs, LabVIEW est devenu une plate-forme de conception de systèmes aboutie. Cet article vous fait découvrir certaines des origines et des influences qui ont guidé le développement de LabVIEW et offre un aperçu de ses évolutions à venir.

Un développement conduit par une communauté d’utilisateurs

Depuis le premier jour, la communauté d’utilisateurs passionnés et communicatifs de LabVIEW a constitué une très grande force de proposition pour le développement. Les ingénieurs NI sont constamment surpris et inspirés par les différents domaines dans lesquels les utilisateurs mettent LabVIEW en application. LabVIEW a récemment battu des records d’adoption avec un nombre croissant de sociétés et d’utilisateurs qui adoptent quotidiennement la plate-forme. Ces dix dernières années seulement, LabVIEW a atteint des millions d’utilisateurs et, en conséquence, des milliers d’applications et d’industries.

L’augmentation du nombre de futurs utilisateurs de LabVIEW reste également forte, soutenue par le fait que de plus en plus d’universités et d’établissements continuent d’adopter LabVIEW dans leurs cursus de formation ainsi que pour leurs travaux de recherche. Un intérêt porté aux programmes des étudiants, dont une collaboration avec LEGO® sur des produits comme  LEGO Education WeDo™ et LEGO MINDSTORMS®, a contribué à l’ajout de nouvelles capacités de conception et de simulation et a permis de simplifier la construction de l’environnement et du langage.

Des millions d’E/S

À l’origine, LabVIEW visait les applications d’acquisition de données et de contrôle d’instruments, et l’extraordinaire évolution des technologies de bus d’E/S a constitué une force motrice du développement de la plate-forme. Plus riche que les autres environnements de programmation en matière d’intégration d’E/S et de contrôle d’instruments, LabVIEW permet aux utilisateurs d’acquérir et d’analyser des données continuellement à partir de millions d’E/S et d’instruments.

Compatible dès l’origine avec les outils de contrôle d’instruments GPIB et RS-232, LabVIEW intègre désormais les bus USB, Bluetooth, PCI et PCI Express, PXI et PXI Express, sans fil et Ethernet, pour des centaines d’options d’environnements, de niveaux de performances et de formats différents. Alors que le nombre de bus, d’instruments et de technologies d’E/S sur le marché a motivé le développement de LabVIEW, les ingénieurs NI n’ont pas oublié que le support de matériels multifournisseurs est un facteur clé pour résoudre les problématiques d’intégration. Actuellement, LabVIEW offre une bibliothèque complète de plus de 8.000 drivers d’instruments provenant de plus de 325 fournisseurs, une liste qui continue encore de s’allonger.

Des performances parallèles innées

Parce que les grandes capacités d’E/S ont été inhérentes à LabVIEW depuis sa création, les utilisateurs sous-estiment souvent ses capacités de programmation complètes. Les ingénieurs NI ont souvent déclaré que le parallélisme est intégré dans LabVIEW depuis sa première version. Partant de cette base, ces ingénieurs ont continué à faire évoluer et à améliorer les capacités internes de programmation. Avec l’arrivée des processeurs multicœurs, ils ont travaillé en collaboration étroite avec les concepteurs d’Intel pour optimiser la manière dont LabVIEW utilise les threads, la mémoire et le cache, dans le but d’offrir des performances maximums aux toutes dernières plates-formes sur PC. Les ingénieurs NI ont également étendu les capacités de multitraitement symétrique intégré de l’ordonnanceur LabVIEW Scheduler dans l’environnement LabVIEW Real-Time, ouvrant ainsi de nouvelles portes aux importants travaux de recherche dans le domaine de la physique et du traitement avancé hautes performances.
Apporter un aspect graphique aux portes des FPGA

Avec l’évolution incroyable des technologies du silicium intégrant d’énormes performances dans des circuits toujours plus petits et plus abordables, LabVIEW est le pionnier de l’utilisation de la programmation graphique dans le domaine des applications embarquées. LabVIEW guide des milliers d’ingénieurs et de scientifiques dans le développement de systèmes embarqués personnalisés en appliquant l’approche de la programmation graphique aux FPGA (Field-Programmable Gate Arrays). La conception de matériels personnalisés est désormais directement accessible aux experts du domaine d’application, sans nécessiter de délégation aux ingénieurs de conception du matériel concerné, accélérant ainsi les étapes de prototypage et en amenant les produits sur le marché plus rapidement.

Les utilisateurs ont recherché une façon de s’interfacer avec des matériels de cadencement ou de déclenchement numérique personnalisés uniques ou inhabituels et LabVIEW FPGA a proposé une solution qui ne nécessite pas de langage de programmation bas niveau orienté matériel, ni de conception au niveau de la carte. Depuis cet effort initial, le développement sur plates-formes FPGA a continué son évolution vers le contrôle ultrarapide, l’interfaçage aux protocoles numériques, le traitement de signal numérique (DSP) et de nombreuses autres applications qui exigent fiabilité et déterminisme du matériel haute vitesse. Dans les années à venir, les utilisateurs peuvent espérer voir LabVIEW cibler davantage de matériels et s’exécuter sur les circuits de prochaine génération.

Une innovation dans de multiples directions

LabVIEW a ouvert de nouvelles possibilités intéressantes pour exploiter la puissance de calcul des processeurs multicœurs et des FPGA. Pour répondre aux nombreux nouveaux défis des applications, National Instruments a développé des approches de très haut niveau. Même si le logiciel continue à offrir le moteur fondamental apportant performances et facilité de programmation, les ingénieurs NI ont été guidés par les demandes des utilisateurs de LabVIEW et ont reconnu qu’il existe des manières plus intuitives de résoudre certains éléments de leurs applications. En gardant ceci à l’esprit, NI a introduit un grand nombre de structures de développement de haut niveau, dénommées « modèles de calcul », dans la plate-forme. Ces modèles décrivent le comportement du logiciel qui correspond à la vision que les concepteurs ont de leurs systèmes afin de simplifier la traduction des exigences du système en conception d’un logiciel. Les éléments suivants sont des exemples de nouveaux modèles de calcul pour la plate-forme LabVIEW : les mathématiques textuelles (LabVIEW MathScript et les nœuds de formules), les diagrammes d’états (Module LabVIEW Statechart), la simulation de systèmes dynamiques (Module LabVIEW Control Design and Simulation) et les interfaces utilisateur événementielles (structure Événement).

Chaque modèle de calcul possède des ressources qui s’appliquent à des applications, des compétences et des domaines particuliers. Les utilisateurs peuvent intégrer de nombreux modèles de calcul dans une seule et unique structure de programmation graphique. Cette caractéristique apporte évolutivité, efficacité et performances, ainsi que de nouvelles applications pour l’utilisateur de base de LabVIEW, grâce à la conception graphique de systèmes.

Des outils de développement à grande échelle

En ajoutant de plus en plus de capacités à la plate-forme LabVIEW, que ce soit pour de nouvelles cibles matérielles ou de nouveaux outils de conception de haut niveau, NI s’efforce de répondre aux principales demandes des utilisateurs : une intégration ouverte, des performances et la facilité d’emploi. En se basant sur les récents commentaires des utilisateurs, NI s’est concentré sur l’ajout de nouveaux outils et techniques de génie logiciel. Dans une récente étude sur les utilisateurs de LabVIEW, environ deux tiers des réponses ont indiqué que des équipes multi-développeurs travaillent sur leurs projets LabVIEW, avec une moyenne de quatre développeurs par équipe. Certains ont également rapporté avoir choisi LabVIEW en tant qu’outil de conception de systèmes destiné aux projets à grande échelle et aux applications complexes qui nécessitent au moins 50 développeurs.

Un nombre croissant d’entreprises pense que le succès du développement d’applications d’envergure dépend de l’utilisation de processus et d’outils de développement logiciel formel. Comme le logiciel devient rapidement plus complexe et joue un rôle croissant dans les projets critiques à grande échelle, les développeurs LabVIEW continuent à tirer parti des nouveaux outils de génie logiciel de la plate-forme. National Instruments présente les Toolkits LabVIEW Desktop Execution Trace et LabVIEW Unit Test Framework, en plus d’outils tels que le gestionnaire de projets LabVIEW, des bibliothèques et des structures de programmation orientées objet. De plus, les ingénieurs NI ont analysé les commentaires des utilisateurs et ont ciblé les processus de mise à jour et de déploiement en tant que domaine d’amélioration.

Perspectives de LabVIEW 

Après 22 ans de développement, les ingénieurs NI savent que l’amélioration de la plate-forme LabVIEW ne connaît aucune limite. National Instruments reconnaît son engagement envers les utilisateurs de LabVIEW et comprend la demande de plus de performances, d’outils plus intuitifs et d’une meilleure intégration. Sur la base des commentaires des utilisateurs, les projets à long terme en cours de développement incluent l’ajout d’une interface graphique améliorée, un meilleure utilisation du Web dans LabVIEW, des capacités de visualisation et de conception de système de très haut niveau et la création d’un environnement de développement plus flexible. Des améliorations sous-jacentes sont également prévues, comme la mise à jour du compilateur, l’ajout de capacités complexes de cadencement et de déclenchement, ainsi que la documentation des API à tous les niveaux de la plate-forme, pour un meilleur accès des utilisateurs.

Par Armando Valim, responsable de groupe pour LabVIEW chez National Instruments.

Source : http://zone.ni.com/devzone/cda/pub/p/id/942

 

Découvrez les formations Techniques de l’Ingénieur :

Deux Bosons de Higgs au lieu d’un !

Le 4 juillet 2012, l’équipe du CERN annonçait officiellement avoir trouvé le fameux boson de Higgs, grâce au plus grand collisionneur de particules au monde (le Large Hadron Collider). Une découverte capitale pour la science car le Boson de Higgs est une particule élémentaire du modèle standard et la dernière qui restait à être débusquée.

Théorisée en 1964 par Peter Higgs ainsi que Robert Brout et François Englert, cette particule permettrait d’expliquer pourquoi les particules ont une masse. Leur idée est qu’un champ de force invisible dit « champ de Higgs » s’est formé au même moment que le Boson de Higgs, suite au Big Bang et après que la température de l’Univers a atteint un certain seuil. Ainsi les particules ont obtenu leur masse grâce à l’interaction avec ce champ et l’intervention du Boson : « Plus elles interagissent avec le champ de Higgs, plus elles deviennent lourdes. Au contraire, les particules qui n’interagissent pas avec ce champ ne possèdent aucune masse. »

La traque a débuté il y a près de 50 ans. Une quête laborieuse puisque le Boson est extrêmement difficile à repérer en raison de la brièveté de son existence, du fait que l’on ne connaisse pas sa masse et des conditions très particulières de son observation. Il faut attendre 2009 pour que l’accélérateur de particules LHC soit construit. Les chercheurs, désormais armés de ce puissant outil munis de six détecteurs, dont le détecteur Atlas précisément utile à cette tâche, se lancent à la recherche du Boson. Pour le dénicher, ils doivent faire entrer en collision des particules à une vitesse quasi similaire à celle de la lumière, observer leur désintégration et détecter le court instant où le Boson se présente. Ce qui n’est évidemment pas une mince affaire. Malgré tout, les scientifiques du CERN affirment le 4 juillet avoir trouvé la particule de Higgs et estiment cette découverte à 99,9999% fiable.

L’annonce suscite un engouement partout dans le monde et déclenche un déferlement médiatique. On songe alors à l’origine de l’univers. Ce n’est donc pas un hasard, si en fin d’année 2012, la revue scientifique américaine Science considère la découverte du Boson de Higgs comme étant la plus grande avancée scientifique de 2012.

Cependant, cette trouvaille est aujourd’hui associée à une bien surprenante révélation qui découle des résultats de l’expérience ATLAS : il y aurait en réalité deux Bosons de Higgs. Précédemment, les recherches faisaient état d’un Boson de masse approximative de 125 gigaélectrovolts (GeV). Mais un nouvel éclairage dans l’étude du Boson indique deux particules de masses respectives de 123,5 GeV et 126,6 GeV, soit une différence importante de 3 Gev. Un cas singulier et inattendu qui se révèle problématique pour les physiciens. La différence étant à la fois trop petite pour qu’il soit question d’une autre particule et trop grande pour que le calcul des savants soit remis en cause.

Pas moins de deux théories rendues caduques par ce résultat. Celle du modèle standard qui ne prévoit l’existence que d’un seul Boson appelé justement Boson de Higgs. Et celle de la supersymétrie, qui, même si elle accepte l’existence de plusieurs Bosons de même type, exclu une telle proximité de masse. Encore une fois dans l’expectative, la patience sera de rigueur avant d’obtenir de nouvelles réponses. Laissons le temps aux scientifiques du CERN, des informations concernant le Boson devraient tomber en mars.

Par Sébastien Tribot, journaliste scientifique

Participez à notre quizz sur l’actualité scientifique de l’année 2012 !

La rubrique Actualité du site Techniques de l’Ingénieur vous accompagne au quotidien : veille technologique, actualité scientifique, présentation des dernières innovations technologiques, sujets polémiques ou insolites, analyse des grandes tendances des sciences et techniques.

Découvrez aussi, chaque semaine, « La revue du web », une sélection de vidéos marquantes glanées sur la toile, présentant un intérêt scientifique certain, en lien – ou non – avec l’actualité des sciences. Vous avez pu suivre également nos conférences en ligne animées par les experts Techniques de l’Ingénieur.

Quels ont été les grands sujets scientifiques de l’année 2012 ? Notre équipe de rédacteurs a rassemblé les sujets qui ont marqué l’actualité des sciences et techniques et a concocté pour vous un grand Quizz constitué de 22 questions. Vous trouverez toutes les réponses dans notre rubrique Actualité.

 

Participez dès le 1er février 2013 à ce jeu concours en cliquant ici et tentez de gagner une journée exceptionnelle de visites du CERN (Organisation européenne pour la recherche nucléaire) accompagné par la directrice éditoriale des Éditions Techniques de l’Ingénieur.

Bonne chance à tous !

Participez en cliquant ici

 

La graine de pastel enfin utilisée en cosmétique

Pour la première fois, des protéines de pastel sont utilisées dans des produits cosmétiques. La société toulousaine Cocagne et Compagnie vient de commercialiser sa nouvelle gamme de soins pour le visage à base de ces protéines. L’intérêt ? Ses propriétés anti-âges qui en font un soin très prisé des femmes.

Alors que jusqu’ici le pastel n’était utilisé que pour son aspect colorant, il a suscité un regain d’intérêt à la fin des années 1990, tout d’abord pour des applications dans les domaines des textiles ou de la peinture, puis pour des cosmétiques, tel le maquillage, pour sa coloration bleue. Enfin, le pastel est une plante qui produit des graines en très grande quantités, d’où l’idée d’en extraire de l’huile. Mais l’abondance de graines fait que la seule fabrication d’huile ne suffit pas à tout utiliser. D’où l’intérêt de trouver une nouvelle utilisation à ces graines.

Coopération avec l’INP de Toulouse

Découvrant les propriétés antivieillissement du pastel, Cocagne et Compagnie a souhaité s’en servir pour ses cosmétiques, redonnant toutes ses couleurs à des graines de pastel sous-exploitées. Cette renaissance de la graine de pastel n’aurait pas été possible sans la mise au point d’un tout nouveau procédé permettant d’extraire la protéine. En effet, lorsque l’on produit de l’huile de pastel, on se retrouve avec d’un côté l’huile, de l’autre le tourteau, c’est-à-dire les graines écrasées. Ce reliquat contient les protéines convoitées. Pour les récupérer, Cocagne et Compagnie s’est tourné vers le Laboratoire de Chimie Agro-industrielle de l’INP à Toulouse. « Je travaille depuis de nombreuses années sur le pastel. Lorsque Cocagne et Compagnie est venu nous voir, nous avons été séduit par leur projet. Il nous a fallu une année pour mettre au point le procédé d’extraction » raconte Gérard Vilarem, directeur adjoint du laboratoire de chimie agro-industrielle.

En association avec le Centre de Ressources Technologiques CATAR, ils ont élaboré un procédé d’extraction à l’eau, sans solvant organique. A l’issue de l’opération, la fraction protéinique obtenue est directement utilisable par formulation. Le procédé a été optimisé de façon à le rendre le moins couteux possible. Le brevet déposé au printemps 2012 concerne le procédé et l’application, soit un procédé d’extraction de protéine orienté spécifiquement pour cette application cosmétique.

Par Audrey Loubens, journaliste scientifique

 

Formation : Réglementation cosmétique et sécurité des ingrédients

Objectifs


  • Identifier les obligations réglementaires avant la commercialisation d’une formulation cosmétique.
     
  • Mettre en pratique la réglementation pour les produits cosmétiques.
     
  • Lister les actions à mettre en place et les échéances à respecter, en vue de la commercialisation d’une formulation cosmétique.
     
  • Piloter et interpréter une évaluation de la sécurité d’un produit cosmétique.

 

 

Par Audrey Loubens

« Les ingénieurs ont trop souvent un filtre de lecture purement technique »

Techniques de l’Ingénieur : Pourquoi l’ingénieur aujourd’hui devrait-il avoir, en plus de ses compétences techniques, des notions de marketing ?

Philippe Massol : Je dirais qu’il faut même bien plus que des notions, mais maitriser le marketing. Les ingénieurs ont trop souvent un filtre de lecture purement technique, alors qu’au final, ce qui importe, c’est bien que le produit fini se vende. Mettre en place une nouvelle technologie, c’est bien, mais encore faut-il savoir ce qu’on en fait derrière, quels sont les besoins du marché.

Le cahier des charges doit donc coller au marché, et non à la technique. Sans quoi on risque la création dans le vide, le produit qui fait plaisir à l’ingénieur, mais dont personne ne veut.

Ingénieur manager : les formations Techniques de l’Ingénieur

Prenons l’exemple du minitel : c’est un produit qui a marché car à l’époque, il répondait à un réel besoin, sans pour autant être parfait technologiquement parlant. C’est la question fondamentale qui doit être au centre de tout projet de nouveau produit : comment répondre aux problèmes des gens. Les ingénieurs doivent donc comprendre ces enjeux.

Techniques de l’Ingénieur : Quid de la recherche fondamentale ?

Philippe Massol : Son rôle est essentiel, mais il faut compter dix à quinze ans avant qu’elle ne donne naissance à de nouveaux produits. La recherche fondamentale, c’est le socle nécessaire à la recherche appliquée, mais hormis dans cette sphère académique, le marketing est aujourd’hui inévitable.

Techniques de l’Ingénieur : Est-ce bien accepté dans le monde des ingénieurs ?

Philippe Massol : Aujourd’hui et depuis 4 ou 5 ans, les cursus des écoles d’ingénieurs intègrent des cours de marketing, de stratégie d’entreprise, en plus des matières classiques. Cela se généralise donc. Mais pour ceux qui sont sortis d’école il y a 10 ans ou plus, je doute qu’ils aient énormément de notions.

Les ingénieurs sont souvent des gens qui, en choisissant leurs études, ne voulaient pas entendre parler de commerce, de marketing. Il en reste donc forcément quelque chose, mais cela change. C’est dans cette dynamique que s’inscrivent les formations Marketing pour non marketeurs, Développement de nouveaux projets, que je proposerai prochainement chez Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Que pensent les employeurs de ce type de démarches ?

Philippe Massol : Tout dépend de leur profil ! Si il est plutôt business man, il va privilégier l’aspect commercial sur l’aspect technique, et à l’inverse, un entrepreneur ingénieur de formation va s’intéresser à la technique plus qu’à l’aspect marketing. Il n’y a pas de règle générale.

Mais globalement, les entreprises ont tout à gagner à avoir des ingénieurs sensibilisés à la pertinence commerciale des produits, pour réduire les coûts de développement en évitant les démarches recherches inutiles, et favoriser les idées pertinentes.

Philippe Massol anime chez Techniques de l’Ingénieur les formations Les techniques pour rédiger et « vendre » vos projets produit/service, Développer un nouveau produit sur le marché sans risque et sans échec, et Evaluez et comparez le potentiel financier de vos projets.

Comment définir de nouveaux produits pour gagner des parts de marché ? Telle est la question à laquelle ce conseil expert de l’innovation, titulaire d’un MBA (stratégie de développement, finance, développement d’affaires), vous apporte les réponses, depuis une dizaine d’année.

Propos recueillis par Bruno Decottignies

Comment conserver les objets en bois ?

De nombreuses recherches sont menées pour optimiser les traitements appliqués au bois, dès sa sortie des eaux. Le CEA a notamment mis en place une équipe sur Grenoble, ARC-Nucléart, dont le but est la conservation et la restauration des objets en matériaux organiques (bois, cuir, fibres) produits par les hommes dans tous les domaines de leur activité, ainsi que la recherche destinée à étudier les matériaux dégradés et développer de nouvelles méthodes de traitements.

Dans le contexte plus particulier des analyses XAS, les premiers travaux ont été menés par le groupe de M. Sandström, à l’université de Stockholm, principalement sur le Vasa et le Mary Rose. Le Vasa est un navire de guerre construit entre 1626 et 1628 qui sombra dans le port de Stockholm après une navigation d’à peine un mille marin lors de son voyage inaugural, en août 1628. La coque, entière et largement intacte, a été renflouée en 1961 et est actuellement exposée dans un bâtiment construit spécialement pour l’accueillir, le musée Vasa, à Stockholm.

Ce musée est aujourd’hui le deuxième le plus fréquenté en Suède. La conservation du Vasa est donc quasiment une cause nationale. Le Mary Rose était, quant à lui, le navire amiral du roi Henry VIII, un véritable emblème des Tudors. Il coula en 1545, lors d’un combat entre Anglais et Français, dans le Solent, bras de mer qui sépare l’île de Wight de l’Angleterre. Il fut renfloué à grands frais en 1982 et constitue aujourd’hui un témoignage unique de la période des Tudors. C’est le seul vaisseau de guerre du XVIe siècle qui soit présenté au public. Il est exposé et restauré à la base navale de Portsmouth. Là encore, sa conservation est un enjeu majeur.

Les mesures XANES de bois immergé

Les premières mesures XANES de bois immergé ont porté sur l’état chimique du soufre. En effet, les composés soufrés qui se sont accumulés dans le bois pendant son immersion constituent une véritable menace aujourd’hui.

Les études ont été réalisées à différentes échelles :

  • Une échelle centimétrique, avec des fragments prélevés sur différentes parties des bateaux, ainsi qu’à différentes profondeurs d’un même morceau de bois ;
  • Une échelle micrométrique, c’est-à-dire l’échelle des cellules du bois, en cartographiant sur des petites coupes fines de bois, les différents composés soufrés.

La spéciation du soufre, un facteur déterminant

La spéciation du soufre est un facteur déterminant dans la conservation des épaves, car les différentes formes de soufre n’ont pas toutes la même stabilité, ni la même réactivité, dans les processus d’altération du bois. Dans l’eau de mer, les bactéries qui se nourrissent de matière organique réduisent les ions sulfates en sulfure d’hydrogène H2S. Celui-ci pénètre, sous forme dissoute, dans le bois et est transformé en composés soufrés réduits solides, tels que les thiols, R-SH (où R est une fraction organique présente naturellement dans la lignine du bois) et en sulfures de FeII, par réaction avec le fer environnant provenant notamment des rivets, des clous, des canons et boucliers à canon.

Le soufre s’est tellement accumulé au cours des siècles dans le bois du Mary Rose qu’il a été détecté à des teneurs de l’ordre du pourcent en poids (soit près de 2 tonnes). Après renflouage, le soufre réduit est lentement oxydé en acide sulfurique H2SO4. Celui-ci, s’il n’est pas traité, entraîne une hydrolyse acide des fibres de cellulose au détriment de la stabilité mécanique du bois.

Le rôle du fer dans le processus de dégradation

En parallèle aux analyses du soufre, ces études ont aussi porté sur l’état d’oxydation du fer, provenant de boucliers de canon retrouvés sur l’épave du Mary Rose. Comme indiqué précédemment, le fer peut jouer un rôle dans les processus de dégradation en formant, par réaction avec le soufre réduit, de la pyrite (FeS2), qui peut elle-même être oxydée en sulfate de fer, accompagné d’un largage acide. Il peut aussi catalyser des réactions d’oxydation du soufre, de la cellulose, mais aussi du PEG, le polyéthylène glycol, utilisé dans la conservation des bois archéologiques humides.

Ces travaux ont permis non seulement de mieux comprendre les réactions chimiques responsables des dégradations du bois, mais aussi d’élaborer de nouveaux procédés de traitement de conservation, et d’évaluer leur efficacité.

En résumé, les analyses faites sur biomatériaux s’intéressent souvent à des problèmes de dégradation, provoqués et/ou accélérés par la présence d’ions métalliques dans des réactions d’oxydo-réduction. Dans ce contexte, la mesure doit prendre en compte de possibles effets de photo-réduction, induite par les rayons X eux-mêmes au cours de l’analyse. Les analyses XAS visent aussi à évaluer l’efficacité de traitement de conservation.

 

 

Cet article est un court extrait des bases documentaires de Techniques de l’Ingénieur.

 

Découvrez également les formations Techniques de l’Ingénieur :

Le rôle des métaux dans la dégradation des matériaux issus de la biomasse

La facilité de préparation des encres ferro-galliques (sulfate de fer et noix de galle), ainsi que leur caractère indélébile, les ont rendues largement utilisées du XVIe au XXe siècle, notamment dans les documents d’archives.

En effet, contrairement aux encres au carbone qui peuvent facilement s’effacer, les encres ferro-galliques pénètrent dans le papier. Cet avantage pratique devient un inconvénient, car il conduit dans son interaction avec le papier à des dommages sévères, allant parfois jusqu’à la formation de trous dans le document.

Ces encres peuvent altérer le papier par deux procédés principaux : une hydrolyse acide, favorisée par l’humidité ; une dépolymérisation oxydative, favorisée par la présence d’oxygène et d’ions ferreux libres. L’importance relative de ces deux mécanismes a été récemment analysée par V. Rouchon et al., au Centre de Recherche sur la Conservation des Collections, Muséum National d’Histoire Naturelle (Paris). Cette étude repose sur la combinaison d’une mesure cinétique de la viscosimétrie et d’une analyse XANES au seuil du fer, au synchrotron allemand HASYLAB et au synchrotron français SOLEIL. Elle met en évidence que des teneurs en oxygène aussi faibles que 0,1% peuvent induire une dépolymérisation de la cellulose, alors que l’humidité ambiante n’a pas d’effet.

 

 

Cet article est un court extrait des bases documentaires de Techniques de l’Ingénieur.

 

Découvrez également les formations Techniques de l’Ingénieur :

Analyse des objets d’art : les marqueurs techno-chronologiques

Verres et céramiques

Les deux principales difficultés en technologies verrière et céramique sont la maîtrise de la cuisson (conception des fours et conduite de la cuisson) et la disponibilité de poudres fines ; en effet, la température de frittage est d’autant plus basse que les particules sont fines. Le broyage demande beaucoup d’énergie et donc les poudres naturellement fines (sables, limons, lœss, argiles), ou pouvant être obtenues fines par simple traitement thermique (calcaire, coquilles, silex…) sont activement recherchées.

La production de céramique remonte à la transition paléolithique-néolithique (> 15.000 av. J.-C., en Europe, Afrique, Sibérie et Japon) et demande des températures de l’ordre de 600-650°C pour obtenir, par frittage en phase liquide en atmosphère réductrice, des objets poreux mais robustes mécaniquement.

Les producteurs d’objets en verre, y compris émaillés, acquièrent un niveau technique remarquable sous l’Empire romain avec les productions levantine et se perfectionnèrent sous les dynasties fatimides (X-XIIe siècles, Égypte principalement) puis mamelouks (XVe, Égypte et Syrie). Chaque innovation est un marqueur chronologique qui peut être décelé par l’analyse.

Émaux

Bien que les émaux soient des verres silicatés comme pour le corps des objets en verre, leur technologie est beaucoup plus complexe car ils doivent satisfaire plusieurs critères souvent contradictoires.

En premier : la couleur et la brillance, comme pour le verre massif. En plus, ils doivent posséder une mouillabilité et une viscosité adaptées au support et à sa géométrie, réagir suffisamment avec le support pour un bon accrochage sans générer de bulles ou de cristallisation incontrôlée et surtout être en accord de dilatation avec ce support. En couche mince, pour ne pas écailler (saut d’éclat), ni tressailler (fissuration en étoile), l’émail se doit d’être en légère compression. Plusieurs émaux doivent être posés les uns sur les autres pour réaliser des décors complexes.

En conséquence, l’éventail des compositions des émaux est d’une ampleur sans commune mesure avec celles des verres massiques servant à la réalisation d’objets, voire même de vitraux. La faible épaisseur des émaux nécessite, pour leur conférer une couleur puissante, des incorporations de quantités de pigments beaucoup plus élevées que dans un corps de verre où une coloration par couleurs « transparentes » (la dissolution est obtenue par une faible quantité d’ions chromophores restants en solution) est suffisante.

On comprend pourquoi la technologie sophistiquée de l’émaillage fait des émaux de bons marqueurs technologiques et chronologiques.

Vitraux

Les premiers vitrages datent de l’époque romaine, se perfectionnent aux époques byzantines (VIe siècle : Ravenne, Sainte-Sophie), mais c’est seulement au VIIe siècle, et surtout pendant la période romane, que se développent les compositions imagées faites de morceaux de verre, colorés et épais (plusieurs millimètres), sertis de baguettes en plomb dans une armature (barlotières) de fer. Le dessin obtenu initialement par la découpe et le réseau de plomb évolue avec l’augmentation de la taille des morceaux de verre et l’invention de la grisaille, une sorte d’émaillage permettant d’échapper aux contraintes de la découpe pour le dessin et ainsi de gagner en luminosité.

Les difficultés politiques d’approvisionnement en fondants sodiques (évaporites des lacs salés ou cendres de plantes côtières du Proche-Orient) conduisent à l’utilisation de sources locales, potassiques, de cendres de plantes (fougères) ou de bois. L’évolution esthétique induite résulte donc en premier des évolutions technologiques (dimension, palette de couleur, grisailles).

Métallurgie, patines et dorures

Nous ne traiterons pas des alliages métalliques proprement dits, car la plupart des méthodes mobiles ne sont pas très pertinentes pour l’analyse fine des métaux puisqu’elles utilisent les liaisons chimiques non métalliques comme sondes, via leur dipôle instantané (spectroscopie IR) ou leur variation de polarisabilité électronique (spectroscopie Raman).

Par contre, toutes les méthodes considérées sont efficaces pour l’étude des surfaces métalliques, les patines, intentionnellement développée par des traitements thermochimiques complexes pour des raisons esthétiques ou couches formées naturellement (corrosion passive ou active/dégradation). Dans les deux cas, les phases formées dépendent de la composition de l’alliage.

 

 

Cet article est un court extrait des bases documentaires de Techniques de l’Ingénieur.

 

Découvrez également les formations Techniques de l’Ingénieur :

Agricommand, la réglementation agroalimentaire en un clic

Techniques de l’Ingénieur : Denis Larivière, qu’est-ce qu’Agricommand ?

Denis Larivière : J’ai fondé Agricommand en 2000, à l’époque où le net se développait, et où les données réglementaires évoluaient sans cesse. L’idée était de créer une plate-forme de marché pour les produits phytosanitaires, d’où le nom Agricommand. J’ai alors constaté qu’il n’existait aucune plate-forme de données réglementaires en ligne, et ai décidé d’en créer une, où l’information serait recherchée et vérifiée auprès de sources multiples, pour en garantir la qualité.

Techniques de l’Ingénieur : Une réponse à une demande réelle ?

Denis Larivière : Les professionnels de l’agriculture avaient alors un grand besoin de données mises à jour. Agricommand a été le premier –et le seul- acteur à leur proposer des bases de données non seulement sur les phytosanitaires, mais aussi sur les semences et les engrais, c’est-à-dire l’intégralité des entrants agricoles. Nous sommes vite devenus leaders, et de loin, sur le marché, avec pour clients l’ensemble du monde de l’agriculture : coopératives, négociants, sociétés informatiques d’aide à la décision… mais jamais directement les agriculteurs.

Techniques de l’Ingénieur : Votre société vient de rejoindre le groupe Weka France (ndlr : dont font partie les éditions Techniques de l’Ingénieur), qu’est-ce que cela va changer pour vos clients ?

Denis Larivière : Cela va nous permettre de fusionner nos bases de données avec celles de Phytodata, notre principal concurrent jusqu’alors, lui-même membre du groupe Weka France. Pour nos clients, cela signifie donc une offre encore plus étoffée. Cette fusion va aussi nous donner une force de travail plus conséquente, et nous permettre de travailler avec les acteurs en amont du monde agricole que sont les industriels de l’agrochimie. Ce secteur nous était jusqu’alors inaccessible, faute d’une force de frappe suffisante.

Désormais quasi-seuls sur le marché, nous ne changerons pas pour autant nos tarifs, qui étaient adaptés au marché agricole, pour une offre haut de gamme.

 

Propos recueillis par Bruno Decottignies

 

Découvrez les formations Techniques de l’Ingénieur sur la réglementation et les différentes certiphyto

Eolien terrestre : le ralentissement se confirme

Aujourd’hui, le parc éolien s’élève à 7449 MW, alors que l’objectif que la France s’est fixé à l’horizon 2020 est de 19 000 MW.

Selon le Syndicat des Energies Renouvelables, ce chiffre inquiétant éloigne encore un peu plus notre pays de la trajectoire qui doit lui permettre de respecter ses objectifs en matière d’énergie renouvelable puisque le rythme de raccordements nécessaires pour les atteindre s’élève à plus de 1 400 MW par an.

« Nous sommes à 54 % du rythme annuel qui nous permettrait de respecter les engagements que nous avons pris concernant le développement du parc éolien terrestre français qui doit atteindre 19 000 MW en 2020 », explique Jean-Louis BAL, Président du Syndicat des énergies renouvelables, « la filière éolienne ne peut attendre les conclusions du débat lancé par le Gouvernement. Les mesures d’urgence annoncées doivent être mises en œuvre très vite si nous voulons encore disposer des outils industriels et des compétences pour diversifier notre mix électrique à l’issue du débat sur la transition énergétique ».

Les raisons de ce ralentissement sont connues : la complexification du cadre réglementaire mis en place en 2010, les difficultés de raccordement au réseau électrique et l’incertitude sur l’avenir d’achat du kWh éolien. Les professionnels de la filière, réunis au sein du SER, appellent à la mise en œuvre urgente d’une simplification du cadre réglementaire, devenu incompatible avec le développement de l’énergie éolienne.

« Tenir les engagements pour l’éolien terrestre est d’autant plus impératif que le calendrier des appels d’offres de l’éolien maritime nous conduit bien au-delà de 2020 pour la mise en exploitation des 6 000 MW offshore prévus par le Grenelle de l’environnement », rappelle Jean-Louis BAL.

I.T

Découvrez les formations Techniques de l’Ingénieur :

Savourez votre expresso au volant

En retard, vous n’avez pas eu le temps de boire votre café ? Alors que vous êtes pris dans les embouteillages, vous regrettez de ne pas avoir une tasse bien chaude d’un café serré ?

Vous en rêviez, Handpresso l’a fait. Mieux, Fiat l’a intégré à ses véhicules ! La surprenante machine à café portable Handpresso Auto se branche sur l’allume-cigare et prépare un café.  Le mode d’emploi est simple : dévisser le couvercle supérieur, verser de l’eau, positionner la capsule de café en haut puis refermer l’ensemble. Appuyer sur le bouton « on », patienter deux minutes.

Votre café est prêt.

Dérivée de la Handpresso Wild, une cafetière portable très compacte inventée par le danois Henrik Nielsen, la Handpresso Auto est moins compacte mais beaucoup plus pratique puisqu’il n’y a pas besoin de pomper manuellement pour atteindre les 16 bars de pression nécessaires à la réalisation du café. Branché sur l’allume-cigare, l’appareil chauffe tout seul. Récompensé à de multiples reprises, le concept de la Handpresso a séduit un constructeur automobile, Fiat, qui a souhaité la proposer à ses clients avec son modèle de la 500.

Le Danois a donc adapté sa technologie à l’environnement spécifique de la Fiat 500, plus particulièrement le code couleur. Catherine Nielsen, Chargée de Communication chez Nielsen Innovation, déclarait :  » nous avons réalisé un habillage spécifique aux couleurs de Lavazza. Et si la machine Handpresso Auto fonctionne avec des dosettes au standard international dit « E.S.E. et compatibles », les cafetières réalisées pour Lavazza et Fiat emploient des capsules Lavazza A Modo Mio. D’où l’aspect conique de leur couvercle. » La cafetière, rebaptisée pour l’occasion « Lavazza 500 Espresso experience » s’intègre parfaitement à l’habitacle, positionnée entre les deux fauteuils avant. Elle est vendue avec des récipients à couvercle vissé conçus pour se placer dans le porte-gobelet à l’avant, devant le levier de vitesse : l’un contient des gobelets en plastique jetables, le deuxième la réserve de capsules de café.

Henrik, Fiat et Lavazza ont ainsi unis leurs forces pour livrer un concept innovant. Ils ont pourtant oublié une chose : où met-on le sucre ?

Par Audrey Loubens, journaliste scientifique

L’agenda du débat national sur la transition énergétique se précise

Sorte de « Journées du patrimoine de l’énergie », les journées de l’énergie se dérouleront du 29 au 31 mars 2013. À cette occasion, les entreprises et les collectivités ouvriront les portes de leurs installations au grand public. La population aura alors la possibilité de comprendre et de voir les dessous de la production d’énergie et d’électricité.

Un autre moment fort sera la journée citoyenne du 25 mai. Dans toutes les régions, des panels d’une centaine de citoyens se réuniront pour débattre ensemble des enjeux de la transition énergétique. Ce sera notamment l’occasion de cartographier les attentes et les opinions des citoyens, en fonction des régions. 

L’objectif principal de ces journées est d’obtenir une discussion large et d’attirer l’attention du public. De larges campagnes de communication devraient être mises en œuvre au printemps pour faire connaître ces dates et toucher un maximum de personnes.

31 janvier, une date à retenir

Le site internet du débat ouvrira le 31 janvier. Il présentera les informations de base sur le débat pour comprendre les données et les enjeux. Tout un chacun pourra directement contribuer en ligne au débat. Les contributions et les initiatives de chacun seront ainsi comptabilisées et tracées. 

Le groupe de contact des entreprises de l’énergie se mettra également en place au 31 janvier. Avec un noyau dur d’acteurs économiques de l’énergie, son objectif est que « le débat puisse intégrer leur vision stratégique, leurs éléments technologiques et leurs capacités de financement », insiste Anne Lauvergeon, membre du comité de pilotage du débat. Il faut également « que le débat puisse influer sur leur stratégie », précise-telle. Du côté du comité citoyen, l’installation est prévue pour le 16 février.

Vers un débat international

Le débat veut aller chercher l’expérience au-delà des frontières. Dans cette perspective, le conseil national de la transition énergétique et le comité des experts auditionneront Peter Altmaier, le ministre Allemand de l’environnement, en charge des énergies renouvelables, le 7 février prochain. Les gouvernements français et allemands signeront à cette occasion un accord de partenariat sur le développement des énergies renouvelables. D’autres ministres européens ont été invités à être auditionnés, mais les rendez-vous ne sont pas encore fixés.

« Dans la perspective du Conseil européen sur la politique de l’énergie qui se tiendra le 31 mai prochain et des discussions internationales, l’idée est de pouvoir s’intéresser aux différentes stratégies nationales de transition énergétique qui existent aujourd’hui de par le monde et dont nous avons des leçons à retenir pour les choix que nous devons faire nous-mêmes », estime Delphine Batho, Ministre de l’Ecologie, du Développement durable et de l’Energie.

Si la France veut respecter ses engagements climatiques, ce débat est condamné à aboutir sur une loi de programmation forte. « Aujourd’hui, sur l’objectif de 20 % d’économies d’énergie en 2020, nous avons fait 15 % du chemin ; nous en sommes à 3 points des 20 % », rappelle Madame la Ministre. « Si on reste sur la trajectoire actuelle, il n’y a aucune chance que la France tienne les engagements qu’elle a pris au niveau européen », conclut-elle. 

 

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Technique de l’Ingénieur :

News Environnement : janvier 2013

Des événements climatiques extrêmes toujours plus fréquents

A l’heure du changement climatique et de discussions houleuses à Doha sur le devenir du protocole de Kyoto, les scientifiques observent non seulement une évolution du climat caractérisée généralement par une augmentation des températures moyennes mais aussi par des changements dans la variabilité des indicateurs climatiques. Selon certains chercheurs, le danger le plus proche est plus spécifiquement dû à l’occurrence d’événements extrêmes tels que les vagues de chaleur, les pics de température, les fortes précipitations et les inondations.

Ce sont ces événements extrêmes que l’équipe du Département de Sciences environnementales de l’Université de Lettonie a décidé d’étudier en se basant sur les données météorologiques mesurées dans 14 stations sur l’ensemble du territoire letton entre 1950 et 2010, et à Riga entre 1852 et 2010 afin d’observer l’évolution historique des événements. Cette étude sur le long terme a été menée à l’aide d’outils statistiques tels que le test non paramétrique de Mann-Kendall pour l’étude de la tendance temporelle, et la méthode de Sen pour l’estimation de l’amplitude. L’occurrence et l’impact des événements climatiques extrêmes sont étudiés en se basant sur les changements d’indices caractérisant les températures extrêmes, négatives et positives, et les précipitations intenses.

L’analyse de la tendance des changements de long terme dans la fréquence des événements climatiques extrêmes en Lettonie montre une augmentation significative du nombre de jours présentant des températures élevées et des précipitations extrêmes, mais une diminution du nombre de jours très froids. Cette analyse rend également compte de changements significatifs des variables climatiques sur l’ensemble du territoire letton. Ces événements majeurs se produisent non seulement en Lettonie mais sont aussi observés dans les pays du nord de l’Europe du fait de l’influence géographique (impact du climat continental), et leur relative proximité avec l’Océan Atlantique (impact du climat maritime). Ce schéma climatique hautement variable est déterminé par la forte activité cyclonique au-dessus de la Lettonie. Ces conditions contribuent aux différences de régimes de la température de l’air, des précipitations ainsi qu’aux hétérogénéités spatiales des événements climatiques extrêmes.

La tendance au réchauffement global est évidente du fait des valeurs moyennes et extrêmes de la température de l’air, et d’une fréquence plus élevée des vagues de chaleur, tendance d’autant plus marquée dans les villes principales de Lettonie. L’augmentation de la fréquence des précipitations extrêmes présente un caractère « local » mais de tels événements peuvent malgré tout avoir une influence fortement négative : ces événements menacent directement les hommes, l’agriculture, les infrastructures, l’activité forestière et beaucoup d’autres secteurs, et peuvent occasionner beaucoup plus de risques que le réchauffement global.

Source : www.bulletins-electroniques.com

Une biomasse potentiellement illimitée

Après les avancées faites sur le génome de l’hydre, un polype d’eau douce « immortel », c’est au tour des plants de tabac de promettre la jeunesse éternelle… Les chercheurs de l’Institut Fraunhofer pour la biologie moléculaire et l’écologie appliquée (IME), à Münster (Rhénanie du Nord-Westphalie), ont localisé un « interrupteur génétique » qui permet de maintenir la plante à un stade jeune et lui permettre de croître sans limite. Ce résultat laisse supposer une production de biomasse accrue.

Les plants de tabac ont une vie courte : ils atteignent leur stade de floraison au bout de 3 à 4 mois seulement et meurent par la suite. Leur taille quant à elle se limite en général à deux mètres. L’équipe du professeur Dirk Prüfer a identifié la « fontaine de jouvence génétique » du tabac : les chercheurs de Münster ont en effet modifié génétiquement le matériel empêchant la plante d’atteindre son stade final de floraison. En désactivant le processus de sénescence, l’inhibition programmée de la croissance est alors supprimée. « Un de nos premier plant de tabac expérimental a près de huit ans et il ne cesse de grandir », explique le professeur Dirk Prüfer, directeur du département de génomique fonctionnelle et appliquée à l’IME. « Bien que nous ayons réalisé régulièrement des tailles, celui-ci mesure plus de six mètres de haut ». Les feuilles poussant au pied des plants en champ jaunissent et tombent habituellement très vite alors que sur les plants expérimentaux elles restent vertes et en bonne santé, d’où le nom donné à ces plants : Forever Young.

Le principe de modification génétique découvert à Münster est transférable à d’autres types de plantes afin d’obtenir des cultures produisant par conséquent une quantité beaucoup plus importante de biomasse. Le but est de pouvoir garantir l’approvisionnement en denrées alimentaires car le Conseil allemand sur la bioéconomie prévoit que le rendement par hectare devra doubler d’ici à 2050. Cependant, il ne serait pas pertinent d’utiliser cette technique sur le colza ou d’autres plantes cultivées pour leurs graines ou pollens car cette méthode n’est utile que pour les espèces où la floraison n’est pas requise pour la récolte, comme chez la betterave à sucre ou la pomme de terre. Par ailleurs, les plantes n’ont aucun moyen de se reproduire, ce qui signifie qu’elles ne pourront pas contaminer l’environnement avec leur patrimoine génétique modifié.

A l’avenir, les chercheurs veulent aller plus loin et être en mesure de désactiver les limites de croissance des plantes en utilisant une méthode moins lourde : la mutagenèse chimique. Cette méthode repose sur l’utilisation d’additifs chimiques pour apporter des changements dans la séquence d’ADN d’une graine. Dans ce but, des expériences pour comprendre la dérégulation des gènes devraient débuter à l’IME en 2013/2014.

Source : www.bulletins-electroniques.com

La révélation du mystère de l’oxydation du méthane marin

Dans les fonds marins, d’énormes quantités de méthane (gaz à effet de serre) sont enregistrées sous la forme d’hydrate de méthane. Un groupe de microorganismes dans les sédiments de l’océan veille à ce que ce méthane soit dégradé sans recours à l’oxygène (respiration anaérobie). Il était connu que les composés du sulfure jouaient un rôle important dans cette réaction. Des chercheurs autrichiens (laboratoire de micro-écologie de l’université de Vienne) et allemands (Max Planck-Institut pour la recherche sur les polymères Mainz et Max Planck-Institut pour la microbiologie marine à Brème) ont cependant montré que le processus voit se développer des réactions bien différentes de celles qu’on pensait être jusqu’alors. Leur travail a été publié dans le magazine « Nature » (numéro 7425, volume 491).

Le méthane se forme lorsque les immenses quantités de matériel organique, qui coulent en permanence sur les fonds océaniques se décomposent. Des micro-organismes méthanogènes forment le méthane à partir de l’hydrogène et de CO2, et cela dans de telles quantités, que la science s’applique à comprendre les processus se déroulant sur le sol des mers de façon très détaillée.

Deux autres groupes de microorganismes vivant dans des conglomérats de différentes tailles, dans les sédiments marins contenant du méthane, veillent à la dégradation du méthane. Ce « groupe de travail » se compose d’archées méthanotrophes, et de bactéries. Ils reforment du CO2 en utilisant la voie métabolique de l’Anaerobic oxydation of méthane (AOM, oxydation anaérobie de méthane) dans les sédiments anoxiques. Depuis de nombreuses années, les scientifiques ont cherché le produit intermédiaire nécessaire à cette réaction, supposément transmis des archées oxidatrices de méthanes aux bactéries.

Il a longtemps été pensé que les bactéries réduisaient le sulfate (SO4) (en d’autres termes elles « respireraient l’oxygène présent dans le sulfate) grâce à l’aide des électrons obtenus de l’oxydation du méthane accomplie par les archées. Pour se faire, les électrons auraient cependant dû se déplacer des archées aux bactéries, comment, cela restait un mystère. Il était spéculé que les électrons étaient transportés de l’un à l’autre par des sortes de nano câbles.

Réduction de sulfate en sulfure

Finalement, l’équipe de chercheurs a découvert que la réaction fonctionne de façon totalement différente. Les chercheurs ont démontré que les archées peuvent accomplir l’AOM seules, sans l’aide de leurs partenaires bactéries. Les archées ne disposent pas de « la boîte à enzymes » observée habituellement chez les autres organismes à respiration au sulfate, mais dépendent d’une voie différente et encore inconnue. Lors de la réaction, le sulfate est réduit, cependant non pas jusqu’au sulfure d’hydrogène tel qu’on le pensait jusqu’alors, mais jusqu’au soufre non-valent seulement. L’équipe a pu grâce à l’aide de la microspectroscopie de Raman et de la technique de la chromatographie dépister la présence de soufre directement dans les archées, à taux bien plus élevés que chez les bactéries et donc permettre une contribution essentielle à l’identification du produit intermédiaire cherché depuis longtemps.

Les bactéries, a contrario, ne procèdent pas à la réduction de sulfate qui était pourtant présumée. Mais alors quel est donc le rôle des bactéries puisque les archées s’occupent non seulement de l’oxydation du méthane mais aussi de la respiration au sulfate ? Et bien les bactéries réductrices de sulfate absorbent le soufre non-valent qu’elles obtiennent des archées et utilisent alors une astuce microbiologique : elles oxydent une partie du soufre et en réduisent l’autre partie ce qui leur permet de gagner en énergie et donc de grandir et de se multiplier. Le disulfure [6] produit par l’AOM est donc utilisé par les bactéries de part la précédente réaction nommée dismutation. Cette réaction engendre la formation d’un composé sulfure (sulfure d’hydrogène) (qui a été réduit) et d’un sulfate (qui a été oxydé). Tout ceci s’apparente à une forme de fermentation, un processus similaire à celui utilisé pour la production d’alcool.

Les sulfates oxydés peuvent de nouveau être absorbés et utilisés par les archées. Les bactéries gardent donc une basse concentration en souffre non-valent, ce qui facilite le travail des archées (car la réaction se déroule alors de façon avantageuse en terme d’énergie). En même temps, elles fournissent aux archées du sulfate, dont celles-ci ont besoin pour leur métabolisme. Il s’agit donc d’une situation gagnante pour tous. C’est grâce à l’incubation continue, durant 8 ans, de cultures d’archées et de bactéries provenant du volcan de boue d’Isis, dans la mer Méditerranée, qu’il a été possible de retracer le cycle du souffre complexe impliqué dans l’AOM.

Jusqu’alors, il avait toujours été délicat d’expliquer la présence de soufre élémentaire dans les sédiments anaérobiques. Cette découverte n’élucide pas seulement le mystère de l’oxydation de méthane en milieu marin, elle éclaire aussi d’un jour nouveau les cycles de carbone et de soufre dans les sédiments marins, riches en méthane.

Source : www.bulletins-electroniques.com

News Informatique : janvier 2013

Un logiciel pour mesurer les troubles oculomoteurs lors de la lecture chez les enfants

En situation normale, la lecture devient totalement fonctionnelle après deux ans d’école primaire. En France, deux trimestres de primaire sont recommandés par la Haute Autorité de Santé (HAS) avant d’explorer un trouble de lecture. Pour parler de trouble, il faut qu’il y ait un retard d’au moins 18 mois entre l’âge réel et l’âge de lecture. Ainsi, en théorie, on ne peut diagnostiquer un trouble de lecture qu’à partir du CE2. Selon les études, ces troubles touchent entre 1 et 15% des enfants. Baptisé « Application Lecture », le logiciel médical développé par l’entreprise EyeBrain permet à des spécialistes des troubles de la lecture (ophtalmologues, neurologues, psychiatres, orthoptistes, neuropsychologues, orthophonistes …) d’évaluer automatiquement et rapidement des paramètres oculomoteurs lors de la lecture chez leurs patients, notamment la caractérisation fine des troubles du contrôle binoculaire.

Les travaux de recherche qui ont mené au développement de ce nouveau produit ont été réalisés dans la cadre d’une collaboration entre EyeBrain, petite entreprise créée en 2008 qui compte une douzaine de personnes localisée près de Paris, et des chercheurs du CNRS et de l’Université René Descartes, au sein de l’hôpital Robert Debré de l’Assistance Publique des Hôpitaux de Paris. Ils ont été cofinancés par l’Union Européenne grâce au Fonds Européen de Développement Régional (FEDER).

Source : www.bulletins-electroniques.com

Une puce inviolable contrôlée par des données biométriques

Dans le monde actuel où l’information coule à flot et où il semble devenir de plus en plus difficile de sécuriser des données personnelles, la mise au point de systèmes cryptographiques sûrs est un besoin. Mais c’est aussi un travail difficile. La crytographie quantique avance doucement et ne sera certainement par généralisable rapidement. Les chercheurs andalous, au travers du projet Crypto-bio, se sont lancés dans la réalisation de systèmes d’identification crypto-biométriques afin d’assurer la protection de données.

Ces systèmes sont basés sur l’utilisation de paramètres biométriques (empruntes digitales et reconnaissance faciale) afin de crypter et sécuriser des données. Seul l’utilisateur autorisé, par la validation de ces paramètres, peut débloquer le système et accéder aux données enregistrées. Le défi consiste à mettre au point les dispositifs électroniques et les logiciels pour faire fonctionner ces systèmes tout en maintenant le tout dans un appareil de taille réduite transportable. Il faut par ailleurs que le dispositif soit inviolable, c’est à dire que l’information sauvegardée ne soit pas accessible ou récupérable en démontant le système ou en étudiant son fonctionnement.

Les premiers résultats sont encourageants. Les chercheurs ont mis au point un dispositif qui se connecte à un port USB et qui gère de manière autonome le chiffrage des données et les actions permettant d’accéder à l’information. Un tel dispositif permettrait ainsi de valider l’identité des personnes avant de réaliser certaines opérations comme par exemple des achats sur internet.

Le groupe de recherche du projet Cripto-bio est formé de personnels des universités andalouses de Séville et Huelga, de chercheurs du CSIC et de l’Université Polytechnique de Madrid.

Source : www.bulletins-electroniques.com

Le nouveau supercalculateur national des Pays-Bas est de fabrication française

SARA, le centre informatique national qui fournit un ensemble complet de services, d’infrastructure et de calcul haute performance aux universités et aux centres de recherche néerlandais, a choisi la société française Bull comme fournisseur de son prochain supercalculateur national. Cet accord a été annoncé le 12 novembre 2012.

Le nouveau supercalculateur qui remplacera le système actuel Huygens, développé par IBM, sera opérationnel au premier semestre 2013. Il sera utilisé dans de nombreux domaines de recherche comme les énergies propres, le changement climatique, la gestion de l’eau, la réduction du bruit ou l’amélioration des soins médicaux.

L’acquisition de ce nouveau dispositif de pointe a été rendu possible grâce à l’investissement du réseau SURF [3], dont le but est de fournir aux étudiants, professeurs et chercheurs néerlandais des systèmes TIC (Technologies de l’Information et de la Communication) haute performance. L’organisation pour la recherche scientifique (NWO), le Ministère de l’éducation, de la culture et des sciences et le Ministère des affaires économiques, de l’agriculture et de l’innovation sont également impliqués financièrement dans ce projet.

Répondre à des besoins croissants

Bull a été choisi suite à une procédure d’appel d’offres européenne lancée e  2011. Les principaux critères de sélections portaient notamment sur les performances du système, sa consommation énergétique et sa flexibilité pour répondre aux besoins toujours croissants des utilisateurs. A la mi-2013, la performance du nouveau système devrait atteindre environ 250 téraflops/s (soit quatre fois plus que la capacité du système actuel) avant de franchir la barrière du pétaflops/s au second semestre 2014. Par ailleurs, il intégrera une nouvelle technologie de refroidissement liquide (par « free cooling » – refroidissement passif) qui permet de réduire significativement les coûts énergétiques liés au refroidissement, ainsi que les émissions de CO2.

« Nous sommes très enthousiastes pour le nouveau système et notre collaboration avec Bull. Notre stratégie d’adaptation à la demande permet de fournir une solution peu coûteuse et adaptée aux besoins des chercheurs néerlandais. Avec les processeurs Intel Xeon de nouvelle génération et la dernière technologie de refroidissement par eau chaude de Bull, nous disposons de l’un des systèmes informatiques le plus puissant, mais également le plus respectueux de l’environnement aujourd’hui disponible aux Pays-Bas. Il va donner un nouvel élan à l’économie de la connaissance néerlandaise. Avec Bull comme partenaire technologique et commercial, nous allons renforcer la compétitivité des Pays-Bas dans les sciences et l’économie », affirme le Dr. Ir. Anwar Osseyran, directeur de SARA.

« Nous sommes très heureux d’avoir été choisis par SARA », a pour sa part déclaré Dick Fens, PDG de Bull aux Pays-Bas. « C’est la seconde fois en peu de temps qu’une organisation néerlandaise réputée choisit la technologie avancée de Bull. Avec le nouveau supercalculateur de Bull, les chercheurs néerlandais auront accès à notre technologie bullx de nouvelle génération et pourront mener des recherches de haute qualité. Nous sommes fiers de contribuer ainsi à l’économie de la connaissance néerlandaise. »

Remplacement du système Huygens

Le nouveau supercalculateur Bull remplacera le système actuel, Huygens, utilisé par SARA depuis août 2008 et qui a atteint la fin de son cycle de vie. SARA a confié le remplacement du système actuel au réseau SURF qui depuis, 2012, est responsable du financement structurel d’une infrastructure nationale de recherche sur les TIC, dont fera partie le nouveau supercalculateur. Le 1er janvier 2013, SARA sera intégré à cette structure nationale et deviendra une nouvelle unité d’exploitation de SURF, appelée SURFsara.

Les astéroïdes sont-ils en train de devenir un nouvel eldorado ?

L’objectif est simple : exploiter les ressources présentes sur les astéroïdes. Cela peut être de l’eau mais aussi des métaux comme du fer ou du nickel, ou encore des métaux précieux. Par exemple, un « petit » astéroïde de seulement 1 km de diamètre pourrait contenir l’équivalent en fer de la production mondiale annuelle. Un astéroïde de 500 m de long pourrait fournir autant de platine que l‘humanité n‘en a jamais produit. Et les astéroïdes contenant de l’eau serviraient d’étape aux explorations spatiales lointaines, fournissant ressources en eau et en carburant. On comprend l’intérêt économique que représentent les astéroïdes. Seul petit bémol, les astéroïdes ne sont pas facilement accessibles…

Mais à l’homme rien d ‘impossible. La société Deep Space Industries a donc imaginé, en collaboration avec la NASA,  de petits engins spatiaux capables d’atteindre un astéroïde, d’en extraire les matériaux puis de les ramener sur Terre. Baptisés DragonFlies (libellules), ces vaisseaux d’à peine 32 kg passeront entre deux et quatre ans dans l’espace et pourront acheminer entre 27 et 68 kg de matériaux. Mais avant d’exploiter un astéroïde, encore faut-il être sûr qu’il est riche en ressources. Pour cela, de petits engins d’environ 25 kg seront préalablement envoyés pour sonder plusieurs astéroïdes et sélectionner les plus intéressants. Cette phase de présélection par les FireFlies (lucioles) durera entre deux et six mois, et devrait débuter dès 2015, dans moins de deux ans.  D’après le plan de Deep Space Industries, l’envoi des DragonFlies suivra rapidement dès 2016. La NASA a déjà recensé plus de 9000 astéroïdes dont 1500 aussi faciles d’accès que la Lune.

Le directeur général de Deep Space Industries n’hésite pas à déclarer que « On découvre plus de 900 nouveaux astéroïdes passant près de la Terre chaque année et ces objets peuvent être aussi importants pour les activités spatiales de ce siècle que l’ont été les gisements de minerais de fer du Minnesota pour l’industrie automobile de Detroit au XXe siècle ». L’année dernière déjà, la société Planetary Resources avait révélé son intention d’exploiter les astéroïdes, allant jusqu’à prédire que cette activité pèserait bientôt plusieurs dizaines de milliards de dollars par an.

A plus long terme, l’exploitation minière d’astéroïdes ne serait qu’une étape. Deep Space Industrie a annoncé vouloir construire des plateformes de communication en remplacement des satellites, dans un délai de dix ans. La société privée a même envisagé des centrales d’énergie solaire déployées dans l’espace pour alimenter la Terre.

A découvrir dans cette vidéo

 

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

L’UE planche sur de nouveaux objectifs de captage et stockage du carbone

Les Etats envisagent plus sérieusement de développer les technologies de captage et de stockage du dioxyde de carbone (CSC), afin de limiter la pollution liée à la consommation d’énergie et à l’activité industrielle. Le projet européen GeoCapacity prévoit la possibilité d’enfouir 300 milliards de tonnes de CO2 sous le sol européen, dans des puits de pétrole, des réservoirs à gaz ou des cavités géologiques. Cependant, l’objectif de monter 12 centrales pilotes à cet effet d’ici 2015, est « irréaliste », en l’état actuel, selon les Etats, qui sont chargés de porter des projets de CSC au niveau européen. Le projet de communication, consulté par Euractiv Bruxelles, envisage de faire évoluer la législation actuelle. S’il est approuvé, il obligerait la Commission à préparer une analyse d’impact et des propositions législatives avant 2014. Une consultation publique serait également lancée.

Pas assez d’incitations financières

Les projets de stockage et de captage sur le territoire européen devaient être financés par la vente de bons d’émissions de CO2 (programme NER300), et appuyés par la BEI. Ce dispositif devait attirer les investissements privés. Mais le prix de la tonne de carbone, aujourd’hui à 6, 4 €, est trop bas. Sans un prix de 40 à 75 € la tonne, « il n’y a aucune raison rationnelle pour les opérateurs économiques d’investir dans le CSC », précise le document de l’UE. Certains projets ont été annulés en Europe, notamment aux Pays-Bas, en Finlande et en France. Le porte-parole de Shell, Wim van de Wiel, souligne que le programme NER 300, auquel le géant néerlandais de l’énergie est favorable, souffre d’un manque de volonté des Etats membres de contribuer à 50% des investissements. « Il est opportun pour les décideurs politiques et le secteur de débattre de la nécessité de mesures supplémentaires limitées dans le temps afin de faire avancer le CSC en Europe », ajoute-t-il.

 

Plafonds obligatoires

Pour les Etats, « il est irréaliste d’assumer que le secteur dégagera les investissements adéquats pour les projets de CSC ». Il faut notamment adapter le système d’échange de quotas d’émissions de CO2 européen. Par exemple en fixant des limites d’émissions de carbone aux entreprises énergétiques et éventuellement aux industries à forte consommation d’énergie. Dans l’Etat américain de l’Illinois, les entreprises énergétiques devront par exemple tirer 5% de leur électricité d’une source d’énergie sans charbon d’ici 2015 et 25% d’ici 2025. Le document européen suggère également un système de certificat obligatoire de CSC, qui serait « parfaitement aligné sur le système ETS » et le principe du « pollueur payeur ». En Norvège, un pays non membre de l’UE, ce système est déjà en place, et le pays accueille actuellement deux des 20 projets pilotes mondiaux de CSC.

Oppositions

La Commission européenne discute du projet de l’UE, mais des fonctionnaires de la direction générale du climat s’y opposent. Ils affirment, contrairement aux Etats membres, que le système d’échange de quotas d’émissions (ETS) devrait être le moteur principal des investissements dans le CSC. La capture du carbone pose problème aux défenseurs de l’environnement, car favoriser son développement équivaudrait à soutenir en réalité une exploitation accrue des réserves en ressources fossiles, notamment par la récupération assistée du pétrole (RAP) ou le pompage de carbone liquéfié dans des puits de pétrole ou des gisements de gaz. Une tendance que des entreprises de CSC ont confirmée à EurActiv Bruxelles. Le document de l’UE indique pourtant explicitement que le « RAP ne peut jamais être le moteur principal de l’utilisation de CSC ». La capture de carbone rencontre par ailleurs l’opposition de certaines opinions publiques. En Allemagne et en Pologne des manifestations ont eu lieu contre la transposition de la directive, prévue pour 2011.

Nécessité

Si la combustion des carburants fossiles se poursuit au même niveau, sans le CSC, l’UE sera incapable d’atteindre son objectif de décarbonisation d’ici 2050. Pour Sanjeev Kumar, l’associé principal d’E3G, un cabinet de conseil sur l’environnement, la récupération assistée du pétrole « est un enjeu à court terme ». « Nous voulons utiliser le CSC pour réduire notre impact sur le climat. Nous examinons [des méthodes] de stockage du CO2 en toute sécurité et prouvons que la technologie fonctionne. Nous pouvons ensuite la vendre aux principaux pays en développement comme la Chine et l’Inde. » Aujourd’hui, beaucoup de chemin reste à parcourir pour relever le défi des émissions de carbone. « La réalisation d’un plus petit nombre de projets sera un défi encore plus grand », peut-on lire dans le document. La communication sera rendue publique courant 2013, ainsi qu’un rapport de la Commission sur la transposition de la directive actuellement en vigueur.

Source : www.euractiv.fr/energie-environnement
 

Découvrez les formations Techniques de l’Ingénieur :

Comment colorer la matière ?

La coloration d’un milieu présentant une certaine transparence résulte de l’absorption de certaines longueurs d’ondes par des chromophores. Le premier type de chromophore résulte des transitions électroniques entre les niveaux électroniques des ions de métaux de transition ou de terres rares.

Moins de 1 à 3 pour cent en poids d’ions suffisent pour colorer une matrice. Les longueurs d’ondes non absorbées du spectre visible donnent la couleur reçue par notre œil. Les transitions électroniques de certains ions chromophores sont plus ou moins sensibles à la géométrie du site occupé et donc à la composition et à l’état d’ordre du réseau hôte. Aussi, l’incorporation dans une structure adaptée, et en outre stable chimiquement et thermiquement, conduit au second processus de coloration, le pigment, une phase naturelle ou de synthèse développant une belle couleur. Outre leur haut pouvoir colorant, les pigments «céramiques» ne doivent pas être attaqués par le verre ou l’émail fondu. Plus la gamme de stabilité thermique demandée est grande, plus la palette de couleurs sera réduite.

La couleur blanche est obtenue par une opacification, c’est-à-dire une dispersion d’une phase ayant un indice différent de la matrice, comme les bulles d’air rendent blanche un morceau de glace.

Les métaux en faible épaisseur, notamment sous forme de nanoparticules, ont un spectre d’absorption bien défini, en particulier du fait d’une absorption résonante du nuage d’électrons présents en surface du métal, appelé plasmon. Les plus utilisés sont le cuivre, l’argent et l’or. Si le dépôt de la pellicule riche en métal est suffisamment épais, la coloration est contrôlée par la réflexion.

Le troisième processus résulte de la diffraction par des réseaux dont la périodicité est du même ordre de grandeur que les longueurs d’onde du spectre visible (~ 0,4-0,75 μm). Cette technique d’interférences, largement utilisée par la nature (opales, nombreux scarabées, papillons Morphos, etc.) est à l’origine des couleurs observées dans les céramiques lustrées sur la surface des compact disc.

La coloration de la matière, toute une Histoire

Les minéraux colorés naturellement, parfois améliorés par recuit, en particulier ceux utilisés en joaillerie ou en marqueterie, pierres fines ou semi-précieuses, ont été les premiers pigments utilisés pour la réalisation de peintures rupestres et de fresques, de pastels ou de dessins.

L’hématite (Fe2O3), la magnétite (Fe3O4), la gœthite et la lépidocrocite (FeOOH), les oxydes de manganèse, la calcite (CaCO3), le gypse (CaSO4), etc. sont utilisés depuis les périodes préhistoriques. Le lapis-lazuli, l’azurite, des minéraux riches en cobalt le sont, par intermittence, depuis la Haute Antiquité.

La coloration par dispersion de nanoprécipités métalliques remonte au néolithique (bijoux celtes) et fut utilisée de façon quasi-industrielle par les artisans romains pour fabriquer les tesselles rouges des mosaïques.

Le lustre, une technique de préparation par diffusion d’ions Ag+ ou Cu2+ dans un émail/verre (déjà cuit) et par contrôle de séquences alternées d’oxydation/réduction in situ (à ~ 600 oC) par la maîtrise de l’atmosphère de cuisson et des réactions d’oxydo-réduction à l’intérieur de l’émail, date de la période abbasside (VIII-IXe siècle).

La coloration par nanoparticules d’argent fut largement utilisée par les maîtres-verriers du Moyen Âge pour obtenir la couleur jaune, tandis que le rouge était obtenu par des nanoparticules de cuivre. Le caractère très absorbant de ces chromophores nécessita des techniques sophistiquées pour conserver une bonne transparence (couche de quelques millimètres formée d’alternance de couches très fines avec et sans particules recouvrant un support non coloré).

Le développement de la palette des couleurs par les maîtres-potiers pour la réalisation des majoliques en Italie, des Iznik en Anatolie (au-delà du XVe siècle) offrit aux peintres des alternatives aux minéraux semi- précieux (smalts : verres colorés par du cobalt et autres chromophores ; jaune de Naples : solution solide PbO-SnO2-Sb2O5-Fe2O3-ZnO-SiO2).

Le développement de la chimie préparative, lentement durant le XVIIIe siècle, à petits pas durant le XIXe, puis à grands pas pendant la première moitié du XXe, multiplia la palette des chromophores de synthèse, inorganiques mais aussi organiques, et les dépôts de brevets confortèrent les spécificités (association de pigments). Si, pendant des siècles, les émaux et leurs pigments étaient préparés par les manufactures avec la pâte, la révolution dans l’organisation industrielle de la seconde partie du XXe siècle conduisit à l’approvisionnement auprès de producteurs spécialisés en émaux et pigments, générant de nouvelles solutions techniques.

L’identification des chromophores utilisés, seuls ou en association, constituent donc des marqueurs technologiques et chronologiques très efficaces.

 

Cet article est un court extrait des bases documentaires de Techniques de l’Ingénieur.

 

Découvrez également les formations Techniques de l’Ingénieur :

Le premier prototype de biofaçade à microalgues bientôt en test !

Après avoir mis au point les premiers capteurs solaires biologiques de microalgues pour le bâtiment et le système de façade permettant de maintenir en température les cultures de manière optimale, l’agence X-TU Architects, le laboratoire GEPEA de l’Université de Nantes et AlgoSource Technologies vont lancer la construction d’un banc d’essai pour tester cette «biofaçade» en conditions extérieures réelles.

Cet équipement, dénommé SymBio2-BOX, est un véritable laboratoire dont l’instrumentation et les équipements permettront d’étudier et mesurer finement le comportement des microalgues ainsi que l’efficacité thermique de cette «biofaçade», tant pour la régulation thermique des cultures que du bâtiment.
Installée courant 2013 à Saint-Nazaire sur le site de l’Université de Nantes «Gavy-Océanis», la SymBio2-BOX sera un équipement de recherche industrielle complémentaire du démonstrateur de recherche et développement du GEPEA «défi-μAlg», dont il assure la déclinaison industrielle pour une application bâtiment.

 

Une alternative écologique de plus en plus crédible

Outre le caractère écologique des microalgues (captation du CO2, utilisation d’eaux usées pour les cultures, production d’O2, production naturelle de molécules d’intérêt,…), l’objectif de ce banc d’essai est de confimer les dernières études technico-économiques réalisées jusqu’ici, et qui laissent envisager des économies d’énergie globales de l’ordre de 40% liées directement à ce procédé innovant de «biofaçade», et jusqu’à 80% par rapport aux systèmes de cultures en bassins «raceways».

La régulation thermique étant le principal poste de coût de revient de la production de microalgues, une telle économie permettrait enfin d’ouvrir les marchés de l’alimentation à cette filière, aujourd’hui cantonnée à des faibles volumes sur le marché de la cosmétique et de la santé.

Enfin, cette double peau vivante et productive permettrait à de nombreux bâtiments, en neuf comme en rénovation, d’atteindre les objectifs du Grenelle de l’Environnement et d’être conformes à la nouvelle réglementation thermique 2012, généralisée à tous les bâtiments au 1er janvier.

 

Des champs «algocoles» verticaux en ville

A l’heure où l’hyperurbanisation grignote toujours plus de terres agricoles, tandis que les besoins alimentaires d’une population mondiale de plus de 7 milliards d’habitants explosent, les façades représentent une surface potentielle de culture encore inexploitée.

En effet, avec 50% maximum d’ouverture dans les façades pour l’éclairage naturel des locaux (HQE), l’autre moitié de surfaces disponibles, exposées au soleil, peuvent aujourd’hui être utilisées pour cultiver des microalgues, extrêmement riches en protéines, lipides (oméga-3, oméga-6), antioxydants, vitamines essentielles et pigments naturels, au point de représenter une source alimentaire prometteuse tant pour l’homme que pour les animaux ainsi qu’un jour une source de matériaux biosourcés ou d’algocarburants.

Publié par Iris Trahin

Découvrez les formations Techniques de l’Ingénieur :

Ingénieur informatique, un métier boudé ?

La liste dressée par Jobintree mi-janvier révèle un baromètre des postes les plus recherchés et inversement, des métiers ayant reçu le moins de candidatures. Un poste d’ingénieur informatique ne reçoit que 18 candidatures en moyenne par offre.

Mais comment s’explique cette pénurie de candidats, relativement surprenante, alors que dans un même temps, les entreprises éprouvent le plus souvent des difficultés à recruter ? D’où provient ce désintérêt ? Selon Fabrice Robert, cofondateur de Jobintree, le problème proviendrait de la formation et non des conditions de travail. C’est un fait reconnu, les études sont longues et représentent un investissement important de la part des étudiants. À cela se rajoute, une mise à niveau perpétuelle de la formation. 

Le problème pourrait venir à l’embauche. Parce que les recruteurs en demandent trop ou bien que les méthodes de recrutement sont exagérément strictes. Pour le savoir, le retour d’expériences serait précieux. Bien souvent exigeantes, les offres d’emplois réclament parfois de nombreuses connaissances pas nécessairement en adéquation avec le poste. L’effet est alors dissuadant pour un nouveau venu, qui se dira peut-être n’avoir pas toutes les compétences requises. Évidemment il ne faut pas généraliser. Cela n’illustre pas l’origine de cette dégradation des candidatures, il s’agit surtout d’un point de réflexion.

La situation économique difficile n’arrange rien. Dans un contexte de crise, les salariés ont tendance à privilégier la sécurité en conservant leur poste. Pour autant, il paraît juste de signaler que depuis le 1er trimestre 2012, le nombre de candidatures n’a pas vraiment évolué. Il reste faible, autour de 18 à 20 par offre.

Par Sébastien Tribot

 

Découvrez les formations Techniques des l’Ingénieur :

9 Français sur 10 favorables au développement des énergies renouvelables

Les principaux enseignements

Au moment du sondage, un Français sur cinq avait entendu parler du débat sur la transition énergétique et plus de « 80% des interviewés jugent importante la tenue de ce débat ».

Sept personnes sur dix estiment que, jusqu’à présent, la place accordée à la question énergétique dans l’action gouvernementale est insuffisante. Elles considèrent par ailleurs que les sujets liés à la transition énergétique sont prioritaires. Le développement des énergies renouvelables constitue un sujet de tout premier plan en matière d’énergie : 63% des interviewés estiment qu’il fait partie des priorités.

Spontanément, les énergies renouvelables sont associées à des valeurs positives. Elles bénéficient d’un large soutien de nos concitoyens puisque 91% d’entre eux en ont une bonne image et que 9 Français sur 10 sont favorables à leur développement.

84% des Français estiment que les énergies renouvelables ne se développent pas suffisamment rapidement dans notre pays : leur développement permettrait de réduire notre dépendance au pétrole importé (pour 83%) et d’être plus indépendant en matière d’énergie (pour 68%). Leur rôle dans la protection de l’environnement est largement reconnu, mais leur performance, leur image d’énergies de l’avenir, leur fiabilité et leur capacité à produire de l’énergie bon marché sont également très largement citées. En outre, pour 54 % de nos concitoyens, le secteur contribue beaucoup à la croissance économique française.
Tous les Français connaissent les énergies renouvelables et un Français sur deux dit savoir précisément ce qu’elles sont. L’énergie éolienne et l’énergie solaire sont les plus connues. 

L’acceptabilité des éoliennes 

Pour 83% des français, l’énergie éolienne a une bonne image. A travers ce sondage, IPSOS a également évalué l’acceptabilité de la présence d’éoliennes dans l’environnement des personnes interrogées. 80% des interviewés sont prêts à accueillir des éoliennes dans leur département, 68% dans leur commune. Et 45% des Français sont prêts à accepter des éoliennes dans leur champ de vision depuis chez eux, contre 40% qui y sont opposés. On note que cette acceptation est aussi forte chez les interviewés qui habitent la campagne, a fortiori plus concernés par l’installation de parcs éoliens : en effet, 46% d’entre eux répondent positivement à la question. 

Les énergies renouvelables dans la maison

Quatre Français sur dix disent utiliser une énergie renouvelable chez eux. Une personne sur deux s’est renseignée sur une utilisation personnelle des énergies renouvelables auprès de différentes sources : d’abord sur internet, puis en s’adressant à un artisan chauffagiste, à son entourage, ensuite en se tournant vers un fournisseur d’énergie et vers un organisme ou une association spécialisée, ce qui peut laisser penser que les opérateurs sont encore mal identifiés. Et plus d’un Français sur trois pense en installer une d’ici 5 ans. Ce qui freine la décision aujourd’hui, c’est en premier le coût d’une installation, et le changement de fiscalité.
 

Sondage Ipsos réalisé du 3 au 10 décembre 2012

 

Découvrez les formations Techniques de l’Ingénieur :

CES 2013 : un écran e-Ink au dos du « Yotaphone »

Nouveau venu sur le marché des smartphones, Yota Devices et son « Yotaphone » ont fait plutôt bonne impression au Consumer Electronics Show (CES), qui s’est déroulé la semaine dernière à Las Vegas. Difficile de se faire remarquer parmi tous les géants du secteur, pourtant le prototype a connu un certain succès lors de ce salon. Une particularité a surtout retenu l’attention : le Yotaphone est doté de… deux écrans. Le premier est un écran tactile LCD haute résolution 4,3 pouces, protégé par du verre de type « Gorilla Glass », combinaison somme toute très classique. Mais c’est bien le second écran qui a marqué les esprits : au dos du Yotaphone, un papier électronique de 4,3 pouces également fait office de second affichage.

Yota Devices n’est pas le premier à utiliser un écran de type papier électronique sur l’un de ses appareils, on se souvient de Motorola et de son « Motofone », dont la production a été arrêtée en 2008 faute de trouver sa place dans le secteur. Pourtant, le Yotaphone ne se situe pas dans la même veine, l’usage du papier électronique étant singulièrement différent. En effet, le second écran permet d’enregistrer un plan, une page web ou n’importe quel type de document, en un clin d’œil.

Le papier électronique possède un sérieux atout : comme le papier, il ne nécessite pas d’énergie pour laisser un texte affiché. Un seul geste suffit (faire glisser deux doigts de haut en bas de l’écran tactile) pour que le contenu de l’écran principal s’affiche en e-Ink au dos du smartphone. Quoi de plus simple alors que de laisser un plan imprimé au dos de son téléphone, une liste de courses, un pense-bête, ou tout autre type de documents auxquels l’on peut accéder alors même que la batterie est à plat ? Plus de problème avant de prendre l’avion, rendant l’accès à votre carte d’embarquement impossible.

Vlad Martynov, le PDG de Yota Devices, espère que son petit bijou de 9mm d’épaisseur sera commercialisé courant 2013.

Par Moonzur Rahman

Les méthodes usuelles d’analyse des œuvres d’art

Datation

La datation, qui permet l’estimation de l’époque de fabrication des œuvres, est sans doute la partie des sciences concernant le patrimoine la mieux connue du grand public, en grande partie grâce à la datation au carbone 14. Celle-ci consiste à doser le rapport entre les isotopes 14 (radioactif) et 12 (stable) du carbone contenus dans les résidus organiques. Cette quasi-exclusivité du carbone n’en fait pas l’unique technique de datation disponible.

La datation par rapport isotopique est en fait possible avec tous les composés radioactifs à condition d’avoir un renouvellement du stock disponible et des niveaux de concentration compatibles avec les seuils de détection, ce qui réduit les possibilités, mais le potassium ou l’argon sont des exemples possibles.

Une autre technique de datation est la dendrochronologie qui consiste à dater un objet en bois par l’analyse des cernes. La croissance des cernes est influencée par le climat et les séquences traduiront les empreintes digitales de l’époque et du lieu. Ces deux techniques permettent de dater des objets d’origine biologique.

Deux autres techniques peuvent être utilisées pour dater les objets en argile. La première est le paléomagnétisme qui va se baser sur la capture du champ magnétique terrestre lors de la cuisson. La mesure de celui-ci va en effet permettre de dater l’objet. La seconde est la thermoluminescence qui consiste à mesurer la lumière émise lors du chauffage de l’objet. Lorsqu’un objet en argile est soumis à une irradiation (naturelle ou artificielle), les électrons peuvent se retrouver piégés dans des états métastables au niveau des défauts cristallins. Lors du chauffage de l’objet, l’énergie thermique permet de les libérer ce qui conduit à une émission radiative et, en collectant ce rayonnement, il est finalement possible d’estimer le laps de temps qui s’est écoulé depuis la dernière cuisson de l’objet.

Analyse élémentaire

La seconde catégorie de techniques permet l’analyse élémentaire conduisant à la connaissance qualitative ou quantitative des atomes constituant l’objet.

La technique la plus classique pour ces mesures consiste à utiliser un microscope à balayage électronique (MEB). Les électrons vont exciter le nuage électronique des différents atomes qui vont rayonner à des longueurs d’onde précises selon les principes de la mécanique quantique. Cette technique requiert une préparation des échantillons (polissage et métallisation) qui implique des prélèvements. Les cartographies au MEB permettent de distinguer la stratigraphie des coupes ou de différencier les pigments.

Une autre technique est la fluorescence X où des rayons X sont utilisés à la place des électrons pour exciter la matière. Cette méthode ne nécessite ni préparation ni vide et peut être utilisée sur des œuvres entières. Une autre technique basée sur ce principe physique est nommée « émission de rayons X induite par particules » ou PIXE. Elle consiste à ioniser les éléments à l’aide de protons ou autres particules. Pour cela, un accélérateur de particules est encore nécessaire, mais des techniques innovantes basées sur des lasers plus compacts pourront peut-être le remplacer dans les années à venir.

La technique, basée sur l’accélération de particules élémentaires, est la rétrodiffusion de Rutherford (RBS). Le principe physique correspond à un choc élastique entre l’atome cible et un projectile. L’énergie de la particule rétrodiffusée va dépendre de sa masse, de l’angle de collection ainsi que de celle de l’atome cible. C’est donc un autre moyen de connaître la nature chimique des éléments.

Enfin, la dernière technique d’analyse élémentaire que nous mentionnons est la spectroscopie de masse. En réduisant les composés à l’état atomique, puis en les accélérant, il est possible de les différencier (séparer) par calcul de la différence de temps de vol ou l’évaluation de la déviation magnétique. Cette méthode d’analyse permet de séparer les éléments mais aussi les isotopes d’un même élément.

Analyse structurelle

L’analyse élémentaire est souvent insuffisante pour caractériser un objet macroscopique. L’exemple le plus connu est sans doute le graphite et le diamant qui ont la même composition élémentaire, le carbone, mais des propriétés physiques bien différentes. Pour les différencier, il faut effectuer une analyse dite structurelle qui va permettre de retrouver la structure cristalline (paramètre de maille, etc.) dans le cas des cristaux, ou la structure chimique (détermination des compositions moléculaires) dans le cas des molécules.

Une technique très répandue est la diffraction des rayons X qui fonctionne comme la diffraction de la lumière – interaction d’une onde électromagnétique avec un objet dont la dimension est de l’ordre de grandeur de sa longueur d’onde – mais pour une gamme de longueurs d’onde beaucoup plus faibles. Cette méthode permet de remonter aux paramètres de maille de la structure cristalline étudiée.

L’analyse Raman se base quant à elle sur la diffusion inélastique des photons lors de l’interaction du rayonnement avec le milieu, ce qui entraîne une modification de la longueur d’onde, donnée caractéristique de la maille ou des modes de vibration moléculaire. La spectrométrie infrarouge permet de détecter les fonctions chimiques présentes dans l’échantillon par absorption vibrationnelle du rayonnement. D’autres techniques venant de la chimie, comme la chromatographie, peuvent aussi être utilisées pour déterminer les composants d’un mélange en les séparant.

Enfin, certaines méthodes vont pouvoir caractériser les propriétés mécaniques des matériaux, en procédant à des tests standards (tests de traction par exemple). D’autres techniques d’analyse structurelle sont encore à l’étude aujourd’hui comme la nano-indentation par exemple.

Imagerie

La dernière catégorie des méthodes usuelles d’analyse concerne l’imagerie appliquée aux œuvres. Celle-ci peut être utilisée soit pour conserver un enregistrement de l’état de l’œuvre à un moment donné, soit dans un cadre d’investigation.

Quand on parle d’enregistrement, la photographie est généralement l’idée immédiate qui vient à l’esprit. Cependant, des techniques d’imagerie bidimensionnelle (2D) plein-champ autre que la photographie existent. Pour rester dans un domaine proche du rayonnement visible, les photographies UV permettent d’imager les zones restaurées, alors que celles en infrarouge donnent une distinction différente entre les pigments de couleur proche.

La réflectographie infrarouge va permettre de visualiser les dessins sous-jacents réalisés à base de carbone. En s’éloignant un peu plus en fréquence, les rayons X permettent la radiographie de l’objet en transmission et rendent compte des différences de densité de celui-ci. Cette technique d’imagerie sera en outre comparée à l’imagerie THz dans la dernière partie de cet article.

Ces techniques d’imagerie peuvent être modifiées pour restituer la structure tridimensionnelle (3D) de l’objet, comme par exemple avec la tomographie par rayons X (plus connue sous le nom de scanner médical). Dans le domaine optique, la structure 3D de l’extérieur de l’objet sera obtenue en utilisant des scanners laser 3D pour une échelle macroscopique, ou la microtopographie pour une échelle mésoscopique. Notons aussi qu’un certain nombre des techniques présentées dans les sections précédentes peuvent aussi être utilisées pour imager les objets, avec une réalisation de l’image finale en mode « point par point ».

La complexité des matériaux du patrimoine est telle que le recours simultané aux différentes techniques précitées est très souvent nécessaire pour corréler les résultats et extraire les informations recherchées. De même, le développement de caméras multispectrales est encouragé afin d’analyser les œuvres simultanément sur une grande partie du spectre des ondes électromagnétiques (UV, visible et infrarouge notamment).

A l’heure actuelle, il est certain que la science liée à l’art est en perpétuelle évolution. Une importante contrainte est la diminution du nombre de prélèvements possibles et la préservation nécessaire des œuvres qui impliquent l’utilisation de techniques non-intrusives et non-destructives. Encore aujourd’hui, il est donc nécessaire de développer de nouvelles méthodes d’investigation innovantes issues de nouvelles technologies. C’est ce que nous proposons ici de démontrer à travers l’utilisation du rayonnement THz, avec une autre contrainte importante concernant la nécessité de pouvoir déplacer le laboratoire vers l’œuvre et non l’œuvre vers le laboratoire. Les dispositifs d’imagerie THz que nous aurons à développer devront donc être miniaturisés pour les rendre portables.

 

Cet article est un court extrait des bases documentaires de Techniques de l’Ingénieur.

  • Pour lire la suite de l’article et découvrir les méthodes avancées d’analyse de l’art, n’hésitez pas à consulter l’article « Le rayonnement térahertz pour l’analyse des matériaux du patrimoine culturel » bientôt disponible en ligne ainsi que notre base documentaire dédiée à l’art.

 

Découvrez également les formations Techniques de l’Ingénieur :

Le secteur de la chimie végétale en pleine croissance

Lors d’un colloque organisé par l’ADEME sur les potentiels et perspectives de cette industrie, Christophe Rupp-Dahlem, président de l’Association pour le développement de la chimie du végétal (ACDV) révélait que le chiffre d’affaire de la chimie végétale allait doubler de 2012 à 2020, bondissant de 135 milliards d’euros dans le monde à 340 milliards. La chimie végétale consiste à utiliser des ressources végétales à la place de ressources fossiles. Il apparaît évident que le développement de cette filière contribue à diminuer la dépendance de l’industrie chimique au pétrole. Ce besoin urgent d’indépendance a d’ailleurs favorisé le développement du biosourcé, contribuant directement à l’essor de la chimie végétale.

Le premier moteur de ce développement est la demande croissante de nombreux secteurs de remplacer des molécules pétrochimiques par leur équivalent d’origine végétale, comme par exemple le recyclage avec le PET biosourcé. La molécule issue de la chimie végétale présente alors la même structure chimique que celle à remplacer. On pourrait parler de son clone bio !

Deuxième levier de croissance, la substitution d’usage. Cette fois, les molécules d’origine pétrochimique sont remplacées par des molécules biosourcées ayant les mêmes propriétés : laine de verre remplacée par la laine de chanvre ou encore l’acide polylactique (PLA) pour les bouteilles en plastique, une autre alternative bio au tout PET.

En 2011, la part des matières premières végétales dans l’industrie chimique atteignait 11%, un chiffre amené à croître. Mais pour y arriver, le domaine de la chimie verte doit atteindre une certaine maturité, et notamment développer des molécules aux applications uniques. Cela permettrait d’ouvrir de nouveaux marchés et d’assurer le développement de la filière. Néanmoins, de l’avis mêmes des professionnels de la chimie verte, il faudra encore de nombreuses années avant que de telles innovations voient le jour à l’échelle industrielle, l’horizon 2030 apparaissant plus réaliste que 2020.

En attendant, la chimie végétale peut compter sur la plasturgie, en bonne santé et demandeuse de bio, ainsi que sur la filière des cosmétiques. Les progrès à venir sur la gestion des molécules végétales, leur recyclage notamment, aideront aussi  à développer le secteur.

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations techniques de l’Ingénieur :

Gagner en compétitivité en s’appuyant sur l’informatique

La mobilité, le SaaS, le Cloud, les solutions collaboratives sont autant d’exemples qui illustrent cette tendance. Pour autant, offrir à ses collaborateurs des outils de productivité représente un investissement important. A titre d’exemple, un simple smartphone peut coûter jusqu’à 600 euros et des infrastructures et logiciels plusieurs milliers d’euros. Il est donc nécessaire de se poser la question du financement de telles ressources et de mettre en place une politique d’achat adaptée.

En effet, acquérir une technologie par le biais d’un achat direct n’est pas nécessairement adapté dans la mesure où les technologies, comme nous l’avons précisé, sont très rapidement obsolètes. Les actifs matériels et logiciels sont intégrés dans un environnement en constante évolution. Considérer qu’ils ne se déprécient pas sur une période de 3 ans est une erreur comptable que l’entreprise paye au prix fort. Devenir propriétaire, en fin de contrat, d’un matériel à forte obsolescence, c’est supporter un coût de maintenance disproportionné par rapport à la valeur du matériel.

La location est la piste à étudier de par sa flexibilité et son adéquation aux besoins exprimés sur le marché. La flexibilité et la capacité à pouvoir renouveler son matériel rapidement sont un réel atout qui joue en faveur du financement locatif. Pour un budget identique, les professionnels sont certains d’avoir un matériel répondant aux dernières exigences technologiques.

La location évolutive semble être de nos jours la solution idéale pour maintenir son parc technologique au meilleur niveau technique et fonctionnel, sans immobiliser inutilement les fonds propres de l’entreprise et tout en réduisant ses coûts de gestion.

Les avantages sont donc multiples :

  • Souplesse d’un seul contrat pour le financement d’un projet global

  • Choix du type de matériel et de la durée des contrats

  • Intégration des évolutions technologiques

  • Renouvellement régulier de son parc grâce à l’évolutivité des contrats

  • Préservation de sa capacité d’autofinancement

  • Maîtrise de ses budgets en fonction de la durée de vie des matériels

  • Accès à de nombreux avantages financiers

Les entreprises doivent donc bien penser leur politique d’acquisition et trouver des solutions adaptées pour rester compétitives. La notion de location va progressivement s’imposer comme une réelle alternative au processus d’achat traditionnel.

Par Cyril Marlaud, Directeur Général de REALEASE CAPITAL

Découvrez les formations Techniques de l’Ingénieur :

Les innovations techniques du nouveau ballon de Paris

Installé dans le Parc André Citroën à Paris depuis 1999 et s’élevant jusqu’à 150 mètres de haut, le Ballon de Paris est le troisième point le plus haut de la capitale, visible à 20 km à la ronde et offrant une vue à 360°. Il embarque chaque année 60 000 visiteurs.

Bien plus qu’une simple attraction touristique

Compte tenu du succès rencontré, ce ballon constitue aujourd’hui un excellent outil de sensibilisation  aux enjeux environnementaux, notamment sur la question de la qualité de l’air. Depuis 2008, il traduit sous forme de couleurs, compréhensibles par tous, deux indices de pollution développés dans le cadre du projet européen CITEAIR : la qualité de l’air ambiant et la qualité de l’air à proximité du trafic. Ce système de couleurs (vert foncé, vert clair, orange clair, orange foncé et rouge) informe et sensibilise les citoyens sur la qualité de l’air qu’ils respirent. Les niveaux de pollution sont calculés toutes les heures par Airparif à partir des 12 stations réparties dans Paris, sont transmises au ballon et converties en couleurs. Ces indications sur le ballon sont nées de la volonté d’« annoncer de façon très claire et compréhensible par tous les deux indices », note Matthieu Gobbi, co-créateur du Ballon.

En 2011, 3 à 4 millions de franciliens étaient exposés à un air qui ne respectait pas les normes françaises et européennes. Les polluants les plus problématiques étaient le dioxyde d’azote, les particules et l’ozone. Pour les particules fines PM2,5, ce sont ainsi l’ensemble des franciliens qui sont soumis à des niveaux au-delà des recommandations de l’OMS. 

Des LED pour allumer voitures et monuments

L’observatoire atmosphérique Generali regroupera 6 400 LED. Elles serviront à allumer deux séries de pictogrammes : des véhicules d’une part, et les principaux monuments de Paris d’autre part. Les véhicules traduiront le niveau de pollution à hauteur du trafic et les monuments celui de l’air ambiant. Les couleurs seront visibles à environ 4 km à la ronde, touchant plus de 500 000 personnes.

Par exemple, lorsque la silhouette de la Tour Eiffel, passera de l’orange foncé au rouge, cela signifiera que la qualité de l’air ambiant est passée d’élevé à très élevé. Mais rassurez-vous, le rouge n’a été allumé que deux jours en 2012.

Des membranes photovoltaïques auto-adhésives

Pour l’occasion, le groupe Serge Ferrari appliquera sa membrane photovoltaïque auto-adhésive Texysolar sur le haut du ballon. Flexible et simplement collée, cette membrane associe un composite silicone/fibre de verre haute résistance à des modules laminés photovoltaïques au silicium amorphe double jonction. Ultra légère, cette membrane pèse 1,4 kg/m2, soit dix fois moins qu’une solution rigide classique. 

Résistante à des vents de 250 km/h, la membrane résiste aussi aux impacts. L’énergie produite sera directement utilisée sur place pour alimenter une partie des LED du ballon.

Une mesure permanente des particules ultrafines

Développé par le laboratoire de Physique et Chimie de l’Environnement (LPC2E) au sein du CNRS  et l’industriel Environnement SA, le LOAC (Light Optical Aerosol Counter) permettra d’étudier les particules ultrafines solides présentes dans l’air au niveau du ballon. Ce capteur est le premier capable, à la fois de compter en continu les particules ultrafines de 0,2 à 10 micromètres, et de fournir des informations sur leur taille et leur nature. De plus, il ne pèse que 250 g, ce qui le rend aussi embarquable à bord de mini-ballons, comme les ballons météo. 

 « Il est essentiel de mieux identifier et connaître notamment les très petites particules, car ce sont elles qui s’avèrent les plus dangereuses pour la santé : lorsqu’elles mesurent moins d’un micron, (un millionième de mètre) de diamètre, elles deviennent capables de pénétrer en profondeur dans le système respiratoire », explique Jean-Baptiste Renard, directeur de recherche au LPC2E.

Les données du LOAC seront comparées aux mesures effectuées au sol par le CNRS. Elles permettront ensuite d’orienter les décisions publiques en matière de politique de la ville et de transports urbains. « La précision inédite de ces mesures devrait permettre de faire progresser la réflexion au plan européen sur les liens entre pollution et santé publique, et permettre de définir de nouvelles normes, plus adaptées à la réalité de la pollution », prévoit déjà Jean-Baptiste Renard.

En partenariat avec l’Association Santé Environnement France, le projet prévoit également de sensibiliser les citoyens pour prévenir les risques. Une fois les mesures obtenues, elles seront corrélées à des mesures et comportements appropriés, via un site web et une appli mobile. Au plus près des passants, le nouvel écran du pavillon au sol affichera les données fournies par les capteurs en temps réel pour montrer la présence et la nature des particules ultrafines dans l’air. Dans ce même pavillon, une exposition permanente permettra au grand public de prendre à la fois conscience des principaux polluants de l’air et des actions à mettre en œuvre pour en diminuer la dangerosité.

 

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :