À en croire ce qui se dit ou s’écrit ici ou là, l’incinération est une plaie : elle empoisonne la population, elle coûte très cher, elle empêche la prévention des déchets, le recyclage et le compostage, elle produit énormément de CO2, elle n’est en rien une énergie renouvelable, elle se développe à vitesse « grand V » en France mais pas chez nos voisins européens, les exploitants des usines ne sont pratiquement pas contrôlés et font ce qu’ils veulent…
Ce petit livre fait le point sur ces idées reçues, les dissèque, fait la part du vrai et du faux, sources à l’appui.
Il présente aussi les propositions des professionnels pour tirer le meilleur parti de l’énergie des déchets, réduire nos émissions de gaz à effet de serre et produire plus d’énergie d’origine renouvelable. Il entend ainsi contribuer au débat nécessaire sur le traitement de nos déchets.
Le SVDU (Syndicat national du traitement et de la Valorisation des Déchets Urbains et assimilés) est le syndicat professionnel rassemblant les principaux opérateurs de la valorisation énergétique des déchets ménagers en France (incinération, méthanisation, gazéification) ; soit, au total, 90 % de la capacité d’incinération du parc français. Le SVDU est aussi adhérent au CEWEP (Confederation of European Waste to Energy Plant ; 2e pays adhérent après l’Allemagne), à la FNADE (Fédération nationale des activités de la dépollution et de l’environnement), elle-même membre de la FEAD (Fédération européenne des activités du déchet et de l’environnement).
L’IARC classe les fumées de diesel comme cancérogènes certains
L’IARC – International Agency for Research on Cancer (Centre international de recherche sur le cancer – CIRC) vient d’ajouter les gaz d’échappement des moteurs diesel à la liste des agents cancérogènes certains (groupe 1), l’exposition aux fumées de diesel augmentant les risques de cancers du poumon et favorisant la survenue de cancer de la vessie. L’exposition aux fumées et gaz d’échappement diesel est aujourd’hui considérée en France comme la plus fréquente des expositions à un agent cancérogène sur le lieu de travail précise l’INRS. Le rapport de l4IARC est consultable sur : http://press.iarc.fr/pr213_E.pdf
Substances enregistrées
28/06/2012
La base de données de l’ECHA contient, à ce jour, 5 386 substances et des informations provenant de 27 040 dossiers d’enregistrement REACH.
Mise à jour de la liste des substances susceptibles d’être enregistrées au 30 mai 2013
28/06/2012
L’ECHA a mis à jour la liste des substances qui seront enregistrées à la deadline du 31 mai 2013. Cette liste est disponible sur : http://echa.europa.eu/reach-2013
L’EFSA recommande l’approche SFT pour l’évaluation des risques chimiques
02/07/2012
L’Autorité européenne de sécurité des aliments (EFSA) a publié un nouvel avis scientifique sur l’utilisation potentielle de l’approche dite du seuil de préoccupation toxicologique (SPT) pour estimer les risques possibles pour la santé humaine liés à de faibles niveaux d’exposition à des substances chimiques présentes dans l’alimentation humaine et animale, pour lesquelles les données toxicologiques disponibles sont limitées ou inexistantes. Lorsque les données existantes sont insuffisantes pour réaliser une évaluation des risques, l’approche SPT est un outil scientifique qui peut être utilisé pour aider les responsables des politiques à protéger les consommateurs. L’avis est consultable sur :
L’ECHA a mis à jour la FAQ européenne CLP. Elle contient Elle contient des révisions ainsi que de nouvelles questions/réponses. La FAQ est disponible sur :
Mise à jour de la FAQ sur les demandes (inquiry) et l’identification des substances
03/07/2012
L’ECHA a mis à jour la FAQ relative aux inquiry (démarche par laquelle une entreprise informe l’ECHA d’un enregistrement pour pouvoir être mise en relation avec les membres du forum) et à l’identification des substances. Cette version n’est, pour le moment, disponible qu’en anglais. http://echa.europa.eu/documents/10162/13648/inquiry_qa_en.pdf
Mise à jour de la FAQ européenne REACH 4.0
04/07/2012
L’ECHA a mis à jour la FAQ européenne REACH 4.0. Elle contient cinq nouvelles FAQ sous le thème information au sein de la chaîne d’approvisionnement (information in the supply chain). La FAQ est disponible sur : .
Futurs candidats pour l’autorisation : deux évènements vous attendent en octobre 2012
04/07/2012
L’ECHA organise début octobre, deux évènements à destination des futurs candidats à l’autorisation. Les 1er et 2 octobre, un séminaire est organisé à Helsinki et portera sur le processus d’autorisation, les outils et les guides mis en place pour aider les futurs candidats. L’ECHA organise les 2 et 3 Octobre un atelier pour aborder l’analyse des alternatives et l’analyse socio-économique. Ces éléments sont indispensables lors du dépôt du dossier d’autorisation. Les inscriptions pour les deux événements sont ouvertes jusqu’au 27 Août 2012.
Consultation publique pour la restriction de quatre phtalates
06/07/2012
Les parties concernées sont invités à commenter le projet d’avis du comité d’analyses socio-économique (SEAC) sur une proposition de restriction visant à limiter l’exposition des humains à quatre phtalates – les DEHP, DBP, BBP, et DIBP – présents dans des articles de consommation. La date limite pour les commentaires est fixée au 3 Septembre 2012.
Le règlement européen CLP relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges, vient de faire l’objet d’une modification destinée à l’adapter au progrès technique et scientifique par un règlement paru le 11 juillet au Journal officiel de l’Union Européenne. La modification porte sur l’annexe VI, partie 3, qui contient la liste des substances dangereuses pour lesquelles une classification et un étiquetage harmonisés ont été adoptés au niveau communautaire. Ces modifications sont applicables à compter du 1er décembre 2013.
Les fournisseurs ont toutefois la possibilité d’appliquer les nouvelles classifications harmonisées avant le 1er décembre 2013, et d’adapter l’étiquetage et le conditionnement en conséquence. La publication au JOUE est disponible sur :
L’ECHA a mis en ligne la nouvelle version de REACH-IT. Cette nouvelle version doit être utilisée pour soumettre les inscriptions et dossiers à l’ECHA. A partir de ce jour, l’ECHA ne pourra accepter que les dossiers préparés avec IUCLID 5.4. Ceci s’applique à tous les types de dossiers préparés dans IUCLID et soumis via REACH-IT ou par un formulaire en ligne (ex : autorisation, demande d’un nom chimique de remplacement).
Les guides pour la création, la vérification, et la soumission des dossiers à l’aide de IUCLID / REACH-IT ou le WebForms ont été mis à jour et sont disponibles sur le site Web de l’ECHA. Les plug-ins sont également disponibles sur le site de IUCLID.
L’UIC, en partenariat avec le Ministère de l’écologie, du développement durable et de l’énergie (MEDDE), organise de nouvelles sessions de conférences en ligne. L’inscription est gratuite. Prochaines dates de ces conférences :
13 septembre 2012 – Déclarant principal : quelles sont vos obligations ? [Inscription en ligne]
28 septembre 2012 – L’évaluation de la sécurité chimique et le rapport sur la sécurité chimique [Inscription en ligne]
9 octobre 2012 – Que faire à réception d’une fiche de données de sécurité étendue ? [Inscription en ligne]
25 octobre 2012 – REACH et exemptions : soyez vigilants ! [Inscription en ligne]
22 novembre 2012 – Le processus d’autorisation et les obligations résultant de l’inclusion d’une substance dans la liste candidate [Inscription en ligne]
Pour la première fois, il devient possible de caractériser les propriétés mécaniques d’un matériau grâce à un nano-écoulement de fluide. Les deux équipes du Laboratoire de physique de la matière condensée et des nanostructures (CNRS / Université Claude Bernard Lyon 1) et du Laboratoire de physique des solides (Université Paris-Sud / CNRS) se sont intéressés à la souplesse d’un élastomère de quelques centaines de nanomètres d’épaisseur.
Celui-ci a été plongé dans un mélange d’eau et de glycérol. Puis, les scientifiques ont utilisé un appareil mis au point par Frédéric Restagno pendant sa thèse et actuellement en poste au Laboratoire interdisciplinaire de physique (CNRS / Université Grenoble 1). L’appareil est composé d’une sphère millimétrique en pyrex, elle-même attachée à une tige au positionnement contrôlé par un système céramique piézoélectrique. La bille, à l’approche du matériau, pousse le liquide et crée un nano-écoulement qui génère une très faible pression à la surface du matériau étudié qui va alors se déformer plus ou moins.
Ces travaux, publiés en juin dans la revue Physical Review Letters, ouvrent la voie à une nouvelle méthode d’imagerie à échelle nanométrique dédié à la mesure des propriétés élastiques d’objets très minces.
STEMMER IMAGING est le fournisseur de référence des technologies de Vision Industrielle et d’Imagerie Professionnelle en France et en Europe.
Grace à une offre complète, systèmes autonomes paramétrables, caméras, éclairages, objectifs et accessoires, nous vous proposons aussi bien des solutions sur étagère qu’un développement spécifique sur cahier des charges.
Le système peut être équipé de différents processeurs. De manière standard, il travaille sous Windows, toutefois d’autres systèmes d’exploitation peuvent être utilisés (option).
La forme compacte et la structure modulaire du système prédestinent cet ordinateur à un emploi dans le traitement de l’image et assurent l’intégration de composants informatiques correspondant au dernier état de la technique. La dotation standard comprend deux interfaces Gigabit-Ethernet, six ports USB 2.0, trois interfaces RS232 et une RS232/485. Des cartes d’acquisition de diverses classes de performance peuvent être enfichées dans les logements PCI libres et permettent ainsi une sélection personnalisée de la caméra. Différentes variantes dotées d’une multitude de ports standard sont également disponibles, ainsi que des systèmes spécifiques client.
Données techniques :
Exempt de ventilateur jusqu’à 2,16 GHz grâce à une évacuation de la chaleur optimale
Performance élevée malgré une consommation de courant extrêmement faible
Supporte les processeurs Intel® Core™ 2 Duo (T7400), Core™ Duo (T2500) et Celeron® M (440)
Chipset Intel® 945GME
2 prises pour SDRAM DDR2 533/667 (240 pôles)
2 interfaces Gigabit-Ethernet, 6 ports USB 2.0, VGA, sortie TV DVI
3 interfaces RS232 et une RS232/422/485 via connecteur Sub-D 44 pôles
Place réservée pour un disque dur de 2,5 pouces et connecteur Compact Flash
Le logiciel intégré peut être facilement installé en utilisant une interface de navigateur Web. l’installation de logiciel n’est pas requise, excepté pour l’émulateur entièrement fonctionnel, qui supporte le développement et le débogage déconnecté.
L’interface utilisateur à 4 étapes est conçu de sort que les utilisateurs débutants en peuvent travailler facilement. Les intégrateurs expérimentés peuvent recourir aux fonctionnalités avancées, telles que les scripts spécifiques.
DALSA Boa IDR – Lecteur ID et outil d’identification
La DALSA Boa IDR permet aux fabricants de combiner les fonctions de suivi avec d’autres tâches d’inspection, comme par ex. la lecture et le contrôle de signes. Il est ainsi possible de garantir une lisibilité facile et constante des étiquetages de produits au moment où le produit sort du hall de production.
Notre solution intelligente convient idéalement à la détection des erreurs et la traçabilité des pièces pour des applications haute vitesse dans l’industrie automobile, électronique, d’emballage et pharmaceutique.
Contrôle d’accès
Les fonctions de contrôle de la gestion des utilisateurs, p.ex. le contrôle d’accès ou l’histoire logging, aident les entreprises à remplir la validation CFR Part 11.
Modèles
Résolutions de 640 x 480 pixels à 1280 x 960 pixels
Implémentation
La DALSA Boa IDR de Teledyne DALSA supporte les protocoles standard de communication tels que Ethernet pour l’intégration dans le réseau d’installations de fabrication, y compris le support pour les contrôles courants (p.ex. de Rockwell Automation ou Siemens). La Boa garantit le transfert de données rapide et précis avec un effort d’intégration minimal.
En plus de l’interface Ethernet la DALSA Boa IDR offre une interface RS-232 et des E/S particulières, ainsi que des options E/S extensibles. Grâce à une sortie strobe l’illumination peut être pilotée directement. Le fait que la Boa IDR est compatible avec le câblage standard M12, aide à minimiser les coûts de l’intégration du matériel.
Marchés & Applications
Inspection des pièces (1D,2D)
Suivi des pièces (1D,2D)
Vérification des erreurs (2D, OCR, la reconnaissance des formes)
Vérification des dates d’expiration, des numéros de lot, des codes de produits (OCR)
Vérification de texte imprimé (OCR, pattern)
Vérification de la présence et le placement des étiquettes (pattern)
Vérification des étiquettes (1D,2D,OCR)
Vérification de la présence et le placement des bouchons (pattern)
Pattern recognition (pattern)
Identifications des contrefaçons (pattern)
Guidage de robots (pattern)
Données Techniques :
Boîtier
Forme cubique (44 x 44 x 44 mm³)
Boîtier industriel IP67 avec protection d’objectif
Compatible avec le câblage standard M12
Monture 360°
Capteur
Capteur CCD
Objectif Monture C interchangeable
Intégration flexible
Power over Ethernet passive
Raccordement direct aux sources lumineuses externes
En termes de distance opérationnelle, de plage métrologique et de champ de vision, les capteurs 3D compacts et intelligents de la nouvelle génération Gocator 2300 sont identiques aux modèles de la série 2000, mais avec leurs 1 280 pixels, ils multiplient par deux la résolution offerte à l’utilisateur. Les capteurs 3D pré-calibrés saisissent ainsi, plus vite que les modèles antérieurs, des profils 3D à des résolutions entrant dans la plage micrométrique.
Grâce au doublement de résolution des nouveaux capteurs comparé à la série 2000, la vitesse d’édition des données s’est trouvée multipliée par 4, un facteur significatif. Pour pouvoir gérer les grandes quantités de données ainsi produites, les nouveaux capteurs communiquent via une interface Ethernet Gigabit. Des connecteurs standard M12 ont été intégrés pour raccorder l’alimentation électrique, les entrées et sorties ainsi que la connexion réseau.
Larges de 49 mm, les nouveaux modèles Gocator 2300 sont un peu plus minces que les capteurs de la série 2000 ; ceci permet de les installer plus facilement dans des encombrements étroits ou sur des bras robotisés. Vu leur géométrie plus compacte, ils se laissent plus facilement monter par paires dans les installations, pour ainsi mieux balayer de grandes surfaces en optimisant la couverture. Les boîtiers des nouveaux modèles sont conformes au standard IP67.
LMI présente également une série de nouvelles fonctionnalités logicielles accompagnant les capteurs Gocator et qui figurent aussi dans la nouvelle série déclinée en mégapixels. Parmi elles figurent entre autres le « Whole Part Mode » qui convertit les capteurs 3D en caméras 3D intelligentes. Cette caractéristique relativement unique permet de détecter automatiquement le début et la fin d’objets, de saisir des objets complets sous forme de nuage de points, de les afficher et de les analyser. Annoncée en octobre, l’intégration du Modbus TCP via Ethernet dans les moyens de communication est maintenant chose faite.
Pour simplifier et accélérer la mise en service et l’intégration du système, LMI fournit la même interface sur navigateur Web que sur la série 2000. Le KDL (Kit de Développement Logiciel) open source permet une configuration commode par l’utilisateur.
Ce système sera présenté sur les 25/26 et 27 septembre au Salon SEPEM de Toulouse sur le stand STEMMER IMAGING ( B-6)
Avec une équipe de dix-neuf personnes, STEMMER IMAGING est l’entreprise de vision industrielle et d’imagerie numériquela mieux structurée opérant sur le territoire national. Nous bénéficions, en tant que membre du Groupe STEMMER IMAGING Europe comptant 170 collaborateurs pour 60 millions d’euros de chiffres d’affaires, de ressources uniques pour répondre à vos applications. Répondant aussi bien aux industriels qu’aux scientifiques, qu’ils soient OEM, intégrateurs de systèmes ou revendeurs par un accompagnement personnalisé. STEMMER IMAGING vous assiste dans la définition de solutions qui prennent en compte l’ensemble des considérations technico-économiques de vos besoins et applications. STEMMER IMAGING peut fournir plusieurs milliers de références sur stock – caméras, objectifs, éclairages, câbles, logiciels, cartes d’acquisitions et dispose de l’ensemble des services associés – logistique, formation, support, SAV – pour vous garantir une exploitation industrielle de vos produits et vous offrir un véritable avantage concurrentiel.
Nous sommes une véritable force de proposition indépendante et libre de tous partis pris de marque.
La série d’objectifs de mesure télécentriques bilatéraux se destine en particulier à des caméras modernes, à haute résolution.
En raison de la télécentrie bilatérale, des perspectives complètement nouvelles s’ouvrent dans la capacité de résolution et dans la netteté d’image. La distorsion perspective de l’image entraînée par les trajectoires de faisceau d’image d’objectifs traditionnels est exclue en raison de trajectoire parallèle de faisceau des objectifs télécentriques. Des effets pouvant également être causés par des micro-lentilles sur les pixels d’un capteur CCD (»Hyper Head Shading«), peuvent être minimisés par ces deux objectifs télécentriques bilatéraux.
La photosensibilité, un diaphragme variable ainsi qu’un foyer variable sont d’autres aspects originaux de cette gamme. Tous les objectifs sont conçus de manière particulièrement solide, afin de répondre aux exigences d’une utilisation industrielle rigoureuse.
Quand les médecins amputent un bébé de onze mois nommé Oscar de ses deux pieds, personne n’imagine que quelques années plus tard, ce même bébé serait un des hommes les plus rapides à la course à pied.
Pourtant, le jeune Pistorius, aidé de deux prothèses en fibre de carbone, est devenu un si bon sprinteur qu’il est autorisé à courir avec les valides aux Jeux Olympiques de Londres 2012.
Chaussé de ses Flex-Foot Cheetah® à plus de 30 000 $, le coureur participera notamment au relais 4×400 m et au 400m individuel.
Ces prothèses possèdent une forme originale tendant à reproduire le mouvement de la patte arrière du guépard qui s’étend pour atteindre le sol tandis que les muscles puissants de sa cuisse tirent son corps vers l’avant. Lors de la course, la courbe « J » de la prothèse se comprime à l’impact, stockant ainsi l’énergie et absorbant de hauts niveaux de contrainte qui, chez le coureur normal, seraient absorbées par la cheville, le genou, la hanche et le bas du dos.
À la fin de la phase d’appui, la « courbe J » reprend sa forme initiale, relâchant ainsi l’énergie stockée et propulsant l’utilisateur en avant. Le Flex-Foot Cheetah® a été conçu pour avoir plus de couches de carbone aux points où la contrainte est plus élevée, comme l’apex de la courbe « J », et moins de carbone aux endroits nécessitant moins de souplesse comme la pointe des pieds.
L’épaisseur de la prothèse et la raideur du pied qui en résulte varie en fonction du poids de l’utilisateur, de la longueur du moignon résiduel et de l’alignement du pied par rapport à son style de course.
A ceux qui voient dans la participation d’Oscar Pistorius une concurrence déloyale vis-à-vis des coureurs valides, les défenseurs du coureur mettent en avant des études ayant montré que si le Flex-Foot Cheetah® peut restituer environ 90 % de l’énergie qu’il a stockée, on est bien loin des 249% possibles du pied et de la jambe d’une personne valide normale.
C’est par une déclaration rapide que le palais présidentiel tente de minimiser l’affaire : « Les services concernés ont géré […] on n’a pas eu de soucis depuis ». On n’en saura pas plus, inutile d’insister. Qui sont ces hackers ? Comment ont-ils procédé ? Des fichiers ont-ils été volés ? Silence radio.
Tout a commencé le week-end du 12 mai 2012, entre les deux tours de la présidentielle. Les systèmes informatiques de l’Élysée, officiellement « en maintenance », subissaient en réalité une vaste cyber-attaque qui aurait mis hors service une bonne partie du système. Plutôt embarrassant. D’autant que d’après nos confrères du Télégramme : « l’ampleur [était] telle que les services gouvernementaux ont passé trois jours à reconstruire de fond en comble les systèmes d’information du palais ».
L’origine de l‘attaque n’est pas clairement établie. Plusieurs pistes ont été évoquées, comme la Chine, des hackers turcs ou encore des pays « alliés ». Pour le sénateur, Jean-Marie Bockel, en charge d’un rapport sur la cyber-défense, il est clair que le dispositif français de cyber-défense n’est pas adapté et que « la coordination sur le sujet entre les différents ministères est trop faible, quand la porosité des systèmes est trop forte ». Le sénateur estime « le sujet d’envergure nationale pour la défense et l’économie », rappelant les récents piratages d’Areva ou encore celui du ministère des Finances, à l’approche du G20. Jean-Marie Bockel doit remettre son rapport parlementaire sur la cyber-défense le mercredi 18 juillet 2012.
Comme chaque année, le CNRS ouvre plusieurs postes accessibles par concours externe, qui font généralement l’objet d’une seule session. Les postes concernés sont publiés au Journal Officiel fin juin, les épreuves se déroulent de septembre à début novembre pour une prise de fonction dans les unités de recherche et les services dès la fin d’année.
Pour faire acte de candidature, le postulant doit consulter les différents emplois-types et les profils afférents afin de choisir le ou les concours auxquels il souhaite se présenter. Ensuite, il a la possibilité, soit de s’inscrire en ligne grâce à une procédure de candidature sur le site Web du CNRS, soit de télécharger un dossier de candidature au format pdf, soit de retirer un dossier auprès d’une des délégations organisatrices du CNRS.
Dans tous les cas, la date limite de dépôt (ou d’envoi) des dossiers complets et signés auprès de la délégation organisatrice du concours est fixée au 26 juillet 2012. Le concours se déroule selon deux phases : une d’admissibilité et une d’admission. Si la première se fait sur dossier, la seconde peut contenir une épreuve écrite ou pratique, suivie d’un entretien.
Les domaines concernés sont : analyse de données, archéologie, biologie, chimie et science des matériaux, communication, documentation, expérimentation, gestion financière, gestion des ressources humaines, hygiène et sécurité, instrumentation scientifique, logistique, mécanique, système d’information, valorisation de la recherche.
Voilà une étude qui vient alimenter la morosité ambiante. La France n’est plus capable d’innover, ou en tout cas, bien moins que les autres. À l’heure où la balance commerciale est lourdement déficitaire, où les exportations sont laborieuses, où les plans sociaux explosent devant les difficultés financières des entreprises françaises, et ce dans de nombreux domaines, le rapport 2012 de l’innovation vient pointer du doigt une de nos faiblesses.
Réalisé conjointement par l’eLab de l’INSEAD et l’Organisation Mondiale de la Propriété Intellectuelle (OMPI), ce travail couronne la Suisse, championne du monde de l’innovation. La Suisse partage le podium avec la Suède et Singapour. Viennent ensuite la Finlande, le Royaume-Uni, les Pays-Bas, le Danemark, Hong-Kong, l’Irlande et les États-Unis. La France perd encore deux places et se classe péniblement 24e.
Pour Francis Gurry, directeur général de l’OMPI, il n’y a plus de doute : « il faut résister à la pression à la baisse qu’exerce la crise actuelle sur l’investissement dans le domaine de l’innovation. Dans le cas contraire, les capacités de production de nos pays risquent de subir des dommages durables. Le moment est venu de mettre en œuvre des politiques tournées vers l’avenir qui jetteront les bases de la prospérité ». Espérons qu’il soit entendu…
En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.
Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.
Saturation du réseau ? Attaque terroriste ? Catastrophe naturelle ? Non, rien de tout cela. À l’origine de la défaillance massive du réseau GSM du géant télécom Orange, une simple panne logicielle. Mais pas n’importe quel logiciel, celui qui gère l’ensemble des informations concernant les abonnées, de leur identification à la localisation de leur appel. La cause de la panne est une mise à jour effectuée deux jours plus tôt : « Il semblerait que ce soit lors de cette mise à jour qu’il y ait eu un problème, un dysfonctionnement. C’est l’origine, la cause source de l’incident », révèle Stéphane Richard, PDG d’Orange. Le réseau est donc devenu aveugle, incapable de savoir qui appelle ou qui est appelé. Impossible donc de mettre en relation les clients entre eux.
C’est ainsi que, malgré la mobilisation de plus de 200 ingénieurs et techniciens, les clients Orange, mais aussi une partie de ceux utilisant son réseau comme les abonnés Free, n’ont pu ni téléphoner, ni envoyer de SMS/MMS pendant une douzaine d’heures. Une éternité ! Car une fois l’origine de la panne diagnostiquée, il a fallu relancer les services les uns après les autres pour gérer l’afflux de connexions à la base de données : tout d’abord les communications, puis l’envoi de SMS/MMS, et enfin l’internet.
Face à cet évènement hors norme, et dans le but que cela ne se reproduise pas, le gouvernement a décidé d’organiser des audits sur la sécurité des réseaux. Car si cette panne avait duré ne serait-ce que 24h, cela aurait pu avoir des conséquences majeures sur un ensemble d’équipements gérés par téléphonie mobile.
Par exemple, les châteaux d’eau qui sont contrôlés par SMS. Ne disposant d’une réserve de maximum 24h, une panne de plus d’une journée aurait pu occasionner des perturbations voire une pénurie d’eau. Dans les transports, le contrôle des billets se fait par scan pour comparer les données avec celles d’une base de données accessible par téléphonie. Sans parler du personnel d’astreinte, quel que soit le secteur (industriel, médical, EDF…), injoignable pendant des heures.
Plus grave, les systèmes de sécurité basés sur des appels à un centre de surveillance étaient totalement hors service. On l’aura compris, une petite panne logicielle, si elle devait durer, pourrait avoir d’importantes conséquences sur notre quotidien si dépendant de la téléphonie mobile…
Un iPad avec une meilleure portabilité ? Apple ne propose pas encore de produit pour concurrencer directement le Samsung Galaxy Note, véritable succès commercial qui a dopé les ventes du coréen, devenu n°1 mondial des téléphones mobiles. Avec 44,5 millions d’unités écoulées d’après Strategy Analytics, Samsung se paye le luxe de devancer Apple sur le secteur des smartphones. Un camouflet qu’Apple peine à faire oublier. Le mini iPad serait-il en préparation pour lancer la riposte ?
C’est ce que laisse croire une note de prévision datée de juin 2012, dans laquelle un analyste de la banque d’investissement Pacific Crest chiffre précisément la sortie d’un mini iPad. Selon lui, cette nouvelle tablette mesurerait 7,85 pouces en diagonale, aurait une capacité de 8 Go et coûterait 299 dollars (soit 237 euros).
Ce dernier lui prévoit un bel avenir avec des ventes atteignant les 10 millions au dernier trimestre 2012 et même 35,2 millions en 2013 ! Autre évènement alimentant la rumeur : début juin, des photos de l’arrière du petit appareil se retrouvaient sur internet. Néanmoins, fidèle à sa politique du secret, Apple reste muet et n’a toujours pas fait d’annonce, que ce soit pour confirmer ou non la préparation d’un mini iPad. À suivre donc.
L’objectif de la recherche scientifique est d’améliorer nos connaissances, l’objectif de l’innovation technologique est, au moyen d’entreprises, de nous apporter des satisfactions en assouvissant nos besoins. L’innovation technologique constitue un levier remarquable pour la création de valeur, par exemple SNF créé en 1978 par seulement un ingénieur-chimiste et un diplômé d’une école de commerce pour développer de nouvelles utilisations de dérivés de la Polyacrylamide, atteint un CA de 1,6 milliard d’Euros en 2011 avec des floculants pour le traitement des eaux usées … Un manager rappelait récemment : « nous devons faire des bénéfices pour continuer à innover, une collectivité peut d’autant plus financer en amont de la recherche scientifique que ses entreprises réussissent des innovations technologiques ».
L’innovation technologique : types, cycles de vie
On considère ici les seuls produits réellement nouveaux dans leurs caractéristiques ou dans leurs fonctions. En simplifiant, on peut distinguer un premier type d’innovation technologique basé sur le transfert de technologie qui consiste à appliquer à un nouveau domaine une technologie existante par exemple d’utiliser des piles au Lithium pour des voitures électriques, initialement conçues pour des PC. Le second type utilise pour la première fois des connaissances spécifiques provenant de la recherche scientifique, par exemple des catalyseurs Metallocene pour fabriquer des thermoplastiques davantage utilisables dans l’industrie automobile.
Une innovation technologique a une vie spécifique ; prenons un cas : Henri Guerin est ingénieur chimiste, il observe que l’utilisation de peinture sur des volets de bois de sa maison :
nécessite beaucoup de préparation de surface astreignante et coûteuse en main d’œuvre pour enlever la peinture craquelée ;
n‘apporte pas de protection en profondeur contre les micro-organismes.
Henri Guerin a l’idée d’un produit qui, lui, imprègnerait le bois et ne produirait pas de film en surface : le lasure. Il fait de la « veille technologique » pour confronter ce besoin visionné à ce qui été publié, effectue des essais, confie des échantillons à un artisan-peintre ami, discute « prix » avec un voisin patron d’un magasin spécialisé pour le bâtiment. Henri Guerin se pose les bonnes questions essentielles Peut on fabriquer industriellement le produit avec les équipements existants ? A quel coût ? Y a-t-il un nouveau marché ? Quel serait le chiffre d’affaires prévisionnel cumulé ? Quels sont les risques technologiques et commerciaux ? Le combat pour ce nouveau produit en vaut-il la peine ?
Henri Guerin décide de créer une équipe pour fabriquer le lasure. Il fait appel à son réseau relationnel pour trouver des capitaux, ce qui lui permet de disposer d’un outil de production et de commercialisation. Les ventes décollent, l’activité devient bénéficiaire, événements représentés sur la courbe ci-dessous :
Observant l’irruption de ce nouveau produit P1, des fabricants de peinture mettent sur le marché des produits concurrents P2, P3 avec pour effet le ralentissement des ventes de P1. Henri Guerin décide, sur la suggestion d’un de ses commerciaux, de substituer au produit liquide P1 qui coule trop facilement, un produit « gélifié » plus facile à utiliser, c’est P’ ; les ventes redémarrent à nouveau. Quelques années plus tard, Henri Guerin, compte tenu des préoccupations environnementales, remplace les hydrocarbures de la formulation par un mélange hydrophile, à moindre odeur, P’’, ce qui est apprécié par le marché.
Un jour, le « nouveau produit » de Henri Guerin sera lui aussi dépassé.
L’innovation technologique : stratégies
Henri Guerin a choisi une stratégie de LEADER. Ses concurrents ont choisi « de facto » de SUIVRE LE LEADER en espérant profiter de ses erreurs et le copier. Le cas développé ici a un aspect idéal ; de nombreuses tentatives tournent court y compris dans des entreprises ayant eu précédemment de brillants succès ; c’est ainsi que DuPont, à qui on doit le NYLON® se basant sur une crainte de pénurie de cuir dans le monde, a lancé vers 1967 sur le marché le CORFAM qui, lui, n’est plus fabriqué. C’est qu’en effet pour réussir une innovation technologique, il est nécessaire de disposer des moyens appropriés mais en utilisant des méthodes rappelées sur le schéma ci dessous « figure 2 ». Quant aux étapes, on s’en doute, elles sont en fait moins séquentielles.
Le processus d’innovation n’est jamais fini ; dans une entreprise particulièrement innovatrice comme SNF, des dizaines de nouveaux produits sont mis chaque année sur le marché pour un catalogue de 1 000 produits.
L’innovation technologique n’a lieu que si elle est portée par un inventeur, esprit non conformiste, qui transcende l’état actuel des connaissances techniques et du marché et un développeur qui effectue la symbiose entre le techniquement possible et le socio-économiquement désiré, ces fonctions pouvant d’ailleurs se retrouver chez une seule personne ayant une santé de fer et une capacité de travail prolongé. Il faut certes des hommes spécifiques mais aussi, on s’en doute, un patrimoine et un savoir-faire technologiques efficaces, à la condition qu’ils œuvrent dans une structure innovatrice.
Cette dernière est caractérisée par une stratégie tournée vers l’innovation technologique. Elle doit savoir faire collaborer des êtres ayant des qualités quelque peu antinomiques, l’hyperspécialisation et une vaste culture, le sens de la performance technologique et le sens économique, le goût du risque et la prudence, la célérité et la patience, le sens de la communication et celui du secret. Les perspectives de création de Valeur importante rappelées ci-dessus attirent des investisseurs tels les Business Angels et autres Venture Capitalistes qui peuvent aussi apporter des contacts commerciaux tel le premier client… Ils savent que « No risk, no reward ».
En effet, si toute activité économique implique un risque, ce dernier est amplifié, on s’en doute, lorsqu’il y a de surcroît à l’incertitude commerciale, le risque technologique inhérent à l’innovation technologique, par exemple sera-t-il possible d’obtenir au stade exploitation les résultats techniques obtenus au stade laboratoire voire même pilote ? Pour abaisser le risque inhérent à l’innovation technologique, il faut utiliser les méthodes mentionnées sur la figure 2 à savoir :
la prévision technologique observant en particulier ce qui se passe dans des branches industrielles davantage high-tech ;
le marketing du nouveau produit vigilant vis-à-vis des études menées de façon incomplète, biaisée… ;
l’élaboration d’un plan plus ou moins formalisé dans lequel la démarche prospective est associée à l’extrapolation de tendances utilisées pour le court terme ;
la publicité du nouveau produit qui peut bénéficier de l’aide gracieuse de nombreux supports autres que les médias ;
la protection du patrimoine technologique par le secret et par les outils de « propriété industrielle » : pli cacheté, qui protège le droit d’exploiter sans divulgation d’informations, demande de brevet d’invention, dont l’inconvénient est une divulgation, certes avec un décalage intéressant, modèle, marque. Ces biens immatériels peuvent faire l’objet de cessions ou de concessions. Il est avisé dans ce domaine à la frontière du droit et la technologie, de faire appel à des « Conseils en Propriété Industrielle ».
Conclusion
On peut lire : « …ce qu’ils veulent avant tout c’est gagner la bataille…ils sont heureux …que leur peine ardente …n’est pas perdue, qu’il y a un résultat positif palpable » , « La plupart des décisions à effectuer quelque chose de constructif proviennent d’un élan vital, c’est -à-dire d’un ardent désir d’action et non pas du produit d’un calcul » dans mon ouvrage « Innovez plus, innovez mieux ». Cette attitude sympathique est une raison supplémentaire pour utiliser les méthodes brièvement rappelées ici d’une part pour choisir les projets d’innovation technologique les plus prometteurs, d’autre part pour diminuer le risque inhérent à la transformation d’une idée technologique en un nouveau produit. D’une manière générale, l’amélioration de notre vie quotidienne dépend de leur mise en œuvre.
Par Philippe Pichat
Philippe Pichat
Ingénieur et Docteur d’État ès Sciences, Philippe Pichat a été Expert National agréé par la Cour de cassation 2000-2007 et membre du CSRT (Conseil Supérieur de la Recherche et de la Technologie). Directeur technique de la société ADT, il est aussi l’auteur de l’ouvrage « Innovez plus, innovez mieux », paru aux Editions Chotard.
Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire :
En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.
Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.
Prochaine session de la formation les 3 et 4 décembre 2012 à Paris. Renseignements et inscriptions : [email protected] ou au 01 53 35 20 25 ou en cliquant ici.
L’ouvrage est un guide des bonnes pratiques des travailleurs indépendants et des créateurs d’entreprise, rédigé à partir d’une vaste enquête menée d’octobre 2008 à juin 2009, par 40 consultants (accompagnateurs de l’association Salveterra) et étudiants de master de l’université de Paris I Panthéon Sorbonne.
L’enquête a été menée auprès d’un large panel de dirigeants de PME et de travailleurs indépendants français, relevant de 10 secteurs d’activité : agriculture, pêche et aquaculture, bâtiment, commerce et artisanat, arts, spectacles et édition, tourisme, services à la personne et services sanitaires et sociaux, métiers de l’informatique et de l’internet, conseil et formation, environnement et développement durable.
L’enquête révèle les gisements d’emplois indépendants d’aujourd’hui et de demain, présente les démarches d’accès à ces métiers, compare leurs statuts juridiques, analyse leurs financements spécifiques, diagnostique les compétences et les diplômes requis, précise les conditions d’exercice, les difficultés rencontrées et les risques encourus dans ces métiers. L’ouvrage s’efforce donc de répondre aux questionnements actuels sur l’opportunité de s’affranchir du schéma « employeur-employé » et de s’engager dans l’entrepreneuriat indépendant.
L’ouvrage est destiné aux salariés, étudiants, retraités et demandeurs d’emplois, candidats à une activité indépendante, à temps complet ou partiel, en quête d’un projet à la fois professionnel et personnel. Mais au-delà du guide pratique et de la restitution d’une enquête de terrain, l’ouvrage se présente comme une réflexion sur les clés de succès et les facteurs d’échec du travail indépendant et de la création d’entreprise, qui constituent le principal levier de création de valeur d’un pays et de dynamisme d’une nation.
PAROLES D’ENTREPRENEUR, CHOISIR SON ACTIVITE
G.Leclerc et J.J Pluchart
Ed.Eyrolles, 2010
Jean-Jacques Pluchart
Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).
Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise :
La nouvelle technologie baptisée « Schlieren à décalage de phase » consiste à mesurer des déviations lumineuses (dérivée du front d’onde) sur 1000 x 1000 points et d’en déduire les caractéristiques du composant. La lentille à mesurer est imagée au travers de lentilles sur une caméra. La source lumineuse active est placée au plan focal d’une première lentille. De cette façon, à l’image de la lentille mesurée se superpose une illumination modulée par la source lumineuse. Plus la focale de la lentille à mesurer est faible, plus on retrouvera de franges de Schlieren codant les déviations lumineuses en niveaux de gris sur la caméra.
La mise en place d’un décalage de phase, de la même manière qu’il est utilisé dans un interféromètre, permet alors une mesure complète de la dérivée du front d’onde. La carte de modulation fait aussi apparaître les détails géométriques et cosmétiques du composant tandis que la carte de puissance met en évidence le détail des propriétés optiques.
Ce capteur de front d’onde fait donc bien mieux que les focomètres standards, incapables de caractériser les lentilles intégrant des aberrations sphériques, des corrections toriques, ou des fonctions multifocales. NIMO est donc très complet pour le contrôle des performances optiques des verres de lunette, des lentilles de contact et des implants intraoculaires.
La cuisine moléculaire n’existe pas (… car tout est une question de physique-chimie)
Prof&Chef – Épisode 6 – Le lait fraise salsa! Thierry Marx et Raphaël Haumont, héros depuis 2010 d’un manga sur la cuisine moléculaire dans Science et Vie Découvertes (8-12 ans)
La cuisine moléculaire n’existe pas. Ou alors si elle existe, il faudra aussi et désormais parler de menuiserie moléculaire, d’aciéries atomiques et on en passe… Car effectivement, couper du bois revient à rompre des liaisons entre molécules de fibres de celluloses ; refroidir une tôle d’acier revient à mettre en ordonne des atomes de fer et de carbone. Pourtant, mentionner « menuiserie moléculaire » vous paraîtrait ridicule ? À nous aussi ! Pourquoi ? Parce que nous précisons une évidence ! Car en effet, et oui, évidemment, comme le bois est constitué de fibres, -lesquelles sont des assemblages extrêmement complexes à trois dimensions de grandes molécules appelées cellulose-, couper du bois revient en fait à rompre cet assemblage, c’est-à-dire à détacher ces molécules.
Alors évidemment, couper du bois est un phénomène moléculaire ! Accuse-t-on pour autant les menuisiers de faire de la chimie ? (comme si, d’ailleurs, faire de la chimie était une honte !) ; est-il utile d’associer le mot « moléculaire » à « menuiserie » ? Qu’apporterait la précision « moléculaire » à « haute cuisine » ? Tous les phénomènes ont une explication scientifique, rationnelle (je laisse de coté l’obscurantisme des croyances, religions et autres science-fictions), donc finalement, tout est question de macromolécules, de molécules, d’atomes, d’électrons de neutrons ou même de quark…alors à quoi ce suffixe « moléculaire » sert ?! « Cuisine moléculaire » est un pléonasme, une figure inutile, qui n’apporte rien (sauf peut-être des ennuis..). Et même, quitte à vouloir apporter des précisions (toujours inutiles), pourquoi d’ailleurs ne pas aller plus loin, et proposer les dénominations de cuisine atomique, ionique ou même électronique ?
Car oui, mettre du sel de cuisine (NaCl) dans de l’eau si l’on veut cuire des pâtes par exemple, revient effectivement à rompre des liaisons ioniques, créer des sphères de solvatations des ions Na+ et Cl–, et même à localement polariser les molécules d’eau… et je ne prends pas un grand risque en tant que scientifique à dire que localement, on doit très certainement modifier le nuage électronique des atomes d’hydrogène et d’oxygène des molécules d’eau ! Il n’est alors plus seulement question de cuisine moléculaire, -finalement très approximative-, puisque ici, des ions et échanges de charges électroniques entrent en jeu, et ce, à des échelles beaucoup plus petites que les molécules ! Mangeriez-vous toujours de ces « pâtes cuites dans une solution ionique » si je vous les présente comme telles ? Quel chef a intérêt à mettre sur sa carte un tel plat ?!
Autre question toute aussi provocatrice : honnêtement, mangeriez-vous une solution hydrocolloïdale à concentration élevée en β-D-galactopyrannosyl(1→4)D-glucopyrannose, renfermant des traces de cinnamate de méthyle, de butyrate d’éthyle, d’acétate d’éthyle, d’hexanol, de methyl-2-butyrate d’ethyle et j’en passe ? Vous en mangeriez ?? Cela fait très chimique ?…et bien ce n’est qu’un yaourt à la fraise ! Car oui, un yaourt à la fraise est une suspension hydrocolloïdale de la sorte, composé de beaucoup de lait (le nom scientifique du lactose étant « β-D-galactopyrannosyl(1→4)D-glucopyrannose »). Enfin, ce yaourt contient ce merveilleux goût de fraise… mais un goût est un mélange subtil de plusieurs dizaines voir même centaines de notes, qui ne sont en fait que des centaines de molécules (encore et toujours !), certaines étant le « cinnamate de méthyle », d’autres « le butyrate d’éthyle », etc.…. On dit qu’il y en a des « traces » car très peu suffisent à donner le goût et l’odeur caractéristique. Alors oui, on mange des molécules, mais depuis toujours, et ce, aussi bien dans la cuisine traditionnelle (et rassurante), que dans la cuisine innovante et « moléculaire ».
D’ailleurs, Thierry Marx, Chef étoilé, présenté comme le ‘pape de la cuisine moléculaire’ par de nombreux médias, dit très justement qu’il n’y a pas de conflit entre tradition et innovation. Associer ces termes « cuisine » et « moléculaire » est plus que malheureux, parce qu’on associe deux univers émotionnellement disjoints, et pourtant rationnement et indubitablement corrélés. Je voudrais toutefois mentionner ici que la Chimie est une discipline scientifique, qui, au même titre que la physique, la biologie…produit (uniquement) des connaissances et du Savoir. Les applications (médicale, civile, militaire…) qui découlent (techniquement) de ces savoirs sont des produits de l’Homme (lequel est responsable). Pour ceux qui aiment les raccourcis : la chimie (et la science) ne tue pas l’homme (mais l’élève), mais l’homme peut tuer l’homme grâce à la chimie.
On l’aura pourtant compris, ou il est fondamental de l’admettre par défaut : tout est molécule. Ce magnifique dessert qui arrive, avec sa mousse légère incroyable qui vous émeut, n’est autre qu’une émulsion mousseuse, affreux colloïde bourré de tensio-actifs et de molécules sapides… alors qu’est ce que la « cuisine moléculaire » ? La vraie question, beaucoup plus passionnante et elle, vraiment utile, n’est-elle pas plutôt : « pourquoi cette mousse légère vous émeut ? ». Car oui : pourquoi ? Parce qu’elle est ultra-légère, conserve sa forme, ne retombe pas… comme de l’air qui explose en bouche, mais qui possède un gout puissant ?
Vidéo présentant les cours de cuisine proposés par Thierry Marx et Raphaël Haumont au Foodlab situé au Laboratoire en plein cœur de Paris. Le Foodlab est consacré à l’art culinaire de demain aux frontières avec la science -l’artscience- :
On a rien inventé ! (on continue une démarche d’optimisation avec les outils d’aujourd’hui)
Une cuisine techno-émotionnelle
En 1969, le chimiste N. Kurti présente à la Royal Society une conférence intitulée “The Physicist in the Kitchen”.
Mais comment ce cuisinier a-t-il réalisé ce nuage mousseux de framboise? La voilà la vraie question ! Comment a-t-il réussi à procurer tant d’émotion ? Bien plus que de « donner à manger aux clients », évolution heureuse de sa mission ancienne de « rassasier les clients», le cuisinier donne maintenant de l’émotion, fait passer un bon moment aux gens, et marque même un instant d’une vie (voyez la pression qu’ils ont !). Et pour que ce soit un tel « bon moment », il faut bien sûr que ce soit « délicieux », avant tout, et que le cuisinier ait usé d’un savoir–faire et d’une technicité telle qu’il ait transformé les framboises en ce nuage mousseux « inoubliable ».
De la technique pour des émotions… peut-être une ébauche de définition pour cette cuisine moléculaire… une cuisine techno-émotionnelle… comme l’a proposé Ferran Adria. Soit, mais s’il faut de la technique pour réaliser cette mousse de framboise, parce que cela nécessite effectivement d’injecter de l’air dans un liquide, donc utiliser et mettre en œuvre des cartouches de gaz, tuyaux, siphons…, il faut aussi, et je dirai même il faut avant tout, que la mousse se forme et tienne, c’est-à-dire que l’air que l’on incorpore dans le liquide ‘reste bien’ dans le liquide pour former la mousse ! Sinon, parce qu’il est beaucoup plus léger que le liquide, l’air remontera très vite à la surface et aucune mousse ne se formera. Et on pourra beau avoir tous les compresseurs ou injecteurs sophistiqués et ultra-techniques que l’on veut, rien n’y fera. Il faut donc savoir comment stabiliser la mousse…et savoir en fait pourquoi et comment ça mousse… Alors, il faut avoir recours à quelque définition simple de science, qui elle seule, explique le pourquoi et le comment des phénomènes.
Blanc en neige au microscope. La cuisine moléculaire est l’étude des phénomènes physico-chimiques mis en jeu en cuisine. Par exemple, observer un blanc en neige au microscope permet de mieux comprendre « comment ça mousse », « comment ça tient » et « pourquoi ça retombe »
Je veux faire manger aux gens « un nuage mousseux de framboise », mais qu’est ce qu’un nuage en fait ? Qu’est-ce qu’une mousse ? Pourquoi ça mousse ? Pourquoi ça retombe ? Pourquoi ça retombe plus ou moins vite ? Comment faire pour que ça retombe peu et que ça tienne bien ? Est-ce que du jus de framboise peut mousser ? Que contient du jus de framboise en fait ? Ce n’est pas trop acide pour mousser ? Est-ce qu’il y a un lien d’ailleurs entre la mousse et l’acidité ? Une mousse de citron et une mousse de framboise seront-elles d’aspect identique, ‘tiendront-elles’ de la même façon ? Et qu’ajouter si besoin si le jus de framboise seul ne mousse pas suffisamment ? Et en quelle quantité ?
Les additifs sont aussi inéluctablement associés à la cuisine moléculaire, hélas, et en sont presque devenus la définition (restrictive) ! Quelles conséquences cela aura sur le goût et la texture ? Est-ce que cela aura encore un intérêt gustatif, une histoire à raconter, une cohérence dans la construction du plat ? Ce questionnement, tel un cheminement de pensées, n’est autre qu’une démarche rationnelle d’investigations… une cuisine pensée, rationnelle ?
Raphaël Haumont et Thierry Marx
Une cuisine rationnelle
Une autre définition de la cuisine moléculaire. Je le pense. Une cuisine réfléchie, rationnelle, qui se pose les questions de savoir pourquoi et comment « ça marche » en vue d’une application concrète. Celui qui comprend, ou du moins qui cherche à comprendre ce qu’il fait, et quels phénomènes se produisent pendant qu’il prépare et associe des produits, pourra prétendre maîtriser, reproduire à l’exactitude, anticiper, et de ce fait prétendre aller plus loin : prédire, donc pouvoir créer des choses nouvelles. C’est exactement cela que cherche un grand cuisinier : maîtriser le goût, la texture et toutes les propriétés organoleptiques. Mais là encore, on n’a rien inventé ! Auguste Escoffier, imminent chef cuisinier et restaurateur, en 1907, en préface du Guide Culinaire écrivait :
« En un mot, la cuisine, sans cesser d’être un art, deviendra scientifique et devra soumettre ses formules, empiriques trop souvent encore, à une méthode et à une précision qui ne laisseront rien au hasard. »
Auguste Escoffier, 1907
Ne pas laisser de place au hasard. Maitriser donc, mais aussi innover. Innover avant tout pour son Art, mais aussi pour faire différemment des autres et s’en démarquer. Mais pour cela, il se posera nécessairement la question de savoir pourquoi et comment « ça marche », de se renseigner sur les produits et leurs interactions, savoir comment ils réagissent à froid, à chaud, sous-vide, sous pression… et finalement d’avoir recours à des données scientifiques (ou même de s’entourer d’un scientifique).
« Tomate: structure et destructure » Une grosse bille d’eau de tomates qui se consomme comme une huître. La fine enveloppe explose en bouche afin de libérer l’eau de tomates. Pulpe de tomates en maki et tofu soyeux. Cube de tomates au piment d’espelette et copeaux de foie gras. source : http://assiettesduchef.canalblog.com/
Les grands chefs ont acquis des savoir-faire par leur expérience (professionnelle), et maîtrisent parfaitement les émulsions, les mousses, les cuissons (= gélification, réticulation de réseaux de protéines), mais ignorent peut-être ce qu’est « réellement » une émulsion, une mousse, et une « dénaturation de protéine ».
Mais alors, que vient apporter la cuisine moléculaire à ces gens de talents ? Si on rationalise la cuisine, et qu’on donne justement les clefs des savoirs pourquoi ça émulsionne, pourquoi ça mousse, pourquoi/comment/quand ça cuit, alors les cuisiniers seront à même de maîtriser parfaitement leurs émulsions, leurs mousses et cuissons, proposeront de ce fait des justes cuissons, dans le plus grand respect (des protéines) du produit, et auront forcément l’envie de faire émulsionner et mousser des ingrédients et préparations nouvelles, ou encore de détourner les principes de cuisson. Maitrise et innovation. Les maîtres mots.
Cette cuisine, rationnelle, parce qu’elle est liée aux connaissances scientifiques, permet de « gagner du temps », d’éviter des essais-erreurs et entêtements inutiles, et permet surtout d’aller plus loin en transférant et en appliquant les savoirs et les lois de la physique chimie au monde de la cuisine.
Une cuisine parfois … de fumée et de fumistes
Est-il question, dans tout ce dont nous venons de mentionner, de molécules qu’on met dans les casseroles, de poudres de perlinpinpin et d’additifs ‘indispensables et indissociés’ à cette cuisine, de tubes à essais ou de seringues que l’on donne à manger ? Absolument pas. Pourtant, certains l’ont fait et le font encore, hélas. Ceux-là sont des imbéciles, que je méprise profondément, parce qu’ils nuisent à l’image de la cuisine, de la science, et de la cuisine (moléculaire) rationnelle que certains défendent, et dont je fais partie.
Je prends ici position et vous livre un avis personnel. Une seringue est parfois un outil nécessaire, mais qui n’a rien à faire en salle ou dans l’assiette. Elle doit rester en cuisine, car c’est un outil au même titre qu’un fouet ou qu’un mixer. Apporte-t-on le couteau ensanglanté en même temps que la paillotte de lapin ? Pourquoi alors apporter une seringue de sauce ? Pourquoi pas un champ opératoire autour de l’assiette ?!
Autre exemple caractéristique et emblématique de la cuisine moléculaire : le diazote liquide. A la fois technique et ingrédient nouveau, le diazote liquide, à -196°C, permet de surgeler instantanément et créer des jeux de textures et températures innovants (nous en reparlerons dans la suite). Mais à -196°C, ce liquide est extrêmement dangereux car il peut brûler, et causer des dommages irréversibles sur la peau et les yeux. Pourquoi alors l’apporter en salle et en verser dans l’assiette des gens ? Est-ce juste pour que ça fume et faire de l’esbroufe, quitte à risquer de leur faire perdre la vue suite aux projections ? Apporterait-on une friteuse à +145°C en salle pour faire des frites ‘à la minute’ devant les gens, juste sous leur yeux (non protégés là aussi) ? Ce serait de l’inconscience, non ? La cuisine moléculaire se restreint-elle à ces effets visuels (tant qu’on n’a pas encore perdu la vue…)?
Ceux qui pratiquent cela surfent sur cette cuisine « à la mode », en ne retenant que l’aspect technique, scientifique de petit laborantin, et de poudres additives (addictives) magiques à ajouter. Et bien sûr, ces même gens sont souvent les premiers à vous accueillir dans leur restaurant, ou à vendre des seringues, kit et poudres à prix d’or…d’une cuisine business (une autre facette déplorable, mais réelle, de la cuisine moléculaire). La presse et la télé n’auront parfois retenu que cette alchimie culinaire, visuelle, spectacle, vendeuse, à la frontière entre magie et sorcellerie, entre fumée (de l’azote liquide) et fumisterie. Une bien mauvaise image que certains leur ont vendue… justement… Ceux là qui ne connaissent rien, ni les effets, ni les risques techniques ou chimiques, ni les dangers potentiels de ces ingrédients et ustensiles nouveaux. De magiciens, ces cuisiniers sont devenus des sorciers, et les chimistes sont devenus leurs complices ! Et pire même, tout le monde a été mis dans le même panier : vrais sorciers, faux chimistes, escrocs, artistes, cuisiniers, grand Chef, vrais chimistes etc.
Prof & Chef, Thierry Marx et Raphaël Haumont, héros depuis 2010 d’un manga sur la cuisine moléculaire dans Science et Vie Découvertes (8-12 ans)
Conclusion
Le suffixe « moléculaire » n’a certainement pas aidé à redorer l’image de cette cuisine, autant attaquée qu’elle fascine toujours. Ce mot est décidément bien mal choisi, et on ne peut que déplorer son établissement dans le langage courant et dans le dictionnaire. Il n’y aurait pas une cuisine « moléculaire » au même titre que qu’une cuisine « italienne », « japonaise». Ce n’est ni une communauté sectaire, ni une tendance. Du moins, ça ne doit surtout pas l’être. Elle est issue d’une collaboration étroite entre cuisiniers et scientifiques, lesquels ne sont d’ailleurs pas que des chimistes, car la cuisine fait appel à de nombreux domaines comme la biologie, la physique, la physiologie… A nous de redéfinir ce qu’est cette « cuisine secondée de la Science », telle qu’elle a été pensée et conçue, avant d’avoir été détournée par certains arrivistes, et de reproposer une définition plus juste et plus proche des pratiques. Redonnons au public la véritable image qu’elle mérite : celle d’une Haute Cuisine qui, via la connaissance des produits et des processus physico-chimiques mis en jeu pendant leurs préparations, cherche à maîtriser les préparations et à proposer des innovations, afin de sublimer les produits, pour le grand plaisir du consommateur. La voilà notre définition !
Raphaël Haumont, enseignant-chercheur de l’université Paris sud (XI), laboratoire ICMMO (Institut de Chimie Moléculaire et des Matériaux d’Orsay) : www.raphaelhaumont.wordpress.com
Thierry Marx est à la tête de la restauration du Mandarin Oriental Paris. Raphaël Haumont et lui ont fondé le Foodlab, situé au Laboratoire en plein cœur de Paris, où ils effectuent leurs recherches dont les expériences culinaires sont aux frontières de l’artscience.
My ScienceWork
Le blog My ScienceWork est dédié à l’actualité multidisciplinaire de la recherche. L’équipe MyScienceWork vous invite à découvrir ses articles d’actualité/recherche/portrait/opinion en français et en anglais.
Le but de votre vie, c’est ce qui se trouve au plus profond de votre être essentiel ; votre raison d’être. Votre but est la raison pour laquelle vous êtes ici sur cette terre. Énoncé d’une autre manière, votre but peut ouvrir les portes à votre passion. Quand vous connaissez votre but et quand vous vous laissez vraiment vivre et guider par ce but, vous pouvez réaliser que vous commencez à exceller dans tout ce que vous faites. Votre but motive vos pensées, vos plans, vos objectifs et vos actions. Votre but se dévoile souvent et devient plus clair lorsque vous vivez en phase avec lui et que vous l’invitez à prendre une part active dans votre vie.
Dino Ragazzo
Dino Ragazzo a plus de 25 années d’expérience opérationnelle en milieu industriel notamment chez CEGELEC, Groupe ATANTIC, FRAMATOME (mise en service d’installations nucléaires).Il a été successivement Technicien commercial, Ingénieur d’essais, Directeur Technique, chef d’entreprise (PME d’ingénierie électrique et maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.Dino Ragazzo est également l’auteur de l’ouvrage :
MANAGER D’ELITE – Gestalt guide du leadership dans les organisations du XXIe siècle
Bénéficiez de 20% de réduction immédiate sur l’achat de cet ouvrage grâce à Instantanés Techniques en cliquant ici (code réduction : 1IT11).
En réalité, votre but est déjà omniprésent dans votre vie actuelle. Il se peut que vous le laissiez parfois s’exprimer timidement ou que vous ayez déjà choisi de le laisser guider chaque étape de votre vie. Le niveau de conscience avec lequel vous laissez votre but vous guider dans la définition de vos objectifs personnels ou professionnels enflamme ces objectifs et les remplit de signification et de passion contagieuse !
Pour commencer à découvrir votre but, prenez quelques instants pour répondre aux trois questions suivantes :
1. Que faites-vous aussi naturellement et sans effort que respirer ?
Pour certains, cela pourrait être « prendre la parole en public ». Pour d’autres, çela pourrait être « écrire ». D’autres encore pourraient constater que la formation, ou « le relationnel », le développement des autres, les activités d’assistance ou la conduite de projets, leur procure un sentiment de réalisation personnelle sans effort. Alors, une fois encore, que faites-vous aussi naturellement et sans effort que respirer ?
2. Qu’est-ce que vous aimez ?
Qu’est-ce que, justement, vous avez tant plaisir à faire et qui vous fait perdre la notion du temps qui passe lorsque vous le réalisez ? Ce qui nous enchante vient de notre cœur. C’est dans cette direction que nous vous invitons à rechercher la réponse à cette question fondamentale dans la découverte de votre but. Une fois encore, qu’est-ce que vous aimez ?
3. Qu’avez-vous accompli dans la vie dont vous vous sentez fier ?
Sans même que nous nous en rendions compte, nos accomplissements ont très souvent et subtilement été guidés par notre but. Ainsi qu’avez-vous accompli ?
Référez-vous à vos réponses aux trois questions ci-dessus. Créez une brève ébauche de formulation de votre but. Il est important que votre formulation soit courte de telle sorte que vous puissiez vous la rappeler facilement.
Tout comme avec vos valeurs, quand vous connaissez votre but, vous pouvez vous ranger derrière lui. Vous pouvez choisir des actions qui ont la puissance, la passion et la substance ; des actions qui résultent du plus profond de votre être : vos valeurs et votre but.
Maintenant, dactylographiez votre but avec de grands caractères et placez-le quelque part où vous pouvez aisément le voir. Comme vous vivez avec lui, permettez-vous de le mettre à jour jusqu’à ce qu’il exprime vraiment qui vous êtes dans votre « moi profond ».
Identifiez votre Vision
J’aspire à un état futur des choses qui va dans le sens de mes valeurs. Cela m’aide à accomplir mon but, ma mission.
Vision à dix ans : si vous aviez tout le temps, tout l’argent, toutes les ressources, tous les contacts… Si vous aviez tout ce dont vous avez besoin et que vous vouliez concevoir votre vie professionnelle avec le plus grand soin, à quoi ressemblerait-elle à 10 ans d’aujourd’hui ;
Vision à trois ans : si nous avions cette conversation dans trois ans à partir d’aujourd’hui et que nous devions regarder ce qui s’est passé pendant ces trois dernières années, que doit-il avoir du se produire pour que vous vous sentiez heureux des progrès réalisés ? La réponse s’entend en matière de progrès dans votre vie personnelle et professionnelle.
Vision à un an : en considérant votre vision à 10 ans, et vos plans à trois ans, que devez-vous accomplir cette année ? Que devez-vous mettre en place ? Quel marketing ferez-vous ? Comment votre vie sera-t-elle équilibrée ? Quels bénéfices voulez-vous attirer à vous ? Prenez le temps de rendre ceci aussi réel que vous pouvez. Ecrivez votre réponse au présent.
Fixez des objectifs prioritaires authentiques, significatifs et motivants.
Un des grands secrets pour fixer des objectifs qui vous inspirent et qui vous motivent vraiment consiste à identifier ceux qui sont alignés avec vos valeurs, votre but et la vision du futur que vous souhaitez ardemment. Par conséquent, en restant concentré sur vos valeurs, votre but et les réponses à vos questions (sur votre vision à dix ans, à trois et à un an), énumérez toutes les choses que vous voudriez accomplir dans un délai d’un an. C’est maintenant que cela commence pour accroître vos affaires et faire progresser votre vie professionnelle !
Vérifiez que chaque énumération est un objectif prioritaire authentique, c’est-à-dire un objectif qui vous emporte vers l’accomplissement de votre but. Il vous donne l’occasion d’honorer vos valeurs tout en vous rapprochant de la vision que vous avez de votre vie à dix ans, trois ans et un an. Cet objectif n’est pas une « chimère » ou une simple tâche qui devrait éventuellement être réalisée. Parmi ces objectifs, choisissez-en 1 à 4 maximum. Vous vous engagez à les accomplir pendant les 12 mois à venir. Le délai peut être plus court. Il ne devrait cependant pas être plus long qu’une année complète.
Fixez-vous des objectifs SMART. Un objectif SMART répond aux critères suivants :
Spécifique : il est suffisamment clair et détaillé pour vous permettre de savoir exactement ce que vous voulez accomplir. C’est la différence entre « je veux améliorer mes compétences, » et « je veux m’inscrire à une formation au management des conflits entre collaborateurs » (Action spécifique).
Mesurable : vous pouvez mesurer objectivement sa réalisation. « Mon niveau à l’examen d’évaluation des connaissances sera supérieur à 15/20 (niveau mesurable) ».
Approprié : il est aligné avec votre but, votre vision et vos valeurs. Quand les objectifs sont congruents avec vos valeurs et votre but, ils ont de la substance et vous serez plus enthousiasmés à les accomplir.
Réaliste : il est ambitieux et doit vous lancer un défi. Mais il est également réalisable (par exemple : mon niveau actuel est de 11/20).
Basé sur le Temps : vous avez fixé une échéance spécifique pour accomplir cet objectif (par exemple, « … avant le 31 décembre, (année spécifique) ». Reformulez les 1 à 4 objectifs que vous vous êtes engagés à accomplir pendant les 12 mois à venir en utilisant la formule S.M.A.R.T. ci-dessus.
Stratégie
La stratégie, c’est l’ensemble des choix d’objectifs et de moyens qui orientent à moyen et à long terme vos activités (et par extension celle d’une organisation ou d’un groupe de personnes). Le raisonnement stratégique se concentre surtout sur les vertus et la valorisation des ressources disponibles : vos talents, vos atouts, votre capacité d’innovation, votre rapidité de manœuvre. Ce raisonnement stratégique vous aide à atteindre les objectifs. C’est en fonction de ces ressources qu’il faudra ajuster les objectifs.
Votre stratégie peut être défensive en mobilisant vos ressources sur une multitude d’actions visant surtout à vous prémunir de tout risque d’échec. A l’inverse, votre stratégie peut être offensive en concentrant vos ressources sur un petit nombre d’actions pertinentes qui maximisent vos chances de succès.
Les questions suivantes pourront vous aider à construire votre stratégie :
Comment vais-je obtenir ce que je veux ?
Quels sont les différents itinéraires possibles ?
Quels points forts vais-je privilégier pour accomplir cet objectif ?
Sur quels atouts vais-je m’appuyer pour assurer la réussite de ce projet ?
Faut-il réajuster cet objectif ?
limites
Plus un objectif SMART est réaliste, plus il tient compte des capacités des ressources disponibles et de leurs limites. C’est avec cette prise en considération que cet objectif a le plus de chances de réussir. Attention, les limitations personnelles sont trop souvent assimilées à des déficiences ou à des impotences, surtout difficiles à assumer pour le genre masculin. Le but de cette réflexion concernant vos limites n’est pas de vous reléguer au rang des fanfarons, mais plutôt à celui des David qui, conscients de leurs capacités, sauront dès lors utiliser leurs ressources de manière plus intelligente que tous les Goliath des entreprises.
Accepter vos limites, c’est accepter de parcourir le chemin de votre propre réalité. C’est aussi accepter de vous laisser enfin devenir ce que vous êtes.
Accepter vos limites, c’est arrêter de vouloir ressembler à quelqu’un d’autre. Accepter et assumer vos limites, c’est la première condition du changement.
Accepter vos limites est une condition nécessaire à une gestion professionnelle de vos ressources et donc de votre temps.
La prise en compte des limites personnelles constitue la bête noire des perfectionnistes.
Les questions suivantes pourront vous aider à explorer ce sujet et à rendre vos objectifs encore plus SMART :
Quels sont mes « points faibles » ?
Quelles sont les contraintes qui s’imposent à moi ?
Qu’est-ce qui pourrait m’empêcher d’obtenir ce que je veux ?
Que suis-je capable de lâcher pour renforcer mes chances de succès ?
Un changement de notre organisation personnelle ne devient possible qu’à la condition d’apprendre à gérer ou à maîtriser le dilemme vie privée/vie professionnelle. C’est celui qui oppose notre besoin de liberté individuelle et une inévitable course pour la performance au travail. En d’autres termes, il convient d’apprendre à réaliser un juste dosage entre « je veux » et « je dois ».
Le boson de Higgs est l’élément central du « Modèle standard », la théorie décrivant l’union des douze particules élémentaires et des trois forces. Elle explique la création de la matière et par voie de conséquence, celle de l’univers. Dernière particule du Modèle standard à avoir été détectée, le boson de Higgs représente le chaînon manquant, « la particule de Dieu » jusqu’alors invisible aux yeux des scientifiques. Ne se dévoilant qu’en de rares instants, elle fait figure de « ciment originel », de « clef de voûte » de la structure fondamentale de la matière, liant les particules et leur apportant une masse.
Mais faisons un retour sur une recherche qui dure depuis plusieurs années. Le 15 septembre 1964, Peter Higgs faisait paraître un article sur une particule subatomique qui aurait, juste après le Big Bang, permis aux autres particules d’acquérir une masse. En août de la même année, les physiciens Englert et Brout, cosignaient un article décrivant un mécanisme similaire. Mais il fallut attendre 1984 et la volonté de l’italien Carlo Rubbia, devenu directeur du CERN, pour que le projet d’accélérateur de particules se mette en place. La construction de cet accélérateur géant, appelé « grand collisionneur de hadrons (LHC) » débutait le 16 décembre 1994, soit un an après l’arrêt du projet similaire des États-Unis. Alors que les travaux se poursuivaient, des prototypes étaient construits et testés. En 2008, les travaux d’assemblages aboutissaient… à un crash, dix jours plus tard. Une année entière fut nécessaire pour que le LHC soit fin prêt et que les physiciens puissent scruter l’infiniment petit à la recherche du boson.
Aujourd’hui, la quête du boson de Higgs arrive à son terme. Les physiciens de l’organisation européenne pour la recherche nucléaire estiment à 99 % la fiabilité de leur découverte. Une étape pour la compréhension de la nature vient d’être franchie, estime Rolf Heuer, l’actuel directeur du CERN.
Une telle découverte fait forcément l’effet d’une bombe, tant au niveau scientifique qu’au point de vue philosophique. Lorsque l’on revient ainsi sur la formation du monde et donc de nos origines, la presse s’emballe. Néanmoins de nombreuses questions restent en suspens. Notamment sur la manière qu’à le boson d’interagir avec les autres particules, ou par quel biais, le boson acquière une masse. L’aventure continue donc, des portes restent à explorer, des études sur les propriétés des particules doivent être poussées…
Par Sébastien Tribot, journaliste
John Ellis, physicien théorique, répond à la question, c’est quoi le boson de Higgs :
La nouvelle technologie baptisée « Schlieren à décalage de phase » consiste à mesurer des déviations lumineuses (dérivée du front d’onde) sur 1000 x 1000 points et d’en déduire les caractéristiques du composant.
La lentille à mesurer est imagée au travers de lentilles sur une caméra. La source lumineuse active est placée au plan focal d’une première lentille.
De cette façon, à l’image de la lentille mesurée se superpose une illumination modulée par la source lumineuse. Plus la focale de la lentille à mesurer est faible, plus on retrouvera de franges de Schlieren codant les déviations lumineuses en niveaux de gris sur la caméra.
La mise en place d’un décalage de phase, de la même manière qu’il est utilisé dans un interféromètre, permet alors une mesure complète de la dérivée du front d’onde.
La carte de modulation fait aussi apparaître les détails géométriques et cosmétiques du composant tandis que la carte de puissance met en évidence le détail des propriétés optiques.
Ce capteur de front d’onde fait donc bien mieux que les focomètres standards, incapables de caractériser les lentilles intégrant des aberrations sphériques, des corrections toriques, ou des fonctions multifocales. NIMO est donc très complet pour le contrôle des performances optiques des verres de lunette, des lentilles de contact et des implants intraoculaires.
Nommée SHAPALTM Hi-M soft, cette nouvelle version permet de réaliser une plus grande variété de formes structurelles tout en modifiant faiblement les autres propriétés du matériau.
SHAPALTM M soft et SHAPALTM Hi-M soft sont disponibles sous forme de tiges et de plaques, sans minimum de commande. Goodfellow peut également réaliser sur demande des pièces usinées à partir de croquis fournis par le client.
Goodfellow propose aussi un choix très important de céramiques, comprenant des céramiques complexes et de verres, telles que la vitrocéramique usinable MACOR®. Les céramiques usinables comme le SHAPALTM-M et le MACOR® ont été développées pour remédier à la friabilité des céramiques traditionnelles. Elles peuvent donc être usinées par des machines-outils dédiées au travail des métaux et être utilisées dans de nombreuses applications.
La gamme de colliers de la série Robusto se différencie des autres colliers à tête plate par le design arrondi de leur tête et par le matériau servant à leur fabrication : le polyamide 11. Ce polyamide est une matière d’origine végétale, communément appelée bioplastique. Issue de ressources renouvelables, l’utilisation de cette matière s’inscrit dans une démarche éco-responsable. Le polyamide 11 est obtenu à partir d’une graine végétale dont on extrait par pressage l’huile. La culture de la plante dont provient la graine ne nécessite aucune irrigation et son développement est assuré par des apports limités en matière organique. Par ailleurs, son exploitation n’entre pas en concurrence avec les cultures alimentaires.
Avec cette nouvelle gamme de colliers à tête plate, la société HellermannTyton participe à la préservation de l’environnement.
D’un point de vue technique, la grande souplesse du matériau permet aux colliers Robusto d’épouser au plus près l’enveloppe extérieure du toron de câbles, assurant un maintien optimal. Grâce à leur faible force d’insertion, le montage est aisé et le serrage est possible à la main, sans outil de pose. La tenue à la traction correspond aux attentes du marché, variant de 310 à 500 N entre les quatre tailles. Conformes à la norme UL94 HB, les colliers de la série Robusto sont auto-extinguibles et attestent d’une bonne tenue au feu.
La stabilité des performances mécaniques des colliers Robusto autorise une utilisation même à très basses températures (jusqu’à -40°C en continu). De plus, ils offrent une forte résistance aux agents chimiques, notamment aux chlorures qui peuvent apparaître lors de pluies acides sur les aciers galvanisés. La très faible reprise d’humidité de la matière garantit des performances constantes et durables dans le temps.
Applications :
Les performances des colliers Robusto permettent leur utilisation dans de nombreuses applications de fixation et de maintien de câbles, torons, tuyaux et autres éléments. La mise en œuvre des colliers Robusto est préconisée pour les installations électriques. Elle est aussi particulièrement recommandée pour les applications industrielles telles que des installations offshores, des plateformes pétrolières, des éoliennes, etc. Grâce à leur excellente résistance aux chlorures et aux rayons U.V., ils peuvent aussi être installés sur les panneaux solaires.
La très bonne résistance de la matière aux basses températures permet, quant à elle, d’utiliser les colliers Robusto dans des zones où les températures négatives sont récurrentes, en montagne par exemple.
Plus d’information sur l’offre HellermannTyton au 01 30 13 80 00 ou par email : [email protected].
De nombreux process industriels ne peuvent pas fonctionner sans eau propre, pure, voire ultra-pure. Il est donc essentiel de disposer d’installations de traitement performantes, dont la maîtrise de la conception est toutefois très complexe. Il y a vingt ans, la Business unit Ion Exchange Resins (ION) du groupe chimique de spécialités Lanxess était l’une des premières entreprises opérant sur ce marché à présenter un utilitaire de planification destiné au calcul des projets. Puis, elle n’a pas cessé depuis de développer et d’améliorer ce programme. La nouvelle version de Lewatit-CalculatION 5.0 permet une conception encore plus aisée des installations de traitement. Ce programme réduit le temps nécessaire au calcul des projets et peut même aider les utilisateurs à faire baisser les coûts d’exploitation des installations existantes. Ce logiciel multilingue, disponible gratuitement auprès de Lanxess, s’est encore enrichi de nouvelles fonctions.
« Le défi que constitue la conception d’installations de traitement d’eau destinées à la fourniture d’eau de process est très simple à résumer », déclare Björn Dinges, du Marketing technique Industrial Water Treatment au sein de la Business unit ION, qui a participé à l’élaboration du nouveau système. « Les spécialistes qui planifient et développent ces installations sont généralement très compétents dans le domaine des techniques de procédés, mais ils connaissent moins bien les processus chimiques se produisant dans les échangeurs d’ions, qui sont pourtant l’élément clé du procédé. Si on considère ces produits comme une « boîte noire » autour de laquelle on se contente de concevoir le système de filtre sans chercher à en comprendre le contenu, on peut parfois passer à côté d’économies substantielles. » C’est d’autant plus vrai avec le niveau de performance des résines échangeuses d’ions de Lanxess, surtout face aux exigences de plus en plus sévères que doivent actuellement remplir les circuits d’eau ultra-pure et d’eaux usées.
Un diagnostic précis d’une installation existante
Le choix judicieux du type de résines échangeuses d’ions l’optimisation des séquences de régénération, ainsi qu’une appréciation réaliste des quantités d’eaux usées et de leur composition permettent de respecter les contraintes réglementaires en toute fiabilité. « C’est là qu’intervient Lewatit-CalculatION 5.0 », indique Björn Dinges.« Le programme permet de coller parfaitement le système de traitement d’eau aux exigences du process. » Il aide l’utilisateur à analyser de façon détaillée ses besoins réels et propose, au cas par cas, en fonction du client, la résine échangeuse d’ions Lewatit la mieux adaptée, ainsi que la quantité à mettre en œuvre. «Le programme fournit une aide à la conception d’un vaste choix de procédés chimiques, adaptables à chaque application spécifique grâce aux nombreuses variables.» Des fonctions supplémentaires de calculs de chimie de l’eau permettent d’évaluer avec précision la charge spécifique en silice, de prévoir la composition des eaux usées ou de déterminer les débits optimaux. Le programme est complété par des fonctions de détermination des temps de contact et de la consommation de produits chimiques en vue d’une optimisation des coûts de régénération.
« Il faut souligner que le logiciel n’est pas uniquement destiné au dimensionnement de nouvelles installations », précise Björn Dinges. « Il permet aussi de réaliser un diagnostic très précis d’une installation existante.» Les utilisateurs peuvent ainsi identifier et chiffrer les possibilités d’économies d’eaux usées et de réduction des coûts d’exploitation. En outre, le logiciel met en évidence les potentiels inutilisés qu’un remplacement de résine échangeuse d’ions rendrait accessibles et indique à quel moment celui-ci est conseillé
Ce logiciel vise un très vaste public: « Les clients de la construction automobile ou de la micro- électronique ne sont pas les seuls à pouvoir bénéficier de ce programme, il concerne aussi les utilisateurs des secteurs de l’énergie thermique ou nucléaire, du papier, de l’industrie chimique, pour n’en citer que quelques-uns. Nous visons aussi tout particulièrement les ingénieurs des bureaux d’études, des constructeurs d’appareils et d’installations et, bien entendu, les étudiants des établissements d’enseignement supérieur », souligne Björn M. Dinges.
Sa gestion questionne donc des aspects quantitatifs et qualitatifs qu’il convient de replacer dans une dynamique spatiale et temporelle : pénuries en période d’étiage, prévention du risque lors des crues, problématiques différenciées suivant une situation en tête de bassin, en plaine ou en estuaire, en zone rurale ou urbaine…
Au cœur des besoins anthropiques, les modalités d’aménagements et de régulation des réseaux hydrographiques pour exploiter cette ressource existent depuis des siècles. Dans un premier temps, nous replacerons les modalités qui ont régi la politique de l’eau dans une perspective historique, avant d’analyser les apports des lois sur l’eau successives en France.
Pour assurer la bonne gestion de la ressource en eau, ces lois ont mis en place des périmètres géographiques et des circuits financiers dédiés, ainsi que des modalités spécifiques de relations entre les usagers et les pouvoirs publics, que ce soit par le biais de la réglementation ou de la concertation.
Ces différents acteurs, dont nous dresserons un panorama rapide et orienté en fonction du rôle qu’ils occupent (usager, gestionnaire, instance de régulation ou d’incitation financière) doivent aujourd’hui plus que jamais travailler de façon complémentaire et concertée pour atteindre les objectifs de « bon état des eaux » fixés par l’Europe.
Leurs principes généraux ont été exposés dans un premier article (Oxydation et réduction appliquées au traitement de l’eau – Principes généraux). Un second article (Oxydation et réduction appliquées au traitement de l’eau – Oxygène, chlore et dérivés) a été consacré aux oxydants les plus traditionnels.
Dans le présent article, sont examinés :
les autres oxydants (dont l’ozone) ;
les procédés d’oxydation dite « avancée », associant l’ozone et/ou le peroxyde d’hydrogène et/ou les rayons UV et/ou des catalyseurs… ;
les réducteurs, d’usage courant mais plus restreint que les oxydants.
Les principales applications et modalités de mise en œuvre de l’oxydo-réduction dans les technologies de l’eau seront enfin développées dans un dernier article en liaison avec les articles du traité Environnement :
Traitement des eaux avant utilisation. Substances dissoutes [G 1 171] ;
Traitement des eaux avant utilisation. Filière et applications [G 1 172] ;
Traitements physico-chimiques de la pollution soluble [G 1 271] ;
Traitements tertiaires des effluents industriels [G 1 310] ;
Lutte contre la pollution des eaux. Finitions à haute performance [G 1 330].
Les produits chimiques utilisés pour le traitement des eaux ne sont pas tous des inhibiteurs de corrosion. On utilise également des inhibiteurs d’entartrage, des produits modifiant sensiblement le milieu (pH et conductivité principalement) et des biocides. L’emploi de ces produits a souvent un effet direct ou indirect sur les processus d’inhibition de la corrosion. Leurs rôle et mode d’action seront présentés aux paragraphes correspondants.
Parmi les installations traitées, on distingue :
les générateurs de vapeur et circuits annexes (vapeur, condensats) ;
les circuits de refroidissement ;
les circuits d’eaux fermés (chauffage, froid) ;
les réseaux d’eaux chaudes et froides sanitaires ;
les réseaux d’eau potable.
Enfin, l’emploi d’un inhibiteur doit être conforme à la législation en vigueur. Nous préciserons chaque fois que nécessaire les textes à consulter.
Des robots, des caméras, des plantes et… l’agriculture durable
On se croirait dans un film d’anticipation. Imaginez une sorte de grand bâtiment, renfermant notamment des serres modulables et des chambres climatisées en confinement à l’intérieur desquelles les parties aériennes et racinaires de milliers de plantes, dont certaines convoyées depuis les lieux de culture par des robots, sont filmées par des caméras dans différentes longueurs d’ondes ! Bienvenu à l’intérieur de la Plateforme de Phénotypage Haut Débit (PPHD) de Dijon qui sera inaugurée le 6 juillet prochain. Unique en son genre, celle-ci permettra aux chercheurs de l’Unité Mixte de Recherche Agroécologie (INRA/CNRS/Université de Bourgogne/AgroSup Dijon), et plus largement à la communauté scientifique nationale et internationale de disposer d’un équipement « high-tech » pour produire, dans des conditions parfaitement contrôlées, et caractériser, à l’aide de moyens non-destructifs, du matériel végétal.
Le développement d’une agriculture dite « durable », autrement dit qui respecte davantage l’environnement, exige un renouvellement des systèmes de cultures basé sur l’exploitation accrue de la variabilité génétique des plantes et celle des interactions entre organismes. « Il est donc nécessaire de caractériser les phénotypes de plantes cultivées, de focaliser sur les interactions plantes – microorganismes telluriques pathogènes/mutualistes et l’effet de l’environnement abiotique », explique Christophe Salon, Directeur de recherche à l’INRA et Directeur scientifique de la PPHD. Or cela implique de pouvoir réaliser l’exploration systématique intra ou inter spécifique de la diversité génétique naturelle ou induite des plantes et de leur adaptation à des conditions environnementales fluctuantes, contraintes, voire stressantes. D’où la nécessité de disposer de plateformes phénotypiques en conditions contrôlées associant un haut débit et une mesure précise et continue de l’environnement des plantes et de leur phénotype.
Une serre où les plantes sont sous l’oeil de caméras
La PPHD qui sera inaugurée le 6 juillet prochain à Dijon est l’aboutissement d’un projet qui a commencé dès 2006 et dont le développement a été financé par l’INRA, le Conseil Régional de Bourgogne, les fonds européens FEDER, le plan de relance 2010, et pour une partie, dans le cadre des investissements d’avenir via le projet PHENOME qui fédère toutes les compétences françaises en matière de phénotypage des plantes. Déjà impliquée dans plusieurs projets Européens comme ABSTRESS, ARIMNET et European Plant Phenotyping Network (EPPN), cette plateforme dijonnaise est dotée d’un certain nombre de dispositifs innovants parmi lesquels deux systèmes de phénotypage, basés sur l’analyse d’images dans différentes longueurs d’ondes, qui représentent des outils phares. Ils permettent en effet de caractériser différentes unités biologiques à l’aide de moyens non-destructifs automatisés. « Ce phénotypage pourra être mené soit sur un très grand nombre de plantes sur lesquelles nous effectuerons un nombre limité de mesures, soit sur un nombre réduit de plantes, caractérisées plus fréquemment au quotidien », résume Christophe Salon.
Ainsi le premier système de phénotypage, adapté aux unités de petite taille que sont les graines en boîte de pétri, les plantules ou encore les colonies de microorganismes, est équipé d’une caméra mobile capable de balayer la zone de mesure. Destiné davantage aux grosses unités telles les plantes en pots et les rhizotrons, le second de ces systèmes de phénotypage est doté de caméras fixes devant lesquelles les plantes seront amenées depuis les zones de cultures via des convoyeurs. Les caméras fonctionnent évidemment dans le visible, mais aussi le proche infrarouge, certaines d’entre elles utilisant même la fluorescence, ce qui permet de suivre, via une « protéine rapporteur », le niveau, la fréquence ou le site d’expression in situ d’un gène d’intérêt.
Autre dispositif particulièrement original de cette plateforme, les fameux rhizotrons dont elle va pouvoir être dotée grâce aux investissements versés dans le cadre de PHENOME. Constitué de deux lames de verres entre lesquelles sont placés la terre et le système racinaire de la plante cultivée, ce type de dispositif permet en particulier de visualiser l’interaction entre la plante et les microorganismes telluriques, résultant par exemple dans la formation de nodosités chez les légumineuses. « Ce travail est d’autant plus important que le système racinaire, auquel les chercheurs s’intéressent pourtant depuis longtemps, a été délaissé de part sa difficulté d’accès », rappelle Christophe Salon. Plus d’un millier de rhizotrons vont être ainsi progressivement mis en place au sein de la PPHD qui, dans quelques mois, pourra alors se targuer d’être la seule au monde à disposer d’un système d’une telle ampleur.
Innovation, un mot qui résume parfaitement la PPHD
Des rhizotrons particulièrement innovants conçus dans le cadre d’un partenariat entre l’INRA et Inoviaflow, une PME bourguignonne. « Ces rhizotrons nous permettront en effet de cultiver des plantes en conditions stériles, ce qui est une première. Nous pourrons ainsi sélectionner un type de plante et un microbe ou une collection de microorganismes et les combiner dans ce type de rhizotron pour observer comment ils se comportent », s’enthousiasme le Directeur scientifique de la PPHD. Autant d’innovations qui permettront, à terme, de déboucher sur la création et la sélection de nouvelles variétés de plantes. A l’aide d’une telle plateforme, les chercheurs vont pouvoir en effet combiner plus rapidement les vitesses de phénotypage et de génotypage et progresser plus vite dans la compréhension du génome des plantes. « Notre objectif est de trouver les génotypes qui correspondent le mieux à nos besoins et sont les plus aptes à s’adapter aux conditions environnementales dans lesquelles nous souhaitons les développer », indique Christophe Salon qui ne cache pas que les industriels qui pratiquent la sélection variétale, en particulier les semenciers, sont très intéressés par les travaux qui seront développés au sein de cette plateforme. Un outil exceptionnel, qui n’a pas d’équivalent, dont vont pouvoir bénéficier certains projets labellisés par le pôle Vitagora impliqué pleinement dans le développement de la PPHD, en particulier via le projet PHENOME.
Sept instituts de recherche pionniers dans le domaine de la durabilité en Allemagne ont récemment uni leurs forces pour former un réseau de recherche écologique : Ecornet. Principale organisation, hors réseau universitaire, d’instituts de recherche allemands axés sur la durabilité, la mission d’Ecornet repose sur la mise en place des bases scientifiques nécessaires à la réussite d’une transformation sociale pour construire une société et une économie durables post-combustibles fossiles.
Changement climatique, destruction de l’environnement, sécurité alimentaire ne sont que quelques-uns des domaines de recherche dans lesquels les instituts Ecornet [1] sont engagés. Ils ambitionnent de relever ces défis grâce au large spectre de compétences qu’ils réunissent, allant de la recherche appliquée en durabilité, à l’étude des politiques internationales climatique et environnementale et l’utilisation efficace des ressources, jusqu’à l’intégration de l’éducation environnementale et de conseils stratégiques auprès des autorités compétentes. Ecornet rassemble les leaders de divers domaines de recherche devenus aujourd’hui des thèmes incontournables, tels que la sûreté des réacteurs et la sortie du nucléaire, l’évaluation des bilans énergétiques, la protection du climat, les transports, la gestion durable des entreprises, et le développement de méthodes de recherche transdisciplinaires.
Dans le cadre de l’Année de la Science 2012 dédiée à la recherche pour le développement durable, le réseau écologique mettra en place des événements de différents formats pour échanger autour des thèmes et des défis à affronter sur le chemin d’une société durable.
Les sept membres d’Ecornet sont les suivants : – l’Institut écologique de Berlin – l’Institut de recherche sur l’énergie et l’environnement de Heidelberg (IFEU – Bade-Wurtemberg) – l’Institut d’étude économique d’écologie de Berlin (IOW) – l’Institut de recherche socio-écologique de Francfort-sur-le-Main (ISOE – Hesse) – l’Institut d’écologie appliquée de Fribourg (Bade-Wurtemberg) – l’Institut indépendant des questions environnementales de Berlin (UfU) – l’Institut pour le climat, l’environnement et l’énergie de Wuppertal (Rhénanie du Nord-Westphalie)
Une part importante des eaux servant à l’irrigation sont non renouvelables
Environ 20% de l’eau utilisée pour l’irrigation n’est pas renouvelable. C’est ce que les hydrologues de l’Université d’Utrecht et de Deltares ont calculé. Leurs recherches montrent également que la consommation d’eau souterraine non renouvelable a triplé depuis 1960. « Cela conduit dans de nombreux endroits à l’épuisement des réserves d’eau souterraine et pourrait présenter à l’avenir un danger pour la production de nourriture » a déclaré Marc Biekens.
Environ 40% de la nourriture consommée dans le monde est cultivée en utilisant une forme d’irrigation. C’est notamment le cas dans les régions où la pluie ne peut suffire à l’agriculture. L’eau servant à l’irrigation est la plupart du temps issue des cours d’eau ou des réservoirs. Comme ces réserves d’eau sont limitées ou trop éloignées des cultures, les agriculteurs utilisent souvent des eaux souterraines avec un système de pompage.
La taille des cercles indique la quantité d’eau utilisée pour l’agriculture. Les couleurs utilisées sont le vert ( l’eau de pluie), le bleu (l’eau provenant des réservoirs et des cours d’eau), le bleu foncé (l’eau issue de réserves souterraines non renouvelables). Le reste présente les autres sources (telle que l’eau issue du dessalage ou importée). Les tableaux indiquent pour chaque pays le pourcentage d’eau non renouvelable utilisée pour l’irrigation. Les couleurs à l’arrière plan montrent l’état d’épuisement des réserves souterraines.
L’eau souterraine non renouvelable
Une équipe d’hydrologues dirigée par Marc Bierkens, professeur d’hydrologie géographique à l’Université d’Utrecht, a calculé à l’aide d’un modèle hydrologique global la recharge des eaux souterraines mondiales : quelle part de l’eau de pluie, sur les différents endroits du globe, rejoint une nappe phréatique ? Les chercheurs ont estimé à l’aide de modèles statistiques la quantité d’eau utilisée pour l’irrigation et son origine (lacs et réservoirs, ainsi que les nappes phréatiques). De cette manière, les scientifiques d’Utrecht peuvent déterminer combien d’eau souterraine peut être utilisée pour que les nappes puissent se reconstituer naturellement.
L’eau souterraine devient rare
« Le problème de ces extractions d’eau souterraine, c’est l’épuisement des ressources » explique Bierkens. « Aujourd’hui, on produit de plus en plus de nourriture avec de l’eau qui sera bientôt épuisée ou plus difficilement accessible. Si vous devez nourrir une population croissante dépendante des réserves en eau souterraine, cela risque de conduire à des pénuries alimentaires « . Dans le nord de l’Inde par exemple, on pompe plus d’eau qu’il n’en tombe durant la période des pluies. Cela entraîne une diminution du niveau des nappes phréatiques, qui baissent jusqu’à un mètre par an.
Les grands utilisateurs mondiaux
Les résultats de l’étude montrent qu’entre 1960 et 2000, la consommation d’eau non renouvelable a augmenté de 75 à 234 km3 par an (par rapport au 3,4km3 de l’Ijsselmeer, le lac le plus important des Pays-Bas). Ces 20% d’eau souterraine utilisée pour l’irrigation servent à produire 8% de la nourriture mondiale. Les principaux utilisateurs de ces réserves d’eau souterraine sont l’Inde (68km3 par an), le Pakistan (35km3 par an), les Etats-Unis (30km3 par an), l’Iran (20 km3 par an), la Chine (20km3 par an), le Mexique (10km3 par an) et l’Arabie Saoudite (10km3 par an).
Publication :
Y. Wada, L.P.H. van Beek en M.F.P. Bierkens (2012), Nonsustainable groundwater sustaining irrigation: A global assessment, Water Resources Research 48, W00L06, doi:10.1029/2011WR010562.