7 tendances pour le logiciel d’entreprise

En 2012, l’industrie du logiciel se trouve à un tournant de son histoire. Deux tendances fortes, entre autres, font bouger les lignes : la généralisation des applications mobiles et l’immersion du décisionnel dans toutes les strates du business.

Mais la révolution la plus spectaculaire est celle du cloud. L’informatique dans les nuages implique une remise en cause radicale des façons de concevoir, de diffuser, de commercialiser et de vendre du logiciel. Le cloud est aujourd’hui loin de son stade de maturité, mais sa progression, sur le marché et dans les esprits, est irréversible. Le système d’information va s’en trouver complètement et durablement bouleversé. Voilà, selon nos analystes, les tendances générales qui vont impacter de façon transversale l’industrie du logiciel en 2012.

1. Maturité fonctionnelle des outils de gestion, mais…

En 2012, les logiciels qui supportent les fonctions clé de gestion de l’entreprise ont atteint désormais leur maturité fonctionnelle. Les systèmes de gestion comptable, les ERP, les fondamentaux du SIRH, les solutions de CRM ne se différencient plus uniquement par leurs fonctionnalités de base, quasiment toutes identiques. De fait, elles se sont normalisées. L’exemple le plus significatif à cet égard est l’IT Management, où la certification des processus ITIL a uniformisé la majorité des solutions.

La comparaison fonctionnelle reste raison en revanche sur les domaines transversaux plus émergeants (gestion de processus…), en pleine évolution (BI), ou encore peu structurés (gestion de contenus…). Dans les domaines les plus matures, les éditeurs seront obligés en 2012 de travailler leur différence sur d’autres critères : l’interface utilisateur, le mode d’accès (web, client léger, mobilité…), l’ergonomie de navigation, l’intégration à d’autres systèmes, la modularité, la facilité de paramétrage, la capacité à évoluer rapidement, le mode de commercialisation (abonnement ou licence, tarification à la demande, à l’usage…), le prix, etc. La couverture fonctionnelle reste évidemment un pré-requis de base pour tout achat de logiciel,mais les critères différenciants vont de plus en plus se faire ailleurs.

2. Le cloud, année de consolidation

Notamment sur l’adaptation du logiciel à de nouveaux modèles d’usage et de tarification. Depuis deux-trois ans déjà, le cloud s’annonce comme une révolution majeure de l’édition logicielle. En 2011 déjà, il dépassait le stade du « buzz ». Encore limité en termes d’investissements, le marché du cloud bénéficie d’une croissance dynamique de 15 % par an. Il faudra attendre encore quelques années, avant que le cloud arrive à maturité : le passage au cloud n’est pas sans risque. Aussi les systèmes d’information entièrement ayant « migré » vers le cloud ne sont-ils pas légion. L’année 2012 sera donc une année de consolidation.

Amorcée avec le SaaS qui touche désormais, à des degrés divers, tous les domaines de gestion du logiciel, et le prolongeant avec deux autres composantes du cloud, le IaaS et le PaaS, l’informatique dans les nuages inaugure un nouveau modèle informatique, modifiant en profondeur les usages du logiciel (tarification à la demande et à l’usage, accès web…), inspirant une nouvelle « philosophie » du SI (ressources informatiques éclatées, passage dumode CAPEX aumode OPEX…), ainsi qu’une nouvelle façon de concevoir le logiciel pour les éditeurs.

En effet, grâce aux plateformes PaaS permettant un développement collaboratif, les éditeurs peuvent s’associer à des partenaires pour enrichir leurs offres. En ce sens, on peut bien parler de révolution du cloud, car ce nouveau paradigme a pour corollaire une transformation profonde du marché de l’informatique et de l’édition logicielle, suscitant l’arrivée de nouveaux acteurs (hébergeurs…), renforçant le rôle des intégrateurs à valeur ajoutée, poussant les éditeurs à se recentrer sur le métier de l’édition.

3. Mobilité et consumérisation du SI

Une autre tendance forte de l’édition logicielle est le développement de la mobilité et des applications mobiles. Evalué aujourd’hui à quelques 850 millions de dollars, le marché mondial des équipements de mobilité continue son irrésistible progression. Les terminaux mobiles, déclinés en de multiples gammes et modèles sans cesse renouvelés, séduisent de plus en plus de consommateurs. Au delà des équipements, c’est le marché des applications et des services mobiles qui explose.

La généralisation de la technologie sans contact NFC (Near Field Communication) a ouvert d’immenses perspectives dans des applications de paiement et d’authentification de la personne : systèmes d’encaissement sans carte, billetterie dématérialisée, coupons de réduction, cartes de fidélité, transferts d’argent sécurisés, signature électronique, etc. De nombreux secteurs d’activités (commerce, banques, services…) cherchent à tirer profit de ce levier de croissance. Les domaines de la distribution et du commerce de détail (retail) sont particulièrement concernés.

Un enjeu fort pour les éditeurs qui devront prendre en compte les défis techniques des nouvelles interfaces homme machine qu’impose la mobilité. La généralisation des équipements mobiles a un autre impact, plus récemment observé : la « consumérisation » du système d’information. Les entreprises ont pris conscience que les outils de la mobilité acquis par leurs collaborateurs pouvaient avoir un usage professionnel et, bien employés, accroître leur productivité. « Bring your own device » : tel est le nouveau mot d’ordre. Ce qui ne va pas être sans poser quelques soucis aux DSI (intégration, création d’applications mobiles, sécurité…).

4. Plus de fonctionnalités métier

Cette consumérisation du SI, qui recentre l’humain au coeur du système d’information, accompagne une autre tendance de fond de l’évolution du logiciel de gestion : une meilleure prise en compte des besoins opérationnels des métiers. C’est une attente forte du marché. Pour les éditeurs, la déclinaison métier (ou sectorielle) va donc continuer en 2012 à être un critère fort de valorisation de leur offre. Les éditeurs d’ERP ont appris à se rapprocher d’intégrateurs spécialisés métier qui peuvent aider à verticaliser l’ERP pour l’adapter à tel ou tel segment de marché : le modèle de réseau de partenaires à la Microsoft a fait des émules.

La tendance touche les éditeurs d’outils décisionnels (c’est le cas par exemple dans le domaine de la planification) qui prévoient de proposer des modèles métier de leur plateforme. Les fonctions décisionnelles vont d’ailleurs beaucoup se développer sur des besoins métier : tableaux de bord de la GRH, outils de reporting « légers » et orientés métier, outils d’analyse marketing, etc. Enfin, le cloud favorise cette tendance en permettant de réunir des éditeurs et des experts métier pour créer des bouquets applicatifs rassemblant divers outils logiciels destinés à une population ciblée : le DAF, le responsable logistique, l’expert comptable, etc.

5. Les réseaux sociaux, nouvelle dimension du collaboratif

Difficile de parler des tendances du logiciel sans évoquer la dynamique des réseaux sociaux d’entreprise. L’année 2011 a été marquée par une progression contrastée des RSE : si ces outils se sont beaucoup développés et enrichis, leur adoption par le marché reste lente, freinée par la méconnaissance de la réalité du « 2.0 » par les entreprises et par les risques liés à un mauvais usage de ces réseaux. Il n’empêche : ces outils, de plus en plus sophistiqués, donnent au collaboratif une nouveau souffle et colorent d’une couche « sociale » les grands domaines de gestion (Social CRM, Social BPM…).

En effet, loin de se cantonner à l’axe conversationnel (dialogues, échanges de commentaires ou de liens…), les RSE développent de plus en plus l’axe relationnel (création de relations, partage documentaire…). Reste à voir si le marché saura reconnaître la dimension d’intelligence collective vers laquelle ils convergent. L’année 2012 va donc s’avérer cruciale pour ce marché.

6. Le décisionnel sur tous les fronts

Fonction transversale, la Business Intelligence gagne du terrain sur tous les fronts, à tous les étages de l’entreprise. Pour gouverner, piloter, analyser, simuler, prévoir, les entreprises ont de plus en plus besoin d’outils décisionnels. La conjoncture économique incertaine et les aléas des marchés stimulent la demande. Toutes les fonctions de l’entreprise sont concernées : de la GRH aux services financiers, du stratège au tacticien, du directeur général aux responsables opérationnels, dans la petite comme la grande multinationale, dans tous les secteurs d’activité. Tous les logiciels de gestion intègrent une dimension décisionnelle.

Nos experts attendent des solutions de BI qu’elles renforcent un de leurs points faibles : la gestion de la qualité des données. Les éditeurs vont donner la possibilité de gérer des données non structurées (exploitation de données textuelles avecmoteur de recherche, text mining, indexation) pour l’analyse des emails, des blogs, des sites Web et des réseaux sociaux, avec pour corollaire, le support des big data de toute provenance (gros volumes de données avec de nouvelles formes de stockage et de nouveaux modes d’interrogation des informations).

Par souci d’optimisation, la BI va multiplier les techniques de requête et d’analyse en mémoire qui boostent les temps de réponse. Les fonctions d’analyse et de pilotage vont être plus poussées, intégrant des fonctions d’analyse prédictive pour anticiper les tendances à venir (BI proactive) et des fonctions de scorecarding plus poussées allant jusqu’à la génération de plans d’action.

Les éditeurs de BI nouvelle génération vont se multiplier (certains d’entre eux pourraient être rachetés par de gros acteurs), avec des outils BI light plus faciles à mettre en oeuvre, moins coûteux et plus intuitifs dans leur utilisation que les plates-formes BI d’entreprise, et intégrant des méthodologies agiles pour développer rapidement des applications décisionnelles.

7. Big data et destructuration des données

La Business Intelligence, chargée de les filtrer, les nettoyer, les extraire et les agréger, est le premier domaine logiciel à être concerné par l’explosion de la volumétrie des données. Les données prolifèrent, issues du système d’information interne mais aussi de bien d’autres sources externes hétérogènes (web, applications mobiles…). La proportion de données non structurées que l’entreprise doit gérer va peu à peu se substituer à celle des données structurées.

Outre la BI, le phénomène touche d’autres domaines fonctionnels: le MDM (gestion des données de référence), l’ECM (gestion des contenus d’entreprise), le traitement des flux documentaires dématérialisés, la gestion collaborative des connaissances. Tout le système d’information est impacté par cette évolution à très long terme.

Par Laurent Calot, Président du Directoire, Le CXP

L’illusion économique

L’auteur (enseignant-chercheur à l’université de Paris-1 et auteur de nombreux travaux de mathématiques appliquées à l’économie) s’interroge sur la portée et les limites des modèles économiques, dont il dévoile les « trucs illusionnistes ».

Sa réflexion est organisée en cinq chapitres, portant successivement sur le caractère scientifique de l’économie, la pratique des économistes, les théories économiques, l’idéologie en économie et les connaissances économiques.

Il dénonce notamment la dictature exercée par la théorie néo-classique, fondée sur le concept – qu’il juge ambigu – d’homo economicus, ainsi que les contradictions attachées aux notions de concurrence parfaite, d’équilibre général, de création de valeur, de création monétaire, de dette publique, de système de retraite, de marché boursier…

L’ouvrage est illustré de nombreux encadrés portant notamment sur les lois en économie, le dilemme des prisonniers, le paradoxe de la concurrence, l’anticipation rationnelle…

Il est rédigé dans un style directement accessible et est complété d’un utile glossaire des termes économiques. Une œuvre de « déconstruction » dans la tradition de la « french theory ».

 

L’illusion économique

Bernard Guerrien

Omniscience les essais, 2007

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

Revue du Web #30 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Un extrait du fascinant documentaire « Absolute Zero », produit par la BBC Four, illustrant une des propriétés les plus surprenantes de l’hélium à très basse température, la superfluidité ;
  • Le « Lava Project », de l’université de Syracuse, où la lave artificielle rencontre la glace et se fige en d’étonnantes sculptures ;
  • La beauté émouvante des machines à usiner, entre un ballet de copeaux d’acier et l’usinage de moteur de type V8 ;
  • L’arrivée du rover Curiosity sur la planète Mars, filmée par la caméra de descente MARDI ;
  • Un Tee-shirt à réalité  augmentée, donnant vie à un monstre rendu célèbre par une non moins célèbre saga cinématographique ;
  • Le gadget (inutile ?) de la semaine : une petite amie… virtuelle, une autre manière d’appréhender la réalité augmentée ;
  • En bonus, une photo d’une explosion nucléaire, prise moins d’une milliseconde après la detonation.

L’hélium superfluide

Pour débuter cette trentième revue du web, commençons par une vidéo illustrant à merveille l’une des caractéristiques les plus surprenantes de l’hélium à très basse température, à savoir sa superfluidité. Extrait d’un documentaire en deux parties intitulé « Absolute Zero » et produit par la BBC Four, fleuron culturel de la « British Broadcasting Corporation », documentaire ayant pour but de retracer la conquête du zéro absolu à travers une partie de l’Histoire des Sciences, la vidéo qui suit se consacre à cette propriété de l’hélium, découverte il y a plus de 75 ans par le physicien russe Piotr Leonidovitch Kapitsa.

La superfluidité de l’hélium-4 est la capacité qu’a ce gaz noble, pratiquement inerte, à s’écouler sans viscosité à travers des canaux capillaires ou des fentes de très petite taille, et ce à très basse température. En effet, en dessous du point lambda, équivalent à une température de -270,98 degrés Celsius, l’hélium se voit soumis à une transition de phase. L’hélium, se trouvant à l’état liquide, passe à un nouvel état dont les propriétés nous intéressent ici. Outre son absence totale de viscosité, l’hélium superfluide présente une conductivité thermique théoriquement infinie, ainsi que des tourbillons à la vorticité quantifiée. Les scientifiques ont rapidement fait le rapprochement entre cet état et la supraconductivité, phénomène apparaissant à très basse température entrainant l’absence totale de résistance électrique, ainsi que l’expulsion du champ magnétique à l’intérieur même du supraconducteur, le fameux effet « Meissner ».

Le phénomène de superfluidité est également intimement lié et correspond à un condensat de Bose-Einstein, état prédit il y a près de 90 ans par Albert Einstein généralisant les travaux du physicien indien Satyendranath Bose, qui découvrit et donna son nom aux bosons. Cet état de la matière formé de bosons à très basse température, est caractérisé par une fraction macroscopique d’atomes dans l’état quantique de plus basse énergie. Les atomes d’hélium-4 sont des bosons, qui ne se retrouvent pourtant qu’à hauteur d’environ 10 % dans le condensat, la répulsion entre les atomes restant très forte même à des températures aussi faibles.

Lorsque la lave rencontre la glace

La fascination pour les volcans en activité est sans borne, et les idées ainsi que les protocoles expérimentaux ne manquent pas pour éprouver et tester la nature brute dans toute sa splendeur. Après l’expérience « vintage » postée dans la revue du web précédente, mettant en scène le volcan bouclier éthiopien Erta Ale, situé dans la vallée du grand rift, et… un sac poubelle, voici une vidéo mise en ligne par des universitaires et scientifiques américains, illustrant une expérience qu’ils ont conduite il y a près d’un an et demi.

Sobrement intitulé « Lava Project » par les étudiants de l’université de Syracuse (État de New-York), le projet est en fait une collaboration entre le sculpteur américain Bob Wysocki et le géologue Jeff Karson, tous deux enseignants dans cette même université. Le 22 janvier 2011 eut lieu le cinquième écoulement de lave « artificielle » (la lave est ici une lave faite maison, créée pour l’occasion) dans le cadre du Lava Project, le plus réussi à ce jour selon l’aveu même des scientifiques en charge de l’opération. La consistance de la lave, son volume, la durée de l’écoulement, sa viscosité et sa structure ont été parfaits ce jour-là. La lave basaltique a été versée sur un bloc de glace d’une quinzaine de centimètres d’épaisseur, provoquant une réaction capricieuse à la beauté toute naturelle, les propriétés de la lave produisant une sculpture pour le moins spectaculaire, faite de bulles et de lave peu à peu solidifiée.

La température de la lave au début de l’expérience est  initialement de 1371 degrés Celsius, pour une température extérieure de 12 degrés. Les objectifs du « Lava Project » sont à la fois scientifiques, artistiques et éducationnels.

La beauté fascinante des machines à usiner

Pas convaincu que l’on puisse trouver de la beauté dans quelque chose d’aussi brute et prosaïque qu’une machine à usiner ? Conçu pour faire des trous dans de l’acier, le « Mega Muscle Drill » 8.0x5D de la société japonaise OSG se trouve à priori assez loin de toutes considérations purement esthétiques. Pourtant, lorsqu’on y regarde de plus près et en slow-motion comme dans les deux vidéos qui suivent, le miracle se produit. Au fur et à mesure que la mèche s’enfonce dans le bloc d’acier ou de fonte ductile, le ballet des copeaux d’acier ou de fonte se met en place, expulsés du bloc principal. La pénétration des deux blocs se fait à la vitesse de 3183 rpm (« revolutions per minute », tours par minute). L’alimentation, elle, se fait à 60 ipm (« inch per minute », pouces par minute), soit environ un mètre cinquante par minute pour la première vidéo, et à 118,6 ipm pour pénétrer la fonte ductile, soit un chargeur de plus de trois mètres par minute.

Outre les engrenages ou autres pièces mécaniques dites « traditionnelles », une machine à usiner permet de produire des éléments aussi complexes que les fameux moteurs de type V8, moteur à explosion à huit cylindres disposés en deux rangées de quatre cylindres disposées en « V » au dessus du vilebrequin.

Descente de Curiosity sur Mars

Difficile de passer à côté de cette information tant l’accomplissement est majeur : le rover Curiosity s’est posé sans encombre sur le sol martien il y a de cela près d’un mois. Lancé le 26 novembre 2011 par la NASA à l’aide d’une fusée de type Atlas V, le rover a pour missions d’analyser la composition minéralogique du sol de la planète rouge, de rechercher si un environnement favorable à l’apparition de la vie a existé, étudier la géologie de la zone d’atterrissage et enfin compiler des données météorologiques, ainsi que concernant les radiations atteignant le sol de la planète Mars.

La descente du rover est ici capturée par la caméra de descente MARDI (MArs Descent Imager), une caméra couleur dont la résolution utile est de 1600 par 1200 pixels, montée sous le châssis du rover Curiosity et chargée de cartographier le site d’atterrissage durant la descente vers le sol de la planète rouge. Uploadée à partir du rover, la vidéo comporte quinze images par seconde, la vitesse de la vidéo étant trois fois la vitesse réelle. L’impact du bouclier thermique est montré au ralenti et agrandi à la fin de la vidéo.

Détails amusants : la caméra MARDI avait été retirée de la charge utile de MSL (Mars Science Laboratory) lors des premiers arbitrages financiers courant 2007, avant d’être finalement et définitivement réintégrée au rover. Autre point intéressant : MARDI possède une carte mémoire d’une capacité de huit gigaoctets, alors que la sonde spatiale Mariner 4, lancée le 28 novembre 1964, retourna un total de… 634 kilooctets, dont 22 photos, pour un survol de la planète rouge qui aurait duré près de deux jours.

Tee-shirt à réalité  augmentée

Fingerfunk, start-up basée  à Stockholm, se lance dans la réalité augmentée par le biais d’un fabuleux tee-shirt pouvant s’animer une fois vu à travers le prisme d’une tablette numérique ou d’un smartphone fonctionnant sous iOS ou Android. L’animation, impressionnante de réalisme grâce à une profondeur particulièrement bien gérée, représente un « Chestburster » (« exploseur de poitrine »), stade embryonnaire du monstre rendu célèbre au cinéma par la tétralogie à succès Alien, avec Sigourney Weaver. Comme toujours avec la réalité augmentée, un modèle virtuel en trois dimensions du « Chestburster » vient se superposer à l’illustration originale du tee-shirt, laissant apparaître le fameux monstre faisant ce qu’il sait le mieux faire au monde, à savoir… sortir de la poitrine de celui qui le porte.

La démonstration vidéo a été  réalisée à l’aide d’un iPad 2, utilisant un moteur de jeu bien connu des gamers, Unity, à la fois logiciel 3D temps réel et multimédia, ainsi qu’un moteur de jeu trois dimensions et qu’un moteur physique. L’animation est fluide, la vitesse de rendu bonne, caractéristiques d’une représentation 3D temps réel réussie. La plate-forme mobile Vuforia de Qualcomm rend l’ensemble possible sur technologies mobiles. Le Tee-shirt est en vente en ligne pour la modique somme de trente dollars.

Pourtant, les Suédois de Fingerfunk ne sont pas les premiers à s’être lancés dans l’aventure du tee-shirt à réalité augmentée, bien qu’un tel niveau de détails et de profondeur n’ait été que très rarement atteint auparavant. Basés à Édimbourg, les Écossais de Zappar, éditeur d’applications mobiles, ont développé toute une gamme de produits pouvant évoluer grâce aux technologies de réalité augmentée : allant du tee-shirt avec lequel on peut interagir (fonctionnant grâce à une simple reconnaissance d’images, en association avec la plate-forme de tee-shirts « Threadless »), et qui permet de lancer par exemple une animation ou un jeu vidéo relativement simple, jusqu’au bonnet dont le logo central rend possible l’insertion de masques fantaisistes qui s’animent et prennent vie lorsqu’ils sont vus à travers le prisme d’une tablette numérique, en passant par la littérature avec une gamme de livres aux illustrations elles aussi interactives, publiés chez Penguin English Library.

Le gadget (inutile?) de la semaine : la petite amie virtuelle

Pour conclure cette trentième revue du web, et pour rester dans le domaine de la réalité augmentée, nous vous présentons le gadget (inutile?) de la semaine, répondant au doux nom japonisant de Hatsune Miku. Un jeune Japonais féru de gadgets et joueur intensif de jeux vidéos en ligne (un « gamer »), las de se sentir si seul et incompris dans son mode de vie, a décidé de mettre à profit ses talents l’ayant mis au ban de la société pour… créer une petite amie virtuelle, à l’aide d’un capteur Kinect modifié et d’une paire de lunettes « virtuelles » audio et vidéo, idéales pour apprécier la réalité augmentée.

Le capteur Kinect, immense succès du fabricant Microsoft et initialement destiné à la console de jeux vidéos Xbox 360, permet de contrôler son jeu vidéo sans utiliser de manette, à l’aide d’une caméra reconnaissant les mouvements et les images. La lentille détecte à la fois les couleurs et la profondeur, et peut aussi suivre les déplacements. C’est la combinaison du capteur Kinect et des lunettes qui rend possible la naissance de cette petite amie virtuelle

L’amoureux en herbe a calqué le physique de sa création sur celui d’Hatsune Miku, une icône très populaire au Japon, et la voix provient d’un synthétiseur vocal nommé Vocaloid. La copine virtuelle suit son « amoureux », mais les interactions ne s’arrêtent pas là et peuvent devenir un peu moins basiques. Hatsune Miku pouffe lorsqu’on lui « caresse » la tête, elle court, danse, et ne se laisse pas faire lorsque le petit ami en vient à des gestes déplacés. Avis aux amateurs.

Bonus : photo d’une explosion nucléaire une milliseconde après la détonation

En bonus, voici la fascinante photo d’une explosion nucléaire, prise à seulement moins d’une milliseconde après la détonation. Prise lors de la série de tests atomiques dite « Operation Tumbler-Snapper », conduits par les Etats-Unis dans le désert du Nevada (à seulement une centaine de kilometres de Las Vegas…) du 1er avril au 5 juin 1952, le cliché a été pris par un appareil photo dit « Rapatronic » (contraction de « Rapid Action Electronic »), capable d’enregistrer une image avec un temps d’exposition aussi bref que dix nanosecondes.

Le cliché aurait été pris à une douzaine de kilomètres du site où eurent lieu les tests, et nous permet de distinguer facilement ce qui a été décrit par le physicien américain John Malik comme l’effet « rope-trick », les pointes que l’on peut apercevoir sous la boule de feu. On distingue aussi la tour du pas de tir derrière la boule de feu, dont le diamètre est à ce moment précis d’environ une vingtaine de mètres.

Par Moonzur Rahman, journaliste scientifique

A lire aussi :

Unités centrales PROFINET

 

La société VIPA annonce la commercialisation de deux nouvelles unités centrales PROFINET. En plus des traditionnelles interfaces MPI et PROFIBUS, elles disposent d’un coupleur de communication Ethernet ainsi que d’un contrôleur PROFINET I/O pour réaliser des applications modulaires dans des architectures décentralisées.

 

Le coupleur de communication Ethernet intégré de VIPA est un véritable contrôleur PROFINET I/O temps réel Class 1. Les deux nouvelles unités centrales se programment entièrement avec le logiciel STEP7 de Siemens. Le second port Ethernet de type PG/OP permet de programmer ces API à distance, d’effectuer tous les diagnostics nécessaires et également de les connecter soit à un Panel opérateur Ethernet ou de les relier à un logiciel de supervision.

 

Cette architecture permet d’accéder, depuis le monde de STEP7 à tous les composants PROFINET, les protocoles S7, RFC1006 et TCP/IP comme Modbus/TCP sont également supportés. Conçues pour les applications les plus exigeantes en terme de performance, ces nouvelles unités centrales sauront s’adapter aux applications nécessitant des capacités mémoires importantes. Comme tous les automates disposant de la technologie SPEED7, la capacité mémoire de chargement et de travail est configurable sans avoir à remplacer la CPU.

 

Pour la 315PN, la capacité mémoire peut aller jusqu’à 2Mo, 8Mo pour la 317PN. Il suffit d’insérer une Carte de Configuration Mémoire (MCC) dans le lecteur de carte en face avant de l’automate afin de  libérer plus de mémoire.

Avec ces deux nouveaux API extrêmement polyvalents en terme de communication, de performance et de mémoire, VIPA permet de standardiser un nombre réduit de référence pour un spectre très large d’applications.

     
A propos de VIPA.
VIPA GmbH est une société d’origine allemande créé en 1985 à Herzogenaurach par Wolfgang Seel. VIPA est présent dans 60 pays au travers de ses 65 filiales ou partenaires et garantit un service rapide et facile d’accès dans le monde entier. 
En croissance moyenne de 16% par an, VIPA a livré plus d’un million de connecteurs Profibus et plus de 200.000 unités centrales d’automates. Plus de 8500 clients dans tous les secteurs de l’industrie utilisent le savoir faire et les produits VIPA
dans leurs applications. VIPA a réalisé en 2011 un chiffre d’affaire mondial de 35 millions d’ Euros et emploie  300 personnes.
   
Contact presse
VIPA France SAS   Alain Sadones
Tél: +33 (0)1 43 61 52 25     
Fax: +33 (0)1 43 61 53 45    
Agence OAC Bruno Corric   Tél: + 33 (0)1 34 60 58 00 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Panel PC industriel à écran tactile

 

La toute nouvelle gamme d’afficheurs ecoPanel de VIPA offre des perspectives nouvelles aux industriels et aux fabricants de machines : efficacité et compétitivité. Ces nouveaux TouchPanel ne contiennent aucun élément d’usure rotatif.

En 25 ans VIPA s’est forgé un nom dans le domaine des automatismes avec sa gamme d’automate, d’entrées sorties et d’afficheurs. Lors de la conception de cette toute nouvelle offre d’afficheurs VIPA s’est concentré sur la fiabilité et la qualité. Ils fonctionnent tous sans ventilateur ni disque dur.

Toutes les interfaces de communication usuelles comme des ports Ethernet, USB ou série sont présentes. En fonction de la taille de l’afficheur, la résolution est de 480×272 pour la version 4,3″ et 800×480 pour la version7″. Ils sont livrés avec le système d’exploitation Windows embedded CE 6.0 et avec le logiciel de supervision Movicon Basic. Cette combinaison permet de profiter de toute la technologie Movicon et ceci dans un environnement simplifié et avec un éditeur extrêmement facile d’accès. Les applications créées peuvent aller de la plus simple en version monoposte, à la plus complexe déployée sur une architecture multiposte. Tous les besoins sont prix en compte et la compatibilité avec les autres logiciels de la gamme Movicon est garantie.

En savoir plus

Alimentation électrique AC / DC à découpage : pour applications en automatisme 24 VDC

 

Des modules d’alimentation d’énergie sont utilisés pour fournir le système aussi bien que les sondes et les déclencheurs le courant continu. Ils convertissent la tension CA De forces en tension CC De 24 V.

Les modules d’alimentation d’énergie peuvent être fixes sur un rail de profil de 35 millimètres ou combiné avec des composants du système 200V ou en tant que modules  » autonomes « .

L’alimentation d’énergie n’a aucun raccordement à l’autobus de carte mère.

En savoir plus 

Automate programmable 300S

 

Avec la “SPEED7 Technology” , les API de la gamme system 300S VIPA sont les systèmes de contrôle/commande programmables avec STEP®7 de Siemens les plus rapides du marché.

La capacité maximum de mémoire pour le programme et les données est intégrée dans tous les API équipés du processeur SPEED7, aucune carte mémoire additionnelle n’est requise.

La carte de configuration mémoire VIPA MCC permet d’étendre la mémoire intégrée de 2MOctets à 8MOctets en fonction des besoins de chaque application.

Toutes les CPU sont équipées d’une interface Ethernet de communication PG/OP. Une interface de type « CP343 » pour les communications TCP/IP est intégrée sur la version « NET » des API.

En savoir plus 

Automate programmable

 

Les unités centrales de traitement (unité centrale de traitement) commandent et règlent des processus dans l’équipement technique.

Les unités centrales de traitement sont choisies selon l’application avec l’exécution appropriée et fonctionnent la mémoire et peuvent être prolongées avec des modules de signal et de fonction, aussi bien que des processeurs de transmission.

Les unités centrales de traitement du système 200V sont conçues pour des applications petites et moyennes et représentent en tant que systèmes universels d’automation une solution idéale pour des applications en structures centralisées et décentralisées.

Pour la construction de la commande une Unité-gamme large dans diverses classes d’exécution sont disponible.

Les diverses unités centrales de traitement diffèrent dans la mémoire de travail, la plage d’adresses, le nombre de raccordements et la durée de la transformation.

Les unités centrales de traitement du système 200V sont particulièrement appropriées à utiliser et industriel pour des tâches générales de commande et d’automation dans la gamme de performances moyenne.

En savoir plus

Automate programmable CPU 31x

 

Les unités centrales de traitement (unité centrale de traitement) commandent et règlent des processus dans l’équipement technique.

Les unités centrales de traitement sont choisies selon l’application avec l’exécution appropriée et fonctionnent la mémoire et peuvent être prolongées avec des modules de signal et de fonction, aussi bien que des processeurs de transmission.

Les unités centrales de traitement du système 300S sont commande conçue compatible à Siemens STEP7 et pour des applications moyennes et grandes.

Les unités centrales de traitement sont basées sur la technologie SPEED7.

Ici, l’unité centrale de traitement est soutenue par des coprocesseurs. Le système intégré de SPEED7 ASIC est parmi les systèmes de l’automation les plus rapides du monde.

Un éventail d’options d’unité centrale de traitement rend le système universellement déployable : Des unités centrales de traitement de C-classe avec les périphériques intégrés d’entrée-sortie pour de plus petites applications jusqu’aux versions d’unité centrale de traitement avec l’Ethernet intégré, les interfaces principales de fieldbus, et l’autobus à grande vitesse.

Les unités centrales de traitement du système 300S rendent des durées de cycle courtes possibles de machine dues à leur vitesse de traitement élevée, et sont donc particulièrement appropriées aux tâches complexes de commande et d’automation dans les industries de fabrication et de transformation. Les unités centrales de traitement compactes avec I/Os intégré sont conçues particulièrement pour des applications coût-sensibles.

En savoir plus 

Automate programmable au format carte PC

 

Système 500S : Le système de contrôle de PC.

Avec le VIPA  » technologie de Speed7 « , le système 500S est le système de contrôle le plus rapide, programmable avec Step®7 de Siemens, dans le monde.

La mémoire maximum pour le programme et les données a été déjà intégrée dans les unités centrales de traitement SPEED7.

Selon le type d’unité centrale de traitement, la mémoire intégrée peut être augmentée jusqu’à 8MByte employant respectivement le VIPA approprié MCC – carte d’extansion de mémoire.

Le système 500S de VIPA a été conçu pour l’opération dans une fente de PC avec l’interface de PCI.

Un serveur d’OPC pour la communication entre l’unité centrale de traitement et le PC est inclus dans la portée de la livraison.

Des périphériques sont reliés par l’interface intégrée de Profibus-DP-Maître.

Les unités centrales de traitement sont équipées d’une interface d’Ethernet pour la communication de PG/OP.

L’unité centrale de traitement 517S/NET a un CP343 additionnel pour la communication de TCP/IP.

En raison de leur haute performance (technologie Speed7) et de leur mémoire extensible, les unités centrales de traitement conviennent aux tâches complexes de commande.

En savoir plus 

Automate programmable au format carte PC CPU 51x

L’unité centrale de traitement SPEED7 du système 500S représente une pleine unité centrale de traitement de PLC sous forme d’affiche cartonnée publicitaire dans les moyens de transport en commun de PCI pour des applications basées sur PC.

Les logiciels d’exploitation de Windows 98, MOI, NT4, 2000 et XP sont soutenus.

La portée de l’exécution correspond à celle d’une unité centrale de traitement SPEED7 du système 300S.

La programmation est faite à l’aide des outils de programmation standard WinPLC7 ou Siemens STEP7.

Pour le raccordement au niveau de processus, un MPI et une interface principale de PROFIBUS-DP sont disponibles.

En outre, selon le type d’unité centrale de traitement, un CP 543 pour des tâches de communication est intégré.

La portée de l’approvisionnement inclut le serveur d’OPC.

Après l’installation de matériel, la carte embrochable du PC est reliée en tant que  » interface intégrée par Ethernet d’Intel « .

Pour actionner la carte indépendante à partir du PC, elle sera fournie extérieurement avec dc 24 V.

Dans les unités centrales de traitement de la mémoire du système 500S pour le code et les données est déjà intégré.

Elle peut être augmentée en insérant une carte de mémoire de MCC dans la fente de MMC.

Pour soutenir programme et des données le MMC des cartes standard sont également soutenues.

En raison de la haute performance et de la mémoire extensible, les unités centrales de traitement du système 500S sont particulièrement appropriées aux tâches complexes de commande.

En savoir plus

Automate programmable modulaire

 

La gamme System 200V de VIPA est composée d’API et de têtes de station pour bus de terrain compacts et modulaires pour réaliser des applications d’automatismes en architecture centralisée ou décentralisée.

Associés avec l’offre très complète de modules ils répondront aux besoins des applications de taille moyenne.

Technologie innovante dans le domaine du contrôle

Il n’y a pas d’évolution sans innovation. Les innovations permettent des avancées. Les innovations entraînent les succès.
VIPA est reconnue comme étant une société innovante par ses clients et ses partenaires car les solutions proposées sortent des sentiers battus et apportent des avantages en terme de compétitivité.
Nous nous concentrons sur les besoins des clients, qu’ils nécessitent des solutions simples ou très complexes !
Notre service qualité garantie à tous nos produits et services de correspondre voir de surpasser les standards internationaux. Chaque entité VIPA est certifiée ISO 9001.
 

De la graisse humaine pour remplacer l’essence ?

Le jour ou le dernier litre de pétrole sera retiré du sous-sol terrestre n’est pas encore arrivé. Les estimations varient selon les sources. De même en ce qui concerne les réserves pétrolières du sous-sol, personne ne peut dire de façon certaine leur volume.

Ceci étant dit, de nombreux chercheurs explorent les pistes de l’énergétique post-pétrole. Biocarburant, éolien, solaire… les idées sont nombreuses, variées, mais à l’heure actuelle une chose est sûre : nous n’avons pas encore trouvé un quelconque carburant prêt à remplacer le pétrole.

Cependant, les idées ne manquent pas. La dernière en date est l’oeuvre de l’homme d’affaire norvégien Lauri Venoy. La Norvège produit du biodiesel à partir d’huiles de cuisson usées et d’huiles de possion. L’idée de cet entrepreuneur norvégien est de remplacer ces graisses par de la graisse… humaine. 

Plus concrètement, Mr Venoy voudrait collaborer avec les Etats-Unis, grand fournisseur de graisse humaine s’il en est. En effet, en 2006, 326 000 liposuccions étaient pratiquées aux Etats-Unis, pays où 60 % des habitants sont considérés en surpoids.

La graisse humaine comme énergie renouvelable ?

L’entrreprise de Lauri négocie en ce moment avec plusieurs centres hospitaliers pour constituer des stocks. Mr Venoy a obtenu il y a peu d’un hôpital de Miami le droit de récupérer 11 500 litres de graisse huamine par semaine. Après transformation, il en découlerait 10 000 litres de biodiesel !

Mais il y a un hic : pour le moment, la législation américaine prévoit l’incinération des déchets de liposuccion. 

Cela ne fait pas perdre le sens de l’humour à Mr Venoy, qui a déclaré qu’ « il faudrait inciter les gens à manger de plus en plus afin de permettre la fabrication de ce nouveau carburant ».

Par Pierre Thouverez

Freiner la lumière à l’aide de cristaux liquides

« Cette approche nous permet de mesurer des vitesses infimes et très brèves. » se félicite Umberto Bortolozzo, l’un des auteurs  de l’expérience visant à ralentir très fortement la lumière.

Pour y arriver et imposer aux photons de se déplacer si lentement, son équipe a  utilisé de simples cristaux liquides. Pas si simples en vérité puisque ces cristaux ont été modifiés pour présenter une forme particulière en hélices. Grâce à cette géométrie, les photons interagissent fortement avec le matériau, les particules lumineuses butant sur les bouts d’hélices.

A force d’interactions, les photons ralentissent. Pour majorer le phénomène, les chercheurs de l’université de Nice – Sophia Antipolis et de l’université de Xiamen en Chine ont rajouté du colorant dans les cristaux. Nichées dans ces structures, les molécules de couleur changent de forme quand la lumière les traverse, modifiant ainsi les propriétés optiques du matériau, et freinant de manière encore plus efficace les photons. L’avantage de cette approche réside dans sa facilité de mise en œuvre alliée à une grande efficacité puisque les photons sont freinés jusqu’à un milliardième de leur vitesse.

D’après les chercheurs, cette structure hélicoïdale permet aussi de piéger la lumière à l’intérieur du cristal, puis de la relâcher sur demande. « Pouvoir atteindre des faibles vitesses de lumière, et pouvoir la stopper, est très excitant autant pour la recherche fondamentale qu’appliquée. Cela nous offre de nouvelles possibilités dans les techniques de mesure à distance et de stockage optique », s’enthousiasme Umberto Bortolozzo.

Par Audrey Loubens, journaliste scientifique

3 scénarios à l’étude pour détruire les astéroïdes !

La chute d’un astéroïde de plus de 1 km de diamètre aurait des conséquences dramatiques à l’échelle planétaire. Avec 10 km, ce serait une extinction de masse. Heureusement, il n’en tombe pas tous les jours ! Le programme « Spaceguard » de la Nasa s’intéresse à ces astéroïdes géocroiseurs de plus d’un kilomètre de diamètre. Aujourd’hui, la NASA pense avoir recensé 95 % de tous les géocroiseurs de taille supérieure à 1 kilomètre et, bonne nouvelle, aucun ne devrait entrer en collision avec la Terre d’ici la fin du siècle. 

En revanche, des astéroïdes de plus de 100 mètres de diamètre peuvent remodeler une région entière et, au-delà de 300 mètres de diamètre, un continent entier peut être modifié. L’Union Européenne s’intéresse donc à ces corps célestes, situés entre 100 mètres et 1 km de diamètre,  les plus inquiétants sur le court terme. Il est probable que de tels astéroïdes entrent un jour en collision avec la Terre, mieux vaut donc être préparé ! En revanche, envoyer sur place une équipe pour y déposer une bombe nucléaire n’est pas l’hypothèse privilégiée. L’Union Européenne s’intéresse à des scénarios plus réalistes dans le cadre du projet NEOShield. 

NEOShield mobilise des institutions et entreprises issues d’Allemagne, France, Royaume-Uni, Espagne, Etats-Unis et Russie. Les différents programmes sont coordonnés par l’Institut de planétologie du DLR à Berlin. Astrium, filiale d’EADS et leader spatial européen, en est le chef de file industriel et définira les concepts les plus efficaces à partir des recherches menées dans le cadre du projet.

Priorité à l’impacteur cinétique

Parmi les concepts envisagés, le plus prometteur est celui dit de l’impacteur cinétique. Cette solution nécessite toutefois de découvrir l’astéroïde suffisamment tôt pour y placer en orbite un premier satellite. Celui-ci pourra alors  le cartographier et étudier sa structure. Après analyse des données, il serait possible de déterminer un point d’impact précis sur l’astéroïde pour y envoyer un engin à grande vitesse. « L’impacteur cinétique se doit d’entrer en collision avec un astéroïde de taille potentiellement faible à très haute vitesse, typiquement dans les 10 km/s ou davantage, soit dans les 36 000 km/h », soutient Marc Chapuy , ingénieur Guidage, navigation et Contrôle  du projet NEOShield chez Astrium .

Le problème principal est de parvenir à atteindre la cible avec une précision suffisante, de l’ordre d’un mètre, dans des conditions dynamiques très contraignantes, pour ne pas rater la mission. « Le défi est donc essentiellement au niveau du système de guidage, navigation et contrôle du véhicule spatial : navigation pour se repérer par rapport à la cible, guidage et contrôle pour corriger la trajectoire à partir de ces informations et assurer l’impact », affirme Marc Chapuy.

Astrium cherche donc à Toulouse de nouvelles solutions adaptées à ces missions. « Les moyens classiques de navigation utilisés pour les missions interplanétaires depuis le sol ont des erreurs typiques sur la position du véhicule plus grandes que le kilomètre, voire la dizaine de kilomètres, ce qui est bien sûr insuffisant pour atteindre un corps dont la taille représente moins d’un dixième de cette erreur », explique Marc Chapuy. « Une heure avant l’impact, la cible est à environ 36 000 km, environ 1/10e de la distance Terre-Lune, ce qui rend difficile l’usage de radars ou de lasers comme senseurs compte tenu des ressources de puissance électrique limitées disponibles à bord », poursuit-il. 

Pour contourner ce problème, Astrium envisage d’utiliser un senseur passif, comme une caméra petit champ. « Néanmoins, il ne faut pas oublier qu’on essaie alors d’observer à 1/10e de la distance Terre-Lune une cible qui fait moins de 1/10000e de la taille de la Lune ! », s’exclame le chercheur d’Astrium. « Les informations qu’on peut obtenir ne sont donc pas toujours très précises et le deviennent dans les tout derniers instants avant l’impact, ce qui n’est pas le plus confortable pour assurer un impact précis, et fait appel à un senseur à haute performance », ajoute-t-il.

Les informations les plus utiles seraient donc obtenues dans les dernières minutes, voire secondes avant impact. Rappelons que notre impacteur est alors à la vitesse de 10 km/s ! Pour corriger la trajectoire, les calculs et corrections doivent donc être ultra-rapides. Pour cette raison, « les corrections de trajectoire à effectuer doivent être calculées et exécutées à bord sans intervention des opérateurs au sol car le temps de communication avec le sol dépasse de très loin le temps restant avant collision », imagine Marc Chapuy. « Jusqu’à présent, les manœuvres des missions interplanétaires en Europe étaient toujours effectuées de façon non-autonome avec intervention des opérateurs au sol pour plus de sécurité, donc le système devra être très robuste et intensivement validé pour garantir le succès de la mission sans intervention humaine possible dans les moments les plus critiques », rappelle le scientifique. La mission demandera donc une autonomie jamais atteinte sur une mission Européenne. 

Deux autres scénarios étudiés

Un autre concept envisagé dans le cadre du projet est l’attraction gravitationnelle. Il s’applique principalement aux corps peu massifs, mais tout de même suffisamment pour engendrer de gros dégâts ! Il consiste à placer un satellite en orbite de l’astéroïde pour jouer le rôle de « tracteur gravitationnel » et dévier le corps de sa trajectoire. Plus le satellite est lourd, plus la méthode est efficace. Les défis techniques liés à cette technique proviennent principalement du fait que la force entre la sonde et l’astéroïde est faible, nécessitant parfois plusieurs années pour parvenir à modifier suffisamment la course de l’astéroïde. Pour cela, NEOShield étudie aussi une alternative regroupant plusieurs attracteurs gravitationnels placés en à proximité de l’astéroïde. 

Le dernier concept envisagé est une déviation par une explosion nucléaire proche de la surface de l’astéroïde. Cette solution sera utilisée uniquement en cas de découverte tardive, dans le cas où l’objet n’aurait pas été détecté suffisamment tôt pour planifier une des deux méthodes précédentes. La charge devrait exploser à distance de façon à la dévier par effet de souffle. Il ne s’agirait donc pas de l’exploser comme dans les superproductions cinématographiques hollywoodiennes, afin de ne pas briser l’objet en plusieurs morceaux. 

Pour suivre les prochains astéroïdes passant à proximité de la terre (sans impacts prévus !), rendez-vous sur le site de la Nasa.

Par Matthieu Combe, journaliste scientifique

Apple : 1 (milliard), Samsung : 0

Première grande victoire pour la marque à la pomme. Après seulement trois jours de délibérations, le jury a tranché en faveur du fabricant d’iPhone, estimant que des brevets liés à l’iPad et l’iPhone avaient bel et bien été violés par le Sud-Coréen. Les avocats de la firme américaine ont réussi à  démontrer que Samsung avait copié le design, des icones ainsi que les emballages des appareils.

De son côté, Samsung n’a pas réussi à convaincre les jurés qu’Apple s’était lui aussi fourvoyé en plagiant certaines de ses technologies Wifi. Voilà donc un revers qui risque de coûter cher à Samsung. D’autant que la guerre est toujours vive et qu’Apple, dynamisé par cette victoire, ne compte pas en rester là : le géant américain a déjà annoncé avoir déposé une demande d’interdiction de commercialisation de 8 appareils Samsung : les Galaxy S 4G, S2 AT&T, S2 Skyrocket, S2 T-Mobile, S2 Epic 4G, S Showcase, le Droid Charge et le Galaxy Prevail. Le Galaxy S3 n’est pas concerné par cette demande qui sera examinée par le juge lors de l’audience du 20 septembre.

De son côté, le Sud-corréen affiche sa détermination et tente de rassurer salariés, clients, partenaires et investisseurs. Ce lundi, son cours en Bourse subissait déjà une baisse de 6.81 % à la bourse de Séoul, quand l’action d’Apple prenait 2 %. Néanmoins, Samsung devrait pouvoir maintenir ses appareils, smartphones et autres tablettes, soit en contournant les brevets d’Apple, soit en payant à son concurrent des royalties.

Par Audrey Loubens, journaliste scientifique

(Crédit photo : AFP)

L’eau n’est pas indispensable aux protéines

En 2010, des anglais avaient créé une couche de polymères autour de la myoglobine et observé que cette protéine conservait ses fonctions malgré le manque d’eau dans son environnement. Néanmoins, ils n’étaient pas capables d’en donner la raison.

L’explication est venu d’un groupe de chercheurs (CEA , CNRS, Université Joseph-Fourier, Université de Bristol du Royaume-Uni, Université Nationale Australienne et le Forschungszentrum Jülich d’Allemagne) : le polymère assure le rôle de lubrifiant. Or, c’est cette fonction habituellement remplie par les molécules d’eau qui permet à la protéine de se déplacer.

Encapsulée dans le polymère, la myoglobine conserve ainsi sa dynamique et sa fonction biologique. Pour établir ce résultat paru en ligne dans le Journal of the American Chemical Society, les scientifiques ont utilisé comme technique de mesure la diffusion de neutrons produits par un réacteur nucléaire. Deux appareils ont été utilisés : le réacteur de recherche à haut flux localisé au sein de l’Institut Laue-Langevin (ILL) à Grenoble (France) et le réacteur de recherche FRM II à Garching, près de Munich (Allemagne).

L’originalité de leur mesure consiste à avoir marqué alternativement la protéine et le polymère de façon à les étudier séparément sans les altérer.

Marqués au deutérium, les polymères ont révélé posséder une dynamique équivalente à celle des molécules d’eau positionnées autour des protéines. De même, en marquant uniquement la protéine, les scientifiques ont pu mettre en évidence que la myoglobine conservait la même dynamique que si elle était hydratée.

Pouvoir s’affranchir de l’eau pour garder les protéines fonctionnelles pourrait permettre d’améliorer la conservation de solutions de protéines ou encore de manipuler plus aisément  les protéines en grande quantité en vue de développements industriels ou pharmacologiques.

Par Audrey Loubens, journaliste scientifique

Les fusions-acquisitions de l’été (1/2)

Samsung débourse 344 M$ pour accéder aux technologies sans fil de CSR

A la mi-juillet, le Coréen Samsung a conclu un accord stratégique avec CSR pour acquérir les opérations de développement concernant les technologies de localisation et de connectivité sans fil du fabricant britannique de semiconducteurs pour applications mobiles ; pour 310 M$, Samsung accède ainsi à ces technologies, réalisant le transfert de certains brevets et rapatriant en son sein plus de 300 salariés de CSR.

IDT rachète les activités convertisseurs de NXP

En juillet, le fabricant américain de circuits mixtes IDT a annoncé l’acquisition de l’activité convertisseurs de données haute vitesse du Néerlandais NXP Semiconductors, ainsi que le rachat d’Alvand Technologies, une entreprise spécialisée dans le développement de blocs de propriété intellectuelle en analogique pour convertisseurs de données ; le montant de ces acquisitions n’a pas été dévoilé.

Deux acquisitions estivales pour Synopsys

L’Américain Synopsys, leader mondial des logiciels et IP utilisés dans la conception, la vérification et la fabrication des composants et systèmes électroniques, a racheté cet été son compatriote Ciranova pour un montant non divulgué et a signé un accord définitif pour le rachat du Taïwanais SpringSoft dans une transaction évaluée à 406 M$, dont 310 M$ net de la trésorerie acquise.

Mémoires flash NOR : ISSI veut racheter Chingis

Integrated Silicon Solution (ISSI), entreprise américaine fabless spécialisée dans les Srams faible consommation, les Drams de spécialité et les circuits analogiques et mixtes, a annoncé à la mi-juillet son intention de racheter le Taïwanais Chingis, un spécialiste des technologies de mémoire flash à architecture NOR pour applications autonomes et embarquées.

Agilent acquiert l’activité systèmes de test de l’Espagnol AT4 wireless

Agilent Technologies vient de finaliser l’acquisition de l’activité systèmes de test de l’Espagnol AT4 wireless, une entreprise implantée à Malaga et spécialisée dans les solutions et services de test pour les communications sans fil.

 

Eolane acquiert l’activité de Lagassé Communications et Industries à Berlin

Poursuivant sa stratégie de conquête des marchés en Europe, le sous-traitant Eolane, société de services industriels en électronique professionnelle, a annoncé à la mi-juillet l’acquisition, au travers d’Eolane Berlin, de l’activité de Lagassé Communication & Industries en Allemagne.

Sources : semiconductor/vippress

Une méthode en or pour ouvrir l’ADN en deux

Parus dans Advanced Materials, les travaux des équipes de la North Carolina State University mettent en évidence le caractère intrusif des nanoparticules à l’encontre du génome.

En effet, « dans le but d’améliorer les méthodes de transport et de conditionnement du matériel génétique utilisable en thérapie génique » comme l’a rappellé l’un des auteurs de l’étude Anatoli Melechko, l’équipe a synthétisé des nanoparticules d’or d’un diamètre de 1.5 nm et les a entouré de molécules organiques.

Ces ligands étaient chargés positivement (l’ADN est chargé négativement) ou hydrophobes. Plongées dans une solution contenant de l’ADN, ces particules or/ligands s’agglomèrent à l’ADN du fait de l’attirance liée aux charges opposées entre l’ADN et les ligands.

Ensuite, les ligands hydrophobes se rassemblent et viennent grossir l’amas de nanoparticules d’or, provoquant l’écartement progressif des brins d’ADN.

Si les opposants aux nanotechnologies ne manqueront pas d’y voir une menace pour l’ADN, cette utilisation des nanotechnologies en thérapie génique pourrait surtout faciliter la manipulation des brins d’ADN et leur séparation, très utile pour isoler et amplifier certains gènes ou encore pour fabriquer des puces ADN.

Par Audrey Loubens, journaliste scientifique

Site d’information sur les données de la recherche

Pour faire face à ce déluge de données, les institutions de recherche ainsi que leurs tutelles doivent relever plusieurs défis : organisationnel, normatif, juridique, financier et également en ce qui concerne les métiers et les compétences. En effet, un système efficace doit être capable de traiter, archiver et exploiter ces masses de données pour permettre leur accès, leur partage et leur réutilisation. Pour ce faire, il faut :

  • déterminer les rôles des acteurs ;
  • fédérer les moyens et les compétences ;
  • mettre en place des infrastructures ;
  • développer ou appliquer des normes – au niveau des ressources (les métadonnées) et des structures – pour permettre notamment un dialogue entre les réservoirs de stockage ;
  • définir la propriété des données de recherche et la responsabilité des chercheurs ;
  • identifier la ressource de manière univoque ;
  • avoir des financements dédiés sur le long terme ;
  • former les chercheurs et les professionnels de l’information…

Par ailleurs se posent deux questions : la prise en compte des activités liées aux données dans l’évaluation des chercheurs et la validation des données déposées.

Ces actions se déclinent sur un plan national, européen et mondial, car les pratiques de recherche ont considérablement évolué ces dernières décennies : essor des coopérations internationales, de la spécialisation à l’interdisciplinarité, financement par projets, recours massifs aux grands équipements et aux moyens de calculs partagés.

C’est dans ce cadre que le ministère de l’Enseignement supérieur et de la Recherche (MESR) a demandé à l’Inist-Cnrs de développer une plateforme d’information et de veille sur les données de la recherche. Elle a trois objectifs : développer les connaissances sur les données de la recherche, sensibiliser à l’importance qu’elles revêtent et favoriser la réflexion autour des problématiques qui y sont liées.

Les informations sont classées dans six rubriques : Évènements, Normes, formats et protocoles, Politiques et textes de référence, Projets et initiatives, Métiers et compétences et Webographie. Cette dernière donne accès à des articles,des communications, des bases de données, des blogues, des forums, des rapports, des guides et des revues. Les informations sont classées par domaine scientifique accessible par le nuage de tags. Les internautes peuvent être alertés via un fil RSS général ou un fil lié aux évènements.

Le site s’adresse principalement aux professionnels de l’information scientifique et technique, mais également aux différentes communautés scientifiques qui pourraient ainsi bénéficier d’un espace commun d’information. Il a vocation à être alimenté par un réseau de veilleurs représentatifs des différentes disciplines scientifiques et des métiers, et appartenant à différents établissements de recherche.

Le site a été lancé le 29 mai 2012 à l’occasion d’une journée-atelier soutenue par le MESR et organisée par le Cnrs (DIST et Inist), l’Inserm, l’INRA et l’IRD. Intitulée « Données de la Recherche : enjeux, perspectives, politique(s) » (http://www.donneesdelarecherche.fr/spip.php?article144) cette journée a été l’occasion de rassembler et de confronter les points de vue de chercheurs de disciplines variées, de professionnels de l’information scientifique et technique ainsi que d’informaticiens, intéressés et/ou impliqués dans des processus de gestion de données. Des présentations de réalisations et de réflexions sur les problèmes des données à l’échelle européenne et internationale ont eu lieu le matin.

L’après-midi a été consacrée à une revue d’initiatives françaises. La table-ronde a rassemblé des décideurs de la recherche, experts, juristes…
Une synthèse de la journée est accessible sur le site (http://www.donneesdelarecherche.fr/spip.php?article185). Les vidéos des communications seront mises en ligne courant septembre.

Contact : (http://www.donneesdelarecherche.fr/spip.php?page=contact).

Un écran tactile fait apparaitre et disparaitre des formes sous vos doigts

Blackberry ou iPhone/Samsung ?

Chaque clan défend ses préférences, un clavier « en dur » pour les uns ou un tactile pour les autres.

Mais avec la technologie développée par la société Tactus, plus besoin de choisir : l’écran lisse est capable de faire émerger des touches, puis de les faire disparaitre.

On pourra alors choisir quitter le mode tactile pour taper un texte sur de vraies touches, à l’ancienne. La forme de l’écran peut changer, faisant apparaitre non pas des touches de claviers mais des boutons de télécommandes par exemple.

A l’origine de ces changements de forme, des petits réservoirs de fluides dissimulés sous la membrane déformable de l’écran. Le fluide est pompé et acheminé via de minuscules canaux puis injecté sous la membrane ainsi gonflée localement. Il est possible de modifier l’emplacement des boutons, leur fermeté et leur forme.

L’utilisateur peut alors sentir le bouton en relief. Une fois les boutons désactivés, la membrane redevient plane et lisse. Avec son prototype primé par la Society for Information Display et félicité à l’Eureka Challenge award, la société Tactus espère intégrer sa technologie aux smartphones dès 2013.
A découvrir en vidéo :

Par Audrey Loubens, journaliste scientifique

Des exploits sportifs de moins en moins nombreux

« Plus vite, plus haut, plus fort », la devise olympique pousse les athlètes à se surpasser.

Mais jusqu’où pourront-ils aller ?
Le corps humain pourra-t-il repousser ses limites encore longtemps ?
Comment les innovations technologiques l’aideront à grappiller encore quelques précieux dixièmes de seconde ou de centimètres ?

Pour le savoir, l’IRMES (Institut de Recherche bioMédicale et d’Epidémiologie du Sport) a analysé l’ensemble des records du monde et des meilleures performances sportives depuis les premiers jeux olympiques en 1896.

Les chercheurs observent un ralentissement global des performances, voir même des scores inférieurs dans certaines disciplines. Et d’après eux, cette stagnation va perdurer.

Nouvelles technologies et dopage

D’après Geoffroy Berthelot, chercheur INSEP (Institut National des Sports et de l’Education Physique) à l’IRMES, « Sans l’apparition d’une nouvelle technologie sportive innovante, les performances ont peu de chances d’évoluer ».

En effet, cette étude met clairement en évidence deux facteurs principaux quant aux performances d’exception : la technologie et le dopage. Par exemple, concernant la natation, ces travaux montrent un pic de réussite en 2008 et 2009 lié aux combinaisons mises aux points par la NASA et des résultats moins bons en 2010 suite à l’interdiction de cette nouvelle technologie dans les bassins.

En lancer de poids, l’évolution des performances est quasi linéaire après la seconde guerre mondiale, avec un plateau atteint dans les années 80 puis une régression des performances.

On sait aujourd’hui, d’après les archives de la Stasi, qu’il existait tout simplement des protocoles de dopage. Les résultats sportifs, liés bien sûr à la morphologie et à l’entraînement du sportif, restent néanmoins très dépendants des innovations technologiques. A quand une médaille pour les ingénieurs ?

Une étude à découvrir en vidéo.

Par Audrey Loubens, journaliste scientifique

Revue du Web #29 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • « Mantabot », un robot mis au point par une équipe de chercheurs de l’université de Virginie, imitant le mouvement gracieux d’une raie manta pour pouvoir se déplacer sous l’eau ;
  • le venin de la vipère de Russell, dangereux ? Découvrez une vidéo illustrant l’action ultra-rapide du venin de cette vipère du sous-continent indien, lorsqu’il entre en contact avec du sang ;
  • une grue soulevant une grue soulevant une grue… soulevant une grue : mise en abyme orchestrée par le fabricant allemand d’engins de constructions et de machines-outils Liebherr, afin de prouver la fiabilité des grues mobiles sortant de ses usines ;
  • des jambes robotiques « biologiquement exactes », mises au point par des chercheurs de l’université de l’Arizona, afin d’explorer plus avant les processus impliqués dans la locomotion humaine ;
  • vidéo vintage : comment donner l’impression de réveiller un volcan, simplement avec un (gros) sac poubelle ? L’Erta Ale, volcan bouclier éthiopien situé dans la vallée du grand rift, riche en volcans, sert ici de cobaye ;
  • le gadget (inutile?) de la semaine : « Yellow Jacket iPhone », le premier étui pour iPhone… avec pistolet à impulsion électrique intégré ;
  • en bonus : « Blue Marble 2012 », photo de la Terre en très haute définition prise par le satellite américain Suomi NPP. Les Russes ne sont pas en reste, prenant une photo très haute définition de la Terre… toutes les trente minutes.

« Mantabot », le robot qui imite le mouvement d’une raie manta :

Pour débuter cette vingt-neuvième revue du web, voici « Mantabot » un robot ressemblant et imitant le mouvement d’une raie manta ou d’une raie pastenague pour pouvoir se déplacer sous l’eau. Le robot a été mis au point par une équipe de chercheurs et d’ingénieurs de l’université de Virginie, basée à Charlottesville. Le projet, initié par le professeur Hilary Bart-Smith, enseignant la mécanique et l’ingénierie aérospatiale dans cette université américaine, est fascinant à plus d’un titre.
L’équipe de scientifiques s’est fixée pour but de réussir à imiter les remarquables mouvements empreints de puissance et de grâce de ces poissons, à l’aide d’un robot qui en imite tout d’abord la forme caractéristique, un large corps plat muni de deux grandes « ailes », les nageoires pectorales. La forme du corps de la raie est un élément primordial dans le mouvement de celle-ci. « Les raies sont de merveilleux exemples d’optimisation mécanique réalisée par la Nature », explique le professeur Hilary Bart-Smith. Les raies sont de fantastiques et gracieux nageurs, sachant conserver leur énergie en parvenant à planer sur de très longues distances, une fois l’impulsion donnée.
« Nous en étudions un spécimen de très près, afin de mieux décoder cette magnifique nage, et nous espérons encore améliorer notre prototype. », continue Hilary Bart-Smith. Moulé directement sur le corps d’une raie de type « Rhinoptera Bonasus », le prototype est constitué d’un assemblage de silicone et de polymère. Les scientifiques ne se sont pas contentés d’observer l’animal pour en comprendre parfaitement les mouvements, ils ont aussi dû… disséquer un de ces majestueux poissons.
La raie robotique est capable de nager, de tourner, d’accélérer tout comme de planer gracieusement dans un battement d’ailes presque totalement silencieux. Le contrôle du prototype se fait à l’aide d’une console et d’un ordinateur, de manière relativement simple. Le but – avoué – du professeur Hilary Bart-Smith ainsi que de son équipe d’ingénieurs est de parvenir à une propulsion optimale et silencieuse, pour une consommation d’énergie minimale.
Les applications de ce robot sont extrêmement nombreuses et variées, selon les dires même des chercheurs derrière le projet « Mantabot » : la raie robotique pourrait tout d’abord servir à collecter des informations sur son environnement pour la communauté scientifique. Comme souvent, les applications militaires n’ont pas échappé à certains, voyant le prototype comme un possible outil de surveillance en territoire « ennemi ». Il pourrait enfin, si on en modifie les dimensions – en augmentant ou en réduisant la taille de la raie robotique – servir de plate-forme pour des instruments de mesure.
« Mantabot » est un exemple de plus parmi d’autres laissant entrevoir un avenir très prometteur à l’ingénierie bio-mécanique.

Le venin de la vipère de Russell, dangereux ?

Son petit nom : « daboia russelii » ou vipère de Russell. Ce serpent, dont l’habitat naturel se trouve partagé entre le Pakistan, l’Inde, le Sri Lanka et le Bangladesh, pouvant dépasser le mètre soixante de longueur, fait partie du terrifiant « Big Four », les quatre espèces de serpents venimeux responsables du plus grand nombre de décès par morsures de serpents en Asie du Sud (avec le cobra indien – le fameux « naja naja » -, le bongare indien et l’échide carénée).

Pour illustrer les effets dévastateurs du venin de ce serpent sur un organisme après inoculation, un journaliste collecta un échantillon de celui-ci à partir des solénoglyphes de la vipère (ses deux longs crochets mobiles) afin de le mettre en présence d’un autre échantillon, cette fois-ci du sang de souris. La réaction, impressionnante, ne se fait pas attendre : l’échantillon de sang coagule en seulement quelques secondes, laissant apparaître une gelée de sang dans la boite de Pétri.
Ces « moissonneurs de venin » collectent celui-ci pour son prix extrêmement élevé à la revente (plus élevé que le cours de l’or), notamment lorsqu’il est vendu en poudre. Bien que ce venin coagule très efficacement le sang des rongeurs, les effets sur le sang humain sont tout autres bien que tout aussi dévastateurs : le sang humain se liquéfie au point de provoquer des saignements à partir de toutes les zones dont la vascularisation est très proche de la peau (gencives, yeux…).

La récolte du venin de serpent sert généralement deux objectifs bien distincts : la recherche en pharmacologie et le développement de produits cosmétiques. Les nombreuses toxines et enzymes présentes dans les différents venins de serpent – les protéases, la hyaluronidase (qui augmente la perméabilité des tissus, facilitant la propagation du venin), les phospholipases et les phosphatases – ont des propriétés qui peuvent être exploitées dans ces deux domaines. Certains venins sont utilisés dans la lutte contre le cancer, d’autres entrent même dans la composition de certains médicaments : le Captotril, médicament contre l’hypertension, contenant du téprotide extrait du venin d’un serpent d’Amérique du sud, le Bothropoides jararaca ; le Tirofiban, médicament soignant l’angine de poitrine, dont le principe actif est extrait du venin d’un vipéridé asiatique, l’Echis carinatus.

Une grue soulevant une grue soulevant une grue soulevant… une grue

Le fabricant allemand d’engins de constructions et de machines-outils Liebherr, pour prouver la fiabilité des grues mobiles sortant de ses usines, et ce quelleque soient leursdimensions, a décidé de mettre les petits plats dans les grands. Rien de tel, pour ce faire, qu’une mise en abyme avec une grue gigantesque soulevant une grue non moins grande, soulevant une grue plus petite qui elle, soulève un jouet… qui n’est autre qu’une réplique de grue ! L’opération se fait étape par étape, la plus petite des grues étant arrachée du sol par une seconde grue. Cette seconde grue est elle-même tirée du sol par le modèle suivant, toujours plus grand. La dernière (et plus grande) des grues finit par soulever l’ensemble, sans réelles difficultés, malgré le poids et la longueur de l’ensemble. La vidéo, bien qu’intéressante, connaît quelque longueurs, n’hesitez pas àsauter quelques passages.

La plus grande des grues mobiles du constructeur allemand, le modèle « LTM 11200-9.1 », est un monstre de métal:c’est ni plus ni moins que la plus puissante grue télescopique présente sur le marché.Elle possede uneflèche télescopique composée de huit parties lui permettant un allongement maximal de 100 mètres, est la plus longue au monde. Sa capacité de charge est de 1200 tonnes, pour une portée de 2,5 mètres.

Il existe deux types de grues mobiles, dont les utilisations peuvent différer grandement : les grues mobiles à flèche télescopique et les grues mobiles à flèche en treillis. Elles peuvent, au choix, être montées sur châssis mobile ou montées sur châssis chenilles, pour un emploi mixte route / hors route sur les chantiers du monde entier.
Le constructeur allemand avait innové en fin d’année dernière, laissant sortir de ces usines une flèche à treillis s’élevant à une hauteur exceptionnelle : 150 mètres de hauteur, la partie inférieure de la flèche en treillis étant constituée d’une « double-flèche » parallèle, qui se transforme en simple flèche au niveau de la partie supérieure. Cette flèche innovante permettrait ni plus ni moins qu’une augmentation de la capacité de levage de plus de 50 %, car elle optimiserait la stabilité en direction de la charge, mais aussi latéralement.

Jambes robotiques « biologiquement exactes »

Mise au point par un groupe de chercheurs de l’Université d’Arizona, voici une paire de jambes présentées comme « biologiquement exactes », imitant les fonctions et les mouvements de vraies jambes humaines. Ce jeu de jambes robotiques présente des versions simplifiées des réseaux neuronaux, de l’appareil locomoteur et du système de réponses sensorielles humain.
Le but à atteindre ici par l’équipe de chercheurs est de recréer une démarche humaine la plus naturelle possible, « dans un souci d’exactitude sans précèdent, pour mieux cerner les processus impliqués lorsqu’un humain marche, et trouver une réponse à la question : comment les humains apprennent-ils à marcher ? ». Une fois leur but atteint, ces connaissances pourraient, selon les chercheurs, aider certains patients blessés à la colonne vertébrale à marcher de nouveau.

L’un des éléments clés de la démarche humaine est le réseau locomoteur spinal (« central pattern generator », CPG en anglais), réseau neuronal se trouvant dans la moelle épinière qui, une fois activé par le cortex moteur, permet de générer et de contrôler les signaux rythmiques musculaires responsables de l’activité motrice d’un sujet.

Vintage : réveiller un volcan… avec un sac poubelle :

La chute d’un être humain dans un lac de lave pourrait-elle provoquer une éruption ? Un être humain peut-il se « noyer » ou tout du moins s’enfoncer suffisamment dans un lac de lave ? Un groupe de chercheurs, dont le campement de base se trouvait près du volcan Erta Ale, en Éthiopie, décida de tester la susceptibilité de celui-ci en y jetant un sac poubelle. D’une trentaine de kilos, respectant approximativement les dimensions d’un cube d’une soixantaine de centimètres de côté, ces restes organiques ne présentent que peu de similitudes avec un être humain, mais le test tient. La chute, de près de 80 mètres, brise l’équilibre apparent du lac de lave, le volcan donne l’impression de se réveiller, peu à peu, la croûte solidifiée de lave se rompt et la lave liquide gagne du terrain en même temps que l’activité semble reprendre.

Alors qu’une partie de la communauté scientifique estime que la très grande densité de la lave empêcherait un homme de s’y enfoncer, la vidéo semble prouver le contraire. Le retour apparent de l’activité du lac de lave, un temps perçu comme la réaction entre l’eau contenue dans les déchets organiques contenus dans la poubelle et la lave (comme lors d’une éruption phréatomagmatique, rencontre explosive entre le magma ascendant et de l’eau superficielle, par exemple celle d’un cours d’eau, d’un lac ou encore d’une nappe phréatique), semble être plutôt dû à la perte de l’équilibre établi au niveau du lac de lave, le percement de la croûte permettant à nouveau la libre circulation et la remontée des gaz volcaniques.

La vallée du grand rift :

Niché en plein « berceau de l’humanité », l’Erta Ale est un volcan se trouvant au nord de la  vallée du grand rift, zone d’extension intracontinentale coupant la Corne de l’Afrique en deux parties (la plaque tectonique nubienne, à l’ouest, qui s’éloigne petit à petit de la plaque somalienne, à l’est), s’étendant du sud de  la mer Rouge au fleuve Zambèze sur un peu plus de 6000 kilomètres de longueur, d’une largeur d’environ quarante à près d’une soixantaine de kilomètres, pour une profondeur pouvant aller de quelques centaines de mètres à plusieurs milliers de mètres par endroits.
La vallée du grand rift connaît une activité volcanique intense de par sa position privilégiée sur la zone de fracturation : on y trouve – entre autres – le mont Kibo, dans le célébrissime massif du Kilimandjaro, très haut volcan éteint culminant à 5892 mètres, situé en Tanzanie et doté d’un glacier, symbole du pays ; le mont Kenya, volcan rouge aux mêmes caractéristiques, fierté nationale du Kenya dont les plus hautes cimes culminent à pres de 5200 mètres d’altitude ; le Dallol, site volcanique exceptionnel de l’Afar, au nord de l’Éthiopie, où les terrasses calcaires côtoient une multitude de petits geysers, des lacs acides ainsi que des étendues de sel et de souffre, l’ensemble se situant à plus d’une centaine de mètres en dessous du niveau de la mer ; l’Ol Doinyo Lengai, volcan tanzanien rejetant de la carbonatite, une lave fluide exceptionnelle qui blanchit en se refroidissant, créant des cônes de basalte blanc suintant de la carbonatite en libérant une épaisse fumée grise dans la caldeira du cratère ; et enfin, l’Erta Ale, volcan bouclier effusif à l’activité intense, situé en Éthiopie.

Éruption du volcan Ol Doinyo Lengai

Éclairages sur le volcan Erta Ale :

L’Erta Ale (« montagne fumante » en dialecte afar) est un volcan bouclier se trouvant dans la dépression Danakil, au nord de la vallée du grand rift, en plein pays Afar, au nord de l’Éthiopie. Un volcan bouclier est à la fois un volcan effusif et une très grande structure pouvant facilement atteindre plusieurs dizaines de kilomètres de diamètre, caractérisépar des pentes plutôt douces (autour de 12°), dont la formation est le résultat de l’empilement de nombreuses coulées successives de lave basaltique et fluide. Culminant timidement à 613 mètres d’altitude, l’Erta Ale possède une caldeira à son sommet accueillant deux cratères, ainsi qu’épisodiquement des lacs de lave. Sa lave est basaltique, faiblement gazéifiée, et les roches affleurantes peuvent être vieilles de plus d’un million d’années.

Le gadget (inutile ?) de la semaine : « Yellow Jacket iPhone », le premier étui pour iPhone avec pistolet à impulsion électrique intégré

Pour conclure cette vingt-neuvième revue du web, rien de tel que le gadget (inutile?) de la semaine : « Yellow Jacket iPhone » est le premier étui de protection destiné aux iPhones comprenant… un pistolet à impulsion électrique intégré. S’inspirant d’une récente histoire de braquage lui étant arrivé, l’ayant laissé selon ses dires « traumatisé à vie », et dans une veine très américaine de self-défense, Seth Froom a pris la décision de devenir maître de son destin à l’aide de son nouveau joujou incapacitant.
Destiné aux jeunes filles comme aux cadres dynamiques, en passant par la mère de famille faisant ses courses tard le soir, « Yellow Jacket iPhone » n’offre pas seulement une arme de défense délivrant une décharge de près de 650 000 volts, supposément non-létale, ainsi que la protection « anti-choc » dudit téléphone à l’aide du hardcase : cet étui offre également près de vingt heures d’autonomie supplémentaires en mode veille. Reste la question de la sécurité : en dehors des controverses concernant la dangerosité de telles armes, rappelons nous qu’un téléphone se trouve très régulièrement… près de notre tête. Alors, qu’il y ait un dispositif de sécurité ou non…
N’ayant réussi à réunir qu’une quinzaine de milliers de dollars sur les 100 000 dollars attendus, le joujou de Seth Froom, dont le prix escompté serait de 125 dollars, est toutefois encore loin d’inonder le marché.
L’entrepreneur américain n’est pourtant pas le premier à avoir eu l’idée d’associer smartphone et arme d’autodéfense : « Smartguard », présenté comme un étui smartphone chic et à la mode, intègre un espace pour une bombe lacrymogène au piment rouge ; les Américains de Tiger Security font encore plus fort, avec un faux iPhone, camouflant en réalité… un pistolet à impulsion électrique. Vous avez dit absurde ?

Bonus : « Blue Marble 2012 », photo de la Terre en HD

En bonus de cette revue, voici une photo publiée par la NASA, baptisée « Blue Marble 2012 », fruit de plusieurs passages du nouveau satellite météorologique et d’observation Suomi NPP, le 4 janvier dernier, satellite lancé plus de deux mois plus tôt à partir de la base militaire de Vanderberg, en Californie. Les photos ont été prises par le VIIRS (« Visible Infrared Imaging Radiometer Suite »), un radiomètre vingt-deux bandes, mesurant l’intensité du flux de rayonnement magnétique, et permettant donc de collecter aussi bien la lumière visible que les infrarouges. Le radiomètre de Suomi Npp sert, entre autres à la surveillance et à l’observation des feux de forets, l’observation du mouvement des glaciers ainsi que d’autres changements terrestres tangibles.


« Blue Marble 2012 », la photo la plus étonnante… by Gentside

Les Russes ne sont pas en reste : leur dernier satellite météorologique, Elektro-L, en orbite géostationnaire depuis le début de l’année 2011, prend une image de notre belle planète bleue toutes les demi-heures, avec une résolution de… 121 millions de pixels.
Développé par l’entreprise russe de construction de matériel spatial NPO S. A. Lavotchkine, pour la FKA (l’agence spatiale fédérale russe), Elektro-L est le premier satellite météorologique russe opérant avec succès en orbite géostationnaire, et est le deuxième satellite météorologique russe opérationnel. Du haut de ses 1620 kilogrammes, le satellite russe a été conçu pour fonctionner autour d’une dizaine d’années. Il peut fournir des images de la Terre en collectant à la fois la lumière visible et les infrarouges, tout comme son homologue américain, Suomi NPP. Il fournit des données cruciales pour l’étude du changement climatique ainsi que pour la surveillance des océans, en sus de son rôle premier de satellite météorologique.
La consommation électrique du satellite, de l’ordre de 700 Watts, est couverte par ses panneaux solaires, fournissant près de 1,7 kilowatt. Bien qu’il soit conçu pour fournir des photos de notre belle planète toutes les trente minutes, l’intervalle peut être toutefois raccourci à une dizaine de minutes en cas d’extrême nécessité.

Par Moonzur Rahman, journaliste scientifique

 

A lire aussi :

 

 

Ecrire avec les yeux ? C’est possible !

Impossible en effet pour leur utilisateur de tracer ses propres figures. Et jusqu’à présent, relever ce défi semblait impossible. Car si l’oeil peut suivre très efficacement un objet qui se déplace, il n’est pas capable de réaliser des mouvements lisses et réguliers devant un arrière-plan statique. D’où l’idée de Jean Lorenceau, chercheur CNRS au sein du Centre de recherche de l’Institut du Cerveau et de la Moelle Epinière (CNRS/UPMC/INSERM) d’utiliser une illusion visuelle connue depuis les années 70, la reverse-phi, qui n’avait encore jamais trouvé d’application, pour obtenir de l’oeil des trajectoires lisses.

Cette illusion se produit lorsque, sur un écran, s’affichent quelques centaines de disques dont la luminance varie au cours du temps à une fréquence d’environ 10-15 Hertz. Lorsqu’un sujet déplace alors son regard sur ce fond clignotant, il a la nette impression que les disques se déplacent avec le mouvement de ses yeux. Puisque l’oeil humain est capable de suivre avec précision des objets qui bougent, le déplacement illusoire des disques induit par le mouvement donne à ceux-ci une sorte d’appui mouvant qui va leur permettre de réaliser des trajectoires régulières et non saccadées.

En associant un oculomètre qui enregistre les mouvements de l’oeil de l’utilisateur et un logiciel permettant de les visualiser sur un écran, Jean Lorenceau a donc conçu un dispositif grâce auquel il est possible de tracer des lettres avec les yeux. Seules deux à quatre sessions d’entraînement, d’une trentaine de minutes chacune, sont nécessaires à un utilisateur pour parvenir à maîtriser les mouvements de ses yeux.

Les tests réalisés ont montré qu’après avoir appris à percevoir le mouvement reverse-phi, l’utilisateur finit par véritablement s’accrocher à ce mouvement, un peu comme un surfer le fait avec la vague. Bien entraînée, une personne utilisant ce dispositif peut écrire à la même vitesse qu’avec sa main, d’autant plus que l’entraînement finit par faire émerger des automatismes qui facilitent l’exercice et le rendent moins fatiguant.

Prochaine étape, proposer ce dispositif à des personnes atteintes d’une sclérose latérale amyotrophique. Mais à plus long terme, Jean Lorenceau estime que ce système pourrait servir à l’entraînement des pilotes, des chirurgiens, des sportifs, voire des artistes, et permettre de concevoir des systèmes de sécurité basés sur la reconnaissance de mouvements oculaires.

(Source : Bulletins Electroniques)

Des neutrinos pas si rapides finalement !

Soulagement ou déception ? On hésite car l’expérience menée au CERN qui mesurait des neutrinos plus rapides que les photons venait défier la théorie d’Einstein, ce qui avouons-le, était très excitant. D’ailleurs, les chercheurs du Cern avaient mis à disposition leurs résultats, de façon à ce que la communauté scientifique les vérifie. Mais la révolution n’aura pas lieu puisque les scientifiques du CERN ont trouvé deux erreurs faussant leur mesure.

Certains avaient pointé du doigt dès février un problème de synchronisation entre le GPS et un ordinateur. Le responsable ? Un câble défectueux. Mais pas n’importe quel câble bien sûr, celui assurant la synchronisation optique des horloges. À cause de lui, le temps de parcours des neutrinos était raccourci de 74 ns.

À cela venait s’ajouter un problème sur l’horloge de précision qui était faussée de 15 ns. D’où un décalage de 59 ns, qui correspond à l’excès de vitesse des neutrinos de 60 milliardièmes de seconde mesurés en septembre dernier. Finalement, ces deux erreurs expérimentales corrigées, la vitesse des neutrinos a pu être à nouveau mesurée et cette fois, sans surprise, les résultats sont ceux attendus, c’est-à-dire compatibles avec la théorie de la relativité. Einstein peut dormir sur ses deux oreilles.

Par Audrey Loubens, journaliste scientifique

 

A lire aussi :

Les neutrinos n’auraient pas dépassé la vitesse de la lumière

NI week 2012 : présentation du premier transcepteur de signaux vectoriel RF

A l’occasion de la NIweek 2012, qui se tient depuis le 6 août à Austin (Texas), National Instruments a présenté la nouvelle version de son logiciel phare, LabVIEW 2012. Mais, comme chaque année à NIweek, les innovations sont nombreuses. Et cette année ne déroge pas à la règle. Parmi tous les nouveaux produits présentés, le VST (transcepteur de signaux vectoriel) est clairement le plus attendu.

Présenté en grandes pompes par Charles Schroeder, director of test marketing chez National Instruments (voir ci-dessous), le VST est présenté par National Instruments comme révolutionnaire et voué à redéfinir l’instrumentation.

En effet, l’appareil représente une nouvelle classe d’instrument combinant un générateur de signaux vectoriels (VSG) et un analyseur de signaux vectoriels (VSA) avec le contrôle et le traitement de signaux temps réel basés FPGA, programmables par l’utilisateur.

 

 

VST : les caractéristiques

  • Couverture fréquentielle jusqu’à 6 GHz et 80 MHz de bande passante RF instantanée
  • Performances maximales pour tester les toutes dernières normes de communication sans fil comme les 802.11ac et LTE
  • Mesures 10 fois plus rapides qu’avec des solutions classiques
  • Peut remplacer plusieurs instruments traditionnels pour une fraction du prix et de l’emplacement occupé
  • Repose sur la technologie FPGA programmable avec LabVIEW
  • Supporte facilement des configurations MIMO (multiple input, multiple output) ou le test parallèle dans un seul et unique châssis PXI

Docteur James Truchard, co-président, PDG et co-fondateur de National Instruments, a comparé la sortie du VST à celle de LabVIeW, le logiciel qui a fait le succès de NI, en 1986 : « Il y a 25 ans de cela, NI redéfinissait l’instrumentation avec le logiciel de conception de systèmes LabVIEW, et aujourd’hui nous récidivons avec notre transcepteur de signaux vectoriel.

En fondant notre société, nous savions que le logiciel allait jouer un rôle essentiel dans l’instrumentation. Aujourd’hui, nous pouvons constater que LabVIEW révolutionne la façon dont les ingénieurs abordent la conception et le test RF.

VST, les points essentiels :

  • RF NI PXIe-5644R, premier instrument conçu de façon logicielle, combine un générateur de signaux vectoriel et un analyseur de signaux vectoriel avec un FPGA programmable par l’utilisateur, dans un seul et unique instrument modulaire PXI.
  • Les ingénieurs peuvent transformer le transcepteur de signaux vectoriel en un nouvel instrument ou enrichir ses fonctionnalités existantes en utilisant le logiciel de conception de systèmes NI LabVIEW.
  • Le nouveau VST est idéal pour tester les toutes dernières normes de communication cellulaires et sans fil comme les 802.11ac et LTE.

LabVIEW 2012, toujours plus performant

Outre la présentation du VST, c’est également, évidemment, la nouvelle version de LabvIEW 2012 qui était au centre de toutes les attentions. Présenté lors du « key note » le 6 août devant plus de 2000 personnes (voir photo), LabVIEW 2012 ne devrait pas décevoir les fans (et ils sont nombreux) du logiciel.

Concrètement, la version 2012 du logiciel  de conception de systèmes conçu pour les ingénieurs et les scientifiques suggère des architectures d’application afin de gagner du temps – encore et toujours – et garantir l’évolutivité et la réduction des coûts de maintenance.

Aussi, LabVIEW 2012 inclut des améliorations apportées au niveau de la stabilité et de l’environnement. Ces améliorations, directement proposées par les utilisateurs, ont un but, qui résume la raison d’être de LabVIEW : améliorer la productivité.

Dernière spécification à retenir, LabVIEW 2012 supporte une quantité importante de nouveaux produits matériels, fruit de la volonté de la marque américaine d’enrichir la capacité de ses plates-formes et de permettre la création de systèmes à la pointe de la technologie.

James Truchard, alias « Docteur T », est revenu sur les nouveautés de son « bébé » : « Si construire rapidement un système est important, il est tout aussi important de le construire correctement, ce qui sous-entend la mise en oeuvre d’architectures cohérentes et de pratiques de développement éprouvées. Les nouvelles fonctionnalités et ressources proposées dans LabVIEW 2012 préconisent des pratiques de développement pour aider nos clients à obtenir des systèmes performants et de grande qualité en un minimum de temps, réduisant d’autant les coûts de développement et de maintenance ».

Au-delà des ces deux innovations majeures de NIweek 2012, des utilisateurs des produits National Instruments et les ingénieurs de la marque profitent de l’occasion, invités par National Instruments, pour présenter des innovations conçues à partir des produits NI.

Plus spectaculaires les unes que les autres, et démontrant notamment le champ de possibilités infini qu’offre un logiciel comme LabVIEW, ces innovations feront l’objet d’un prochain article, à paraître dans la Veille Actualité.

Par Pierre Thouverez

A lire également :

ChemCam, l’oeil français de la NASA

2.5 millions de dollars. Voilà le budget alloué à la NASA pour fabriquer un robot capable d’aller sur Mars et d’y chercher toute trace de vie. Pour réussir cette mission ambitieuse, le rover de 900 kg avait besoin d’un outil capable d’analyser la roche martienne. Cocorico ! C’est un instrument français, ChemCam (Chemical Camera), qui a été choisi.

Basé sur la technologie LIBS (Laser Induced Breakdown Spectroscopy), ChemCam permet une analyse élémentaire des roches et des sols à distance. L’utilisation de la technologie optique se révèle précieuse puisqu’elle permet d’analyser un matériau, une poudre ou un liquide situé jusqu’à 9 mètres de distance. Cela présente l’avantage de travailler sans avoir à déplacer le robot, limitant les risques d’endommagement.

Le laser embarqué sur ChemCam permet ainsi de viser une cible située à moins de neuf mètres, d’y envoyer un faisceau laser pulsé de 1 GW/cm² puis de collecter la lumière émise par le plasma généré pour une analyse spectrale sur une gamme de 250 à 800 nm. Les spectromètres indiquent alors quels éléments sont présents et en quelle quantité.

Si le procédé employé est utilisé depuis longtemps, notamment dans le domaine du nucléaire, c’est la première fois qu’il sert dans le spatial. ChemCam occupe une place de choix dans la mission Mars Science Laboratory (MSL), et pas seulement parce qu’il trône au sommet du mât fixé à l’avant de Curiosity, mais bel et bien parce que ses analyses seront déterminantes pour détecter toute trace de vie.

Par Audrey Loubens, journaliste scientifique

Le problème c’est les autres… Un frein à l’amélioration continue !

L’amélioration continue induit nécessairement une remise en question. En effet, vouloir progresser demande de se remettre en question constamment, de se dire qu’il n’y a pas de fatalité et que l’on peut toujours améliorer les choses.

Pour développer un tel état d’esprit dans l’entreprise, la direction doit se montrer exemplaire et démontrer une réelle volonté à satisfaire les clients et à vouloir s’améliorer.

Nous prendrons l’exemple d’une petite entreprise spécialisée dans la fabrication d’équipements agricoles. Cette dernière souhaite être certifiée pour pouvoir attaquer des grands comptes institutionnels. Lors de ma première visite j’arrive dans un climat tendu, où tout le monde s’agite et où le patron crie à tue-tête : « ils m’emmerdent ces clients ! Ils ne comprennent rien à rien ! ».

Je profite donc de cette « aubaine » pour rebondir sur le principe de l’orientation client et demande au patron qu’il m’explique le problème en question. « Le problème ? Je vais vous l’expliquer ! C’est le client ! Il vient de nous envoyer une réclamation car 8 équipements sur les 20 que nous lui avons envoyés ne fonctionnent pas ». Je lui demande alors comment ces équipements ont été contrôlés. « Ils ne l’ont pas été car le client ne veut pas payer les contrôles ». Je lui précise que la norme attend que les produits soient livrés au client une fois l’exécution satisfaisante des dispositions planifiées et notamment des contrôles libératoires. Que le client paye ou non les contrôles finaux, l’entreprise ne peut pas livrer un produit sans s’être assurée de la conformité (aux critères d’acceptation) de ce qu’elle livre. D’autant qu’au-delà de la norme, il s’agit de pur bon sens. Propos auxquels il me répond un brin agacé : « dans un livre, ce que vous dites parait évident, dans la réalité, ça l’est beaucoup moins !! ». Voilà un propos illustrant à merveille le fameux principe du « chez nous c’est particulier ». Je lui ai donc rappelé que la norme est le fruit d’un consensus international de plus de 170 pays et que par conséquent ses exigences sont applicables à toutes les entreprises, même à celles qui se pensent uniques.

Une fois ce rappel effectué, je cherche donc à comprendre ce que va lui coûter cette réclamation. « Combien cela va me coûter ? Cher ! Les équipements sont en partie sous-traités en Chine, si je dois en reprendre 8, je vais manger toute la marge !!! ». Je lui demande alors combien de temps il lui aurait fallu pour réaliser un contrôle unitaire de ces équipements. « Une demi-heure par équipement ! Auquel il faut ajouter le temps de conception des outils de test ». Faisant un rapide calcul à raison d’un salaire horaire chargé de 30 €, je lui fais remarquer que la mise en place des contrôles aurait couté 300 € pour réaliser un contrôle unitaire et 200 € pour la conception du banc de test. Je lui demande alors d’estimer combien il va perdre du l’affaire. « Attendez, je vends 700 € l’équipement, il me coûte 400 € à fabriquer, en refaire 8… euh… A peu près 3000 € ! ». Donc pour avoir voulu économiser 500 €, cela vous a finalement couté 3000 €. « Effectivement », répondit-il désespéré.

A mon deuxième rendez-vous, j’arrive à 14 heures, le patron et son équipe d’encadrement, reviennent du déjeuner à 14h35. Passons sur l’exemplarité en termes de ponctualité. Mais là n’est pas le seul problème de cette deuxième intervention. Au bout de quelques minutes où nous examinions l’avancement des travaux réalisés depuis ma dernière venue, un salarié de la production arrive la tête basse, en expliquant qu’il avait endommagé un équipement en voulant le nettoyer. Le patron sors littéralement de ses gonds : « Mais p*****, tu es vraiment un bourrin, tu fais attention à rien. Tu as 10 équipements à faire et tu trouves le moyen d’en casser un ! Comment on va faire ? P***** !!! ».

Une fois l’orage et l’avalanche de jurons passés, je prends le patron à part pour évoquer cet incident. Je lui demande, selon lui, pourquoi c’est arrivé. « Pourquoi ? Parce que c’est un âne, qu’il se fiche de tout. Je leur fournis les moyens, les outils, le temps et ils trouvent le moyen de saloper le travail. J’en ai marre, je vous le dis, je vais arrêter la production ici et faire faire les machines en Chine ! ». Il surenchérit : « les gens se plaignent de ne pas trouver du travail, mais quand ils en ont, ils gâchent tout, on ne peut pas leur faire confiance, il faut systématiquement être sur leur dos. Si c’est comme ça, je vire tout le monde, je fais le boulot moi-même et me paye 4 fois ce que gagne !! ».

Je lui demande alors si des instructions de nettoyage, orales ou documentées, sont en place. Si les personnes sont qualifiées pour la réalisation de certaines opérations telles que la soudure, le sertissage, le nettoyage, etc… « Vous rigolez ! C’est ça la qualité, tout écrire ? Moi j’embauche des gens qui savent faire ce pourquoi je les paye ! Un point c’est tout ! ». Je lui fais remarquer que la moyenne d’âge de ses salariés doit tourner autour des 25 ans et l’ancienneté moyenne dans l’entreprise est de 2 ans. Je lui explique que la démarche qualité devrait, outre l’obtention de la certification, lui permettre :

  • d’améliorer l’identification des compétences dont il a besoins,
  • d’optimiser la gestion des compétences de ses équipes,
  • d’améliorer les méthodes de travail pour :
    • éviter les problèmes en agissant sur leurs causes,
    • favoriser un environnement propice dans lequel les salariés évoluent sans stress,

Avec beaucoup de tact, j’essaye enfin de lui faire comprendre qu’être certifié, c’est vouloir progresser et que vouloir progresser c’est être ouvert d’esprit et bienveillant. Qu’il pourra aisément être certifié initialement mais que pour reconduire sa certification il devra démontrer que l’organisation est capable de s’améliorer. La finalité n’est pas d’être certifié, mais de déployer un outil de progrès. Je lui ai donc posé la question de confiance à savoir de réfléchir sur ce qu’il souhaite et qu’il revienne vers moi le jour où il sera vraiment décidé à faire de son système un réel outil de progrès en arrêtant de penser que la faute vient toujours des autres !

Moralité : pas d’implication de la direction + leadership incertain + pas de remise en question + peu de considération pour le personnel et les clients = facteur d’échec dans l’amélioration continue.

 

Par Jérémy Cicéro, responsable et auteur du Qualiblog

 

Jérémy CICÉRO

Jérémy Cicéro est consultant, formateur, et auditeur ICA pour le Qualipole Languedoc-Roussillon. Il est aussi formateur pour le Laboratoire National de Métrologie et d’Essai (LNE).

Ancien commercial puis responsable qualité dans les poids et mesures, il accompagne depuis plusieurs années les TPE et PME de la région Languedoc-Roussillon (tous secteurs d’activités) pour la mise en place et l’amélioration de leurs systèmes de management.

Il intervient également comme expert qualité sur le site Manager-Go! en répondant aux questions des internautes soucieux de comprendre les mécanismes de la qualité.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Renault maintient le cap vers les voitures électriques

Carlos Ghosn y croit, la voiture 100% électrique représente l’avenir. Et il se donne les moyens de ses ambitions puisqu’avant 2015 l’Alliance Renault-Nissan aura investi 4 milliards d’euros dans le programme électrique, prévoyant la vente cumulée de 1 500 000 véhicules électriques à l’horizon 2016 ! Des prévisions très optimistes que les autres constructeurs ne partagent pas.

D’autant qu’actuellement  la proportion des véhicules électriques flirte péniblement avec le 1% de part de marché. 

Récemment, la marque au losange s’est même affranchie de l’aide de l’Etat. Le Fonds Stratégique d’Investissement devait mettre sur la table 125 millions dans la construction de l’usine de Flins dédiée à la construction de batteries, Renault 125 millions et le CEA 5 millions.

L’accord tripartite est donc devenu bipartite, le CEA maintenant son partenariat. L’usine de Flins devrait rentrer en activité seulement fin 2015.

Prendre en compte les dernières innovations technologiques

En cause de ce retard, des évolutions technologiques rapides qui obligent Renault à ajuster son projet de façon à lancer la fabrication en tenant compte des dernières innovations. Les batteries concernées sont les mêmes que celles qui équipent la Leaf de Nissan. 

En France, le marché de l’électrique est dominé par Bolloré et sa Bluecar mais Renault compte bien rapidement le détrôner grâce à sa gamme de 4 véhicules électriques : Kangoo Z.E., Fluence Z.E. (équipées de batteries AESC, joint-venture entre Nissan et NEC), Twizy et ZOE (équipées de batteries LG Chem). 

Le marché de l’électrique pourra bénéficier de l’aide de l’Etat qui a révélé un plan de soutien à la filière automobile massivement tourné vers l’électrique. Des aides financières certes, mais surtout un déploiement accéléré des bornes de recharge, condition sine qua non à l’essor des véhicules propres.

Par Audrey Loubens, journaliste scientifique

Gaz de schiste : une seule image vous marque et tout est déglingué !

Plutôt que de tenter d’expliquer à l’opinion et de définir des terrains de convergence admissibles par tous au sujet de l’exploitation des gaz et des huiles de schiste, les acteurs principaux ont choisi dès le début de s’étriper. Qu’il s’agisse des pourfendeurs invétérés de cette ressource énergique ou de ses thuriféraires les plus motivés, le registre communicant adopté se résume pour les deux parties à un ring argumentaire où tous les coups sont permis pourvu que l’impact frappe le corps sociétal au détriment de l’autre. Dans ce combat de catch sans merci, la peur et/ou la manipulation ne sont jamais très éloignées pour gagner les soutiens des autres parties prenantes concernées.

Gaz de schiste : ami ou ennemi ?

Avant de passer au crible les tactiques communicantes en présence, il convient de se pencher quelques instants sur le gaz de schiste. Certains y voient le relais idéal pour compenser la diminution inéluctable des réserves pétrolifères et acquérir une indépendance énergétique accrue envers les pays producteurs de pétrole. D’autres au contraire admonestent à tour de bras cet hydrocarbure non conventionnel en le qualifiant de gravement polluant lors de son extraction souterraine et entraînant des problèmes de santé pour les populations avoisinantes.

Alors entre fantasme et factuel, qu’en est-il exactement ? Le gaz de schiste et l’huile de schiste sont en fait des hydrocarbures piégés dans des roches sédimentaires argileuses imperméables et compactes, souvent situées entre 1 et 3 kilomètres de profondeur. Conséquence : l’atteinte de ces poches nécessite des forages puissants qui fracturent la roche en injectant de l’eau et des produits chimiques à haute pression pour récupérer ensuite les gaz et les huiles de schiste.

Ce n’est que depuis le début du 21ème siècle que les progrès techniques du forage ont permis d’envisager une exploitation industrielle rentable de cette ressource énergétique. Aujourd’hui, ce gaz est aujourd’hui extrait en grande quantité aux États-Unis où il représente 12 % de la production locale de gaz contre seulement 1 % en 2000 (1). En Europe et notamment en France, l’évaluation de ce type de ressources demeure encore embryonnaire même si les compagnies pétrolières poussent énormément pour accélérer la cadence et obtenir des permis d’exploitation de la part des autorités gouvernementales.

Depuis 2010, une virulente polémique agite tenants et opposants au gaz de schiste aux USA mais également en France. Là où d’aucuns dénoncent une atteinte inacceptable à l’environnement, d’autres brandissent l’argument de l’indépendance énergétique que ce gaz peut potentiellement procurer aux pays exploitant leur sous-sol. Ainsi, aux Etats-Unis, « la proportion de gaz de schistes pourrait atteindre 25% en 2030 permettant à ce pays d’être auto-suffisant, alors que des importations massives de gaz liquéfiés (GNL) transportés par bateau étaient envisagées », analyse l’IFP énergies nouvelles. En France, un document interne de Total cité par Les Échos estime que les gisements du sud de la France renfermeraient 2380 milliards de mètres cubes de gaz, soit cinquante ans de consommation nationale (2).

Il faut diaboliser le gaz de schiste

A la lumière de ces perspectives, les enjeux du gaz de schiste prennent évidemment une toute autre coloration stratégique à laquelle les protecteurs de l’environnement n’ont guère tardé à s’opposer avec pugnacité.

Principal cheval de bataille : l’impact écologique et sanitaire qu’entraîne la fracturation hydraulique de la roche pour capter les gaz et huiles de schiste. Le premier reproche tourne autour de la consommation excessive d’eau que l’IFP (3) évalue effectivement à environ 10 à 15 millions de litres (soit l’équivalent de 3 piscines olympiques,).

L’autre flèche décochée par les écologistes évoque de possibles transferts de substances chimiques dans les nappes phréatiques adjacentes à cause des produits utilisés par les entreprises pétrolières lors des forages. Des produits qui pourraient contaminer l’eau du robinet et véhiculer des éléments hautement cancérigènes pour les humains buvant l’eau.

C’est précisément cette technique d’extraction qui a conduit en 2010 Josh Fox, un réalisateur militant américain à produire un documentaire implacable sur les dangers supposés de l’exploitation du gaz de schiste. Intitulé « Gasland », le film est un impitoyable réquisitoire sur tous les effets pervers qu’une telle industrie est censée provoquer en aspirant les gaz de schiste souterrains. Un an durant, il est parti sur le terrain à la rencontre des habitants des zones où les compagnies pétrolières s’activent déjà pour récupérer le précieux hydrocarbure.

Plus qu’un long plaidoyer scientifique (bien que des experts ont été sollicités dans le film), Josh Fox s’attache avant tout à taper fort pour dénoncer les gaz de schiste. Il utilise en cela une technique de communication bien connue pour inciter les gens à modifier leur opinion en s’appuyant sur l’effet heuristique de l’image. En d’autres termes, le problème est dénoncé non par des points techniques contradictoires mais par des symboles chocs qui ont vocation à marquer les esprits et faire basculer les opinions.

A cet égard, « Gasland » comporte une scène mémorable qui a fait le tour du monde et proliféré dans les réseaux sociaux. Une scène où un habitant ouvre son robinet, allume un briquet juste au-dessous et déclenche aussitôt un hallucinant retour de flamme. Une scène à l’aune de la structure volontairement dramatique du film qui met en vis-à-vis des industriels froids et préoccupés par leur business et des citoyens lambda évoquant leurs symptômes maladifs depuis que l’exploitation a commencé dans leur région. Autant dire que le résultat est imparable pour quiconque regarde le film sans avoir de connaissance précise sur le sujet.

Le gaz de schiste contre-attaque

Face à l’écho enregistré par « Gasland », la réplique ne se fait guère attendre. Industriels et experts pointent notamment l’absence de corrélation concrète entre l’exploitation du gaz de schiste et les pathologies observées chez les témoins du film. Une journaliste du Financial Times, spécialiste des questions énergétiques, n’hésite d’ailleurs pas à critiquer (4) les faiblesses rhétoriques du documentaire et de la ligne argumentaire empruntée par Josh Fox.

Néanmoins, le doute est désormais instillé dans l’opinion publique d’autant que les entreprises concernées ne se distinguent guère par une communication prolixe et ouverte sur le sujet. Au contraire, elles préfèrent même pour réfuter les attaques adverses, recourir à des approches communicantes qui flirtent dangereusement avec la manipulation. Récemment, deux cas de tentatives de distorsion ont été ainsi dévoilés. Le premier cas concerne un rapport rendu public en février 2012. Réalisé par des chercheurs de l’Energy Institute  l’université d’Austin au Texas, le document dédouane clairement le gaz et l’huile de schiste des conséquences sanitaires qui leur sont imputées.

Lire la suite ici

Sources

(1) – Ministère de l’Ecologie, du Développement durable et de l’Energie – « Qu’est-ce que le gaz et l’huile de schiste ? » – 8 juin 2012
(2) – Béatrice Héraud – « Entre eldorado stratégique et risque environnemental » – Novethic.fr – 21 octobre 2010
(3) – Ibid.

 

Par Olivier Cimelière / Le blog du Communicant 2.0

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous !  »