Faut-il attendre une réaction de l’Arabie Saoudite sur le marché du pétrole ?

En effet le prix du baril OPEP, publié quotidiennement par le Cartel, a perdu près de 10 dollars le baril depuis le 18 Juin dernier (FIG.I) pour se retrouver à mi Août aux frontières des 100$ le baril, seuil psychologique de déclenchement de puissants conflits d’intérêts. La vie est chère en Arabie, l’inflation y galope, les dignitaires locaux émargeant à la rente pétrolière ne peuvent pas voir leurs revenus s’étioler et leur standing baisser. Ces dignitaires gèrent, avec rigueur, une rente naturelle payée en dollars et non en monnaie locale. (On peut lire les travaux de l’excellent Yanagisawa sur ce sujet)

FIG.I Prix du panier moyen OPEP en dollars le baril depuis le mois de Juin 2011

La dernière réaction de ce pays n’est pourtant pas si lointaine. Entre Juin et Juillet 2012 les prix du panier OPEP étaient passés au-dessous des 100$ le baril pour même atteindre les 90$ (FIG.I), cette incartade du Marché fut immédiatement punie par une baisse des productions saoudiennes de près d’un million de barils/jour durant plusieurs mois (FIG.II), le temps de purger dans le monde quelques stocks de pétrole brut trop abondants et de tendre à nouveau les flux. Les cours du baril retrouvèrent rapidement des niveaux satisfaisants pour le Cartel, autour des 110 dollars le baril.

FIG.II Flux des extractions mensuelles moyennes de pétrole par l’Arabie Saoudite, en millions de barils par jour

Les dernières productions de ce Royaume publiées par l’EIA (je suppose que l’Administration américaine connait très bien les productions saoudiennes) pour le mois de Juillet sont à 9,8 millions de barils/jour en croissance par rapport à celles du mois précédent. Cela signifie que la demande de brut, venant essentiellement d’Asie, a été soutenue au mois de Juillet. Je pense cependant que devant la baisse des prix du baril, l’Arabie Saoudite ne peut pas rester trop longtemps indifférente à ce phénomène, même si son allié américain lui a demandé de laisser chuter les cours pour handicaper un peu plus la Russie et favoriser la relance économique. Il sera donc passionnant de suivre les productions de pétrole saoudien d’ici à la fin de cette année et d’en mesurer les effets sur les cours du pétrole. Comme par le passé récent, ces derniers ne devraient pas rester durablement au-dessous des 100 dollars le baril.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Google a une dent contre les sites utilisant Flash

C’est une véritable déclaration de guerre. En marquant les liens dirigeant vers des sites recourant à Flash, Google les pénalise. Mais qu’a fait le Flash pour s’attirer ainsi les foudres de Google ?

Tout simplement, Flash n’est pas compatible avec un terminal fonctionnant sous iOS ou Androïd et les sites y recourant sont partiellement ou intégralement incompatibles.

Or, iOS est le système d’exploitation d’Apple et Android celui de Samsung. L’essor fulgurant des tablettes et smartphones accroit la quantité de recherches Google effectuées via ces terminaux mobiles. Oui mais voilà, ces derniers ne supportent pas le Flash et un internaute cliquant sur un des liens indiqués par Google suite à une recherche renvoyant à un site sous Flash ne verra pas le site s’afficher correctement.

De quoi énerver l’internaute.  Google, soucieux du bien-être de ses utilisateurs, a donc décidé d’indiquer quels sites sont susceptibles de ne pas fonctionner sous iOS et Android : « Il y a un agacement fréquent pour les utilisateurs web quand des sites exigent des technologies de navigateurs qui ne sont pas supportées par leur terminal. Quand des utilisateurs accèdent à de telles pages, ils ne voient qu’un espace blanc ou du contenu manquerait sur une bonne partie de la page. A partir d’aujourd’hui, nous indiquerons aux internautes quand nos algorithmes détectent des pages qui ne fonctionneraient pas sur leurs appareils. »

Le taux de clic de ces sites risque de chuter fortement, une pénalité qui va « encourager » les sites à utiliser le HTML 5 et le Responsive Design. Sympa, Google oriente vers deux sites pour ceux qui souhaitent se convertir au développement efficacement. Merci Google.

La chasse au Flash est ouverte !

Par Audrey Loubens

Rappel de boissons Mars, Snickers, Milky Way et Bounty, en raison d’une bactérie

Les produits concernés sont les boissons Mars Milk, Snickers Shake, Milky Way Milk et Bounty Drink, en bouteilles de 350 millilitres à bouchon sport, et dont les dates limites de consommation sont comprises entre le 19/12/2014 et le 11/04/2015.

Ces produits sont fabriqués par la société allemande Milchwerke Mittelelbe GmbH.

« Nous avons décidé de retirer de la vente ces produits par précaution car leur consommation pourrait entraîner des risques pour la santé, dus à la possible présence d’une bactérie connue sous le nom de bacillus Subtilis », annonce la compagnie dans un communiqué.

Cette bactérie est considérée comme peu virulente mais peut entraîner dans certains cas des intoxications alimentaires.

« Il est demandé aux personnes qui détiendraient ces produits de ne pas les consommer », ajoute Mars Chocolate Drinks, qui précise avoir « pris contact avec les autorités pour (s’)assurer de suivre toutes les mesures appropriées ».

Le service consommateurs de la société est joignable au 09 69 32 06 80.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un rendement exceptionnel avec du méthanol fabriqué à partir d’acide formique

50%. C’est le rendement obtenu par les équipes de l’Iramis du CEA dans la production de méthanol grâce à des catalyseurs innovants. Pour doper la performance du procédé, les scientifiques ont développé des catalyseurs à base de ruthénium. Un choix de matériau payant puisque le remplacement de l’Iridium, premier catalyseur utilisé jusqu’alors,  par le ruthénium est très avantageux d’un point de vue économique, le ruthénium étant nettement moins cher que l’iridium. De plus, les catalyseurs à base d’iridium ont un rendement de seulement 2%.  Or, les résultats obtenus avec un catalyseur à base de ruthénium permettent d’atteindre un rendement de 50%.

Les scientifiques ont réussi à montrer que l’espèce active en catalyse était un complexe hydrure de ruthénium capable de redistribuer correctement la liaison C-H de l’acide formique. Ainsi, trois molécules d’acide formique aboutissent à la création du méthanol et de deux molécules de CO2. Cette méthode affiche un bilan carbone favorable avec trois molécules de CO2 pour fabriquer trois molécules d’acide formique :

3 CO2 donnent 3 molécules d’acide formique qui, grâce au catalyseur à base de ruthénium, donnent 1 molécule de méthanol, 2 de CO2 et de l’eau.

Publiés dans Angewandte Chemie, ces travaux donnent une nouvelle direction à la fabrication de méthanol à partir d’acide formique. Sachant que le méthanol est impliqué dans la fabrication de carburant à base de ressources renouvelables, cette approche apparait comme crédible et efficace pour utiliser le CO2 comme source d’énergie.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Une voiture qui roule grâce à des électrolytes !

Si les batteries à flux sont déjà utilisées pour les systèmes de stockage d’énergie éolienne et solaire domestiques, elles n’avaient pas encore tracé leur route jusqu’aux véhicules électriques. C’est désormais chose faite grâce au prototype Quant e-Sportlimousine, qui sera prochainement décliné en véhicule de série. Les premiers tests du prototype viennent d’être autorisés sur les routes publiques européennes par Tüv Süd.

Ce prototype a tout d’une Supercar. Doté d’une carrosserie en fibre de carbone, ses dimensions sont atypiques (5,24 x 2 mètres), ce qui lui permet d’embarquer 4 sièges. Propulsé à l’eau dopée aux électrolytes, ce véhicule atteint 100 km/h en 2,8 secondes et présente une belle pointe à 349 km/h. 

Les batteries à flux combinent les aspects d’un accumulateur électrochimique à ceux d’une pile à combustible. La voiture dispose ainsi de deux réservoirs d’électrolytes liquides. Ces fluides électrolytiques sont pompés à partir de réservoirs à travers la cellule (la nanoFLOWCELL), où se réroule une « combustion froide », au cours de laquelle les processus d’oxydation et de réduction se produisent en parallèle. La réaction d’oxydo-réduction génére alors un courant l’électrique qui alimente les 4 moteurs électriques disposés dans chaque roue. Le prototype pèse tout de même 2,3 tonnes, avec ses deux réservoirs de 200 litres pleins.

Lorsque les électrolytes sont « déchargés », ils suffit de les pomper en dehors des réservoirs et de les remplacer par des électrolytes fraîchement concentrés. La charge est alors rapide; il suffit simplement de recharger les réservoirs, comme on le ferait pour des véhicules à essence. Le liquide déchargé pourra quant à lui être à nouveau rechargé de manière « propre » grâce à des éoliennes ou des panneaux solaires.

Quels avantages par rapport aux batteries acide-plomb ou lithium-ion?

Outre leur toxicité, l’inconvénient principal des batteries plomb-acide utilisées dans les voitures à essence et diesel réside dans leur faible capacité énergétique, à environ 30 Wh/kg. De plus, à cause de leur « effet mémoire », elles perdent rapidement leu capacité de charge après 500 cycles de charge et doivent être remplacées. Les batteries lithium-ion ont quant à elles une capacité de charge 4 fois supérieure, égale à 120 Wh/kg, et  résistent à environ 1 000 cycles de charge. Enfin, les batteries à flux les plus répandues ont la même densité de puissance, mais sont beaucoup plus durables : elles peuvent atteindre 10 000 cycles de charge sans effet mémoire notable.

Néanmoins, grâce à une combinaison rigoureuse de sels métalliques (sans métaux précieux ni terres rares, assure le constructeur) et de structures cristallines à très haute concentration, la nanoFLOWCELL de la Quant e-Sportlimousine va beaucoup plus loin. Sa capacité de charge est de 600 Wh/kg, soit 5 fois plus que les batteries lithium-lion des technologies actuelles. Un autre avantage est à noter : elles ne se déchargent que très lentement. Lorsque la voiture n’est pas utilisée, le taux de décharge est en effet de moins de 1 % par jour. 

Le prototype Quant e-Sportlimousine présente deux réservoirs de 200 litres à bord. Il emporte donc une énergie égale à 200 fois 600 Wh/L, soit 120 kWh au total. En consommant environ 20 kWh/100 km, la voiture aura donc une autonomie pouvant aller jusqu’à 600 km.

« Les avantages de la nanoFLOWCELL résident dans sa densité de charge élevée, sa densité de haute performance, et son faible poids par rapport aux systèmes de stockage d’énergie conventionnels. En outre,elle ne contient pas de substances nocives, pas de pièces mobiles, et elle est très efficace », résume Nunzio La Vecchia, PDG et directeur technique de NanoFlowcell.

Pour l’instant, le prix d’une recharge n’est néanmoins pas communiqué. Pas plus que celui de ce véhicule, mais l’addition promet sûrement d’être salée !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Interview expert : « Le management a besoin d’être plus agile, plus ouvert et plus curieux »

En quelques mots, qu’ est-ce que les réseaux et la révolution digitale change en termes de management ? De gouvernance ?

La révolution numérique et les réseaux fluidifient et accélère la circulation de l’information en multipliant les supports, les canaux et les sources.

Dans ce contexte, le management doit être capable d’exploiter la valeur de ce capital informationnel pour préciser sa vision, affiner sa stratégie et créer les capacités d’engagement au service de la performance économique et sociale de l’entreprise.

Les réseaux compliquent la donne du simple fait qu’aujourd’hui c’est moins « la possession » de l’information qui est clef que la capacité à la capturer, l’identifier dans des flux denses, ininterrompus et rapidement l’évaluer.

Le management a besoin d’être plus agile, mais également plus ouvert et plus curieux. Il va inscrire ses actions dans une stratégie d’échanges, ce qui en termes de gouvernance appelle à plus de transparence, de bienveillance et probablement d’humilité pour créer les conditions de la confiance. Il doit savoir utiliser les réseaux et s’entourer des meilleurs hommes pour évaluer avec pertinence les idées afin de trouver les relais de croissance et les « nouveaux » modèles d’affaires adaptés à l’économie numérique.

Dans son livre « Petite Poucette », Michel Serres annonce la fin du savoir, des experts et des décideurs, la révolution numérique annonce-t-elle aussi la fin des managers ?

Michel Serres est un philosophe brillant et je ne me permettrais pas de commenter sa vision présentée dans cet ouvrage. Le terme « managers » est parfois équivoque : si on parle des dirigeants qui participent aux comités de direction (la fameuse C suite) et aux conseils d’administration, dans des rôles « de gestionnaires » ou de « guides », je ne pense pas qu’ils vont disparaître de sitôt ; par contre, il est probable que la manière dont ils vont agir va évoluer vers plus de transparence et d’ouverture face à une responsabilité accrue du simple fait d’une plus grande « visibilité » donnée à leurs décisions et réalisations. Et il y le « middle management », les directeurs de services, les responsables d’unité, d’établissement ou de centres de profit, les chefs « métiers », tous ceux qui au quotidien gèrent des équipes, des opérations, des résultats, des réussites mais aussi parfois des échecs. Ces managers, habitués à être « au front », sont ceux dont le rôle va probablement le plus changer ces prochaines années. Il est possible que ces fonctions disparaissent des organigrammes, mais peu importe ! Le quotidien des femmes et des hommes en charge de ces responsabilités va être différent et il leur appartiendra de le transformer au gré de leurs réelles compétences personnelles.

Dans un monde en réseaux, quelles nouvelles postures le manager doit-il adopter rester légitime ?

Un monde en réseau est un monde constitué d’espaces ouverts dans lesquels tout à chacun a la possibilité de s’exprimer dans le cadre d’une étiquette (gouvernance) essentiellement basée sur le savoir-vivre. Le manager, traditionnellement plus à l’aise dans des communautés « privées », va progressivement se trouver exposé différemment et il doit mettre en œuvre une stratégie efficace.

La légitimité ne se décrète pas, elle vous est reconnue par vos pairs, vos employés, notamment, et il est important pour les managers de trouver la juste mesure en terme d’attitude et de discours sur les réseaux.

Il y a des qualités qui restent « intangibles » bien que parfois peu valorisées au quotidien, telles que l’empathie ou encore la bienveillance. Dans un monde connecté, la compétence ne suffit plus, le manager doit montrer sa capacité à s’entourer des meilleurs et à « donner envie » à ses équipes dont l’engagement est clef. On ne demande pas à un manager d’être omniscient, ni d’avoir le don d’ubiquité, par contre son écoute, son ouverture au dialogue et son savoir être sont les atouts qu’il doit être capable de mettre en valeur.

En résumé, compétent, habile, humain, simple, avec de l’autorité et sachant prendre des décisions, telles sont les qualités essentielles du manager dans un monde de réseau.

Comment l’entreprise peut-elle tirer profit des réseaux et se transformer pour trouver de nouveaux relais de croissance ?

Pour moi, il ne fait aucun doute que les réseaux et le monde connecté sont porteurs d’une valeur inestimable et largement sous évaluée et encore mal ou peu exploitée. Bien évidemment, la valeur est toujours étroitement liée aux objectifs des individus et des organisations, mais il n’empêche qu’au delà des singularités et des opportunismes, il est une condition essentielle pour « exploiter » ce gisement d’information que sont les réseaux : l’ouverture d’esprit !

Les réseaux offrent aux entreprises des espaces pour trouver des nouvelles idées, valider des options, mette en œuvre une démarche innovante, apprécier un modèle d’affaire, un produit ou encore un service, gagner de nouveaux marchés, identifier des talents, trouver des fonds, par exemple.

Mais l’entreprise doit approcher les réseaux avec une démarche différente que celle qu’elle a pu mettre en œuvre jusque là.

Elle doit s’ouvrir, montrer la pertinence de sa proposition de valeur sans arrogance et avoir une stratégie solide au regard des objectifs qui sont les siens.

L’entreprise peut créer et animer des espaces communautaires, lancer et participer à des discussions déjà existantes, diffuser ses messages et illustrer sa proposition de valeur, rejoindre des groupes qui peuvent lui être utiles par exemple. Quelle que soit la stratégie retenue, l’entreprise – par ses porte-parole – se doit d’être à l’écoute, humble et pertinente pour créer un intérêt autour d’elle. Les relais de croissance sont les offres de produits et/ou de services qui se vendront demain et aujourd’hui, plus que jamais, il est difficile de les imaginer sans le concours explicite de ceux à qui ils sont destinés, particuliers ou entreprises.

Interview de Claude Super réalisée par Marion Breulleux

Claude Super :

Claude Super est Expert en gouvernance informationnelle et stratégie social business. Il travaille avec de nombreuses entreprises et organisations en Europe dans le cadre de projets de valorisation des réseaux et des espaces collaboratifs. Il contribue au choix des solutions les mieux adaptées pour répondre aux besoins d’efficacité, d’animation, de gestion et de performance. Il anime également un blog dédié aux technos 2.0 et à l’entreprise de demain.
Lors du Panorama des Innovations managériales qui se tiendra les 1er et 2 octobre prochains, il interviendra sur le sujet « À l’ère des réseaux, le management doit se réinventer ! »

Source : management.efe.fr/2014/07/07/management-besoin-detre-agile-ouvert-curieux

Manager en mode start-up : « Développer un sentiment de fierté chez chaque collaborateur est primordial »

Pouvez-vous définir un quelques mots la culture managériale start-up ?

Les principales caractéristiques d’une start-up sont le changement, la vitesse, la circulation rapide de l’information et la capacité à se développer en l’absence de process notamment d’un point de vue managérial et RH.

Chez Videdressing, nous sommes dans un contexte de forte croissance. Le nombre de collaborateurs augmente très vite. Nous sommes passés de 12 à 80 collaborateurs en 18 mois !

Jusqu’à 20 collaborateurs, la société se gérait sans process définis, et notamment sans process RH.

La culture n’avait pas besoin d’être formalisée, ni même partagée car l’information circulait de manière très fluide. Il n’y avait aucune barrière dans la mesure où tout le monde était au contact direct et permanent des fondateurs

Aujourd’hui, nous nous posons beaucoup de questions sur la manière de maintenir l’esprit des débuts, sur la mise en place des process. Avec 80 collaborateurs, il est clair que le risque de déperdition d’informations est plus grand, que la culture de l’entreprise ne se diffuse plus aussi naturellement. Nous devons définir quels messages nous souhaitons faire passer aux collaborateurs et comment les faire passer.

Évoluer dans l’univers des start-up nous permet d’accéder facilement à des entrepreneurs qui ont connu le même développement rapide et qui peuvent nous conseiller sur de nouvelles actions en mettre en œuvre à l’instar de Frédéric Mazzella, P-DG de Blablacar par exemple.

Ce qui est stimulant dans une start-up, c’est de savoir que dans un an et demi, nous serons 200 et devrons tout revoir ! Le changement permanent, la vitesse, cela nous oblige à rester agiles et à nous adapter rapidement.

Comment préserver l’agilité et l’engagement des salariés à mesure que l’entreprise s’agrandit ?

Notre plus grand challenge dans cette phase de forte croissance c’est la mise en place d’un middle management et d’une organisation par service. Cette organisation, nous pousse à être beaucoup plus vigilants sur la circulation et le partage d’informations entre managers et entre services. L’accès à l’information, la connaissance des projets en cours sont les fondements de l’engagement des collaborateurs.

Actuellement, chaque manager organise régulièrement des réunions d’information pour assurer un niveau d’information égal dans chaque service. Moi-même, je présente chaque mois les résultats de l’entreprise à tous les services. C’est un moment privilégié pour rappeler où nous en sommes et où nous voulons aller.

Rappeler sans cesse notre objectif et notre vision pour l’avenir est essentiel pour maintenir l’engagement de tous nos collaborateurs.

A cet égard, nous nous inspirons de ce que Frédéric Mazzella a mis en place chez Blablacar. Nous allons remettre en place une réunion réunissant tous les collaborateurs. Lors de cette réunion bimensuelle chaque service présentera à tour de rôle ses réalisations des 3 derniers mois et ses projets pour les 3 prochains.

Notre objectif est de fluidifier au maximum la circulation de l’information, de favoriser la cohésion entre services et le respect du travail des autres équipes. C’est également un moyen de responsabiliser chaque manager puisqu’ils prennent un engagement devant l’ensemble des collaborateurs et plus seulement vis-à-vis de leurs N+1.

Notre croissance nous pousse à nous organiser en services. Pour autant, il est impératif pour nous de préserver la transversalité, la coopération entre services et d’éviter la création de silos. Chacun doit comprendre en quoi son activité peut impacter le travail des autres et être dans un état d’esprit tourné vers l’entraide. Car c’est sur ces valeurs que repose notre agilité !

Quelle vision transmettez-vous aujourd’hui aux managers et aux collaborateurs qui rejoignent Videdressing ?

Nous essayons de transmettre notre ambition et rappelons à chaque nouveau collaborateur qu’il intègre une des success story française et mondiale. Nous avons un objectif élevé, c’est pourquoi, développer un sentiment de fierté chez chaque collaborateur est primordial.

Nous cherchons également à cultiver l’adaptabilité car tout change très vite. Nous accueillons régulièrement de nouveaux arrivants, les missions, les postes peuvent changer du jour au lendemain.

Nous vivons dans un changement permanent et les collaborateurs doivent être prêts à relever ces défis ensemble.

Quelles sont les bonnes pratiques dont les grandes entreprises ou les managers de service peuvent s’inspirer pour casser la routine ?

C’est une question complexe car chaque organisation a sa propre histoire, sa propre culture. Il y a des bonnes et des mauvaises pratiques dans toutes les entreprises.

Cela étant, je perçois deux éléments différenciants entre une start-up et une grande entreprise : la passion et l’effervescence ainsi que le changement quasi permanent des postes et des missions.

Chez Videdressing, nous sommes tous passionnés et nous partageons notre passion tous les jours. Transmettre une passion, une excitation quant au projet de l’entreprise est un vecteur essentiel d’engagement et de mobilisation des collaborateurs. Ce n’est pas aussi facile pour des cadres travaillant dans une grande entreprise où le sentiment de participer à un projet collectif peut être plus dilué. Le dirigeant, les managers ont un rôle fondamental à jouer dans la transmission de ce sentiment.

Une des caractéristiques des start-up qui peut inquiéter des collaborateurs ou des managers de grandes entreprises est l’évolution permanente des postes et des missions. Dans une start-up, voir son poste changer est considéré comme positif et bénéfique. Accueillir ce changement, l’encourager en tant que manager me semble parfois plus difficile dans une grande structure où le périmètre des postes est plus stable.

Nous avons également à apprendre des grandes entreprises car nous allons grandir et allons découvrir progressivement de nouvelles contraintes propres aux grandes structures. Le défi est de faire attention à mettre en place des process tout en préservant notre nature et notre histoire.

Interview de Meryl Job (Fondatrice, CEO de Videdressing) et Renaud Guillerm (Co-fondateur, Président de Videdressing) par Marion Breulleux

Source : management.efe.fr/2014/07/25/manager-en-mode-start-up

Dialogue de sourds : culture du mépris

Deux comédiens rejouent une scène classique lors d’une fusion. Deux managers doivent collaborer pour réussir le projet  de réorganisation de l’entreprise. Que pensez-vous de leurs chances de réussite ?

Avez-vous remarqué que pour Paul, qui illustre la culture de son entreprise d’origine, la priorité est l’humain ? Tandis que pour Marie, qui vient d’une autre entreprise, la priorité est la tâche à réaliser ? Chacun d’entre eux souligne, selon sa culture, une nécessité pour réussir le projet. Problème : chacun d’entre eux agit sur la défensive. Leur confrontation porte préjudice au projet de l’entreprise. Pour le succès du projet, il est important qu’ils acquièrent une compétence indispensable : l’approche constructive. 

Les nouveaux comportements qui en découlent vont leur permettre de combiner leurs talents respectifs. En l’absence de nouvelles compétences relationnelles, et compte tenu de leur attitude défensive, nous pouvons êtres inquiets pour l’avenir de leur projet.

 

Par Dino Ragazzo

Reportage vidéo – La peinture qui dépollue

L’investissement en recherche est le principal atout de l’innovation. Les chercheurs de l’Onip ont conçu mieux qu’une peinture qui ne pollue pas, une peinture qui absorbe la pollution. Le corps de la formule : du carbonate de calcium et du titane.

« L’idée, c’était non seulement de fabriquer des produits peu émissifs donc avec une étiquette A+, mais aussi de participer à la dépollution de l’air intérieur, parce que la pollution de l’air intérieur vient essentiellement de tout ce qui est produit d’ameublement, cuisson ménagère, etc. Cela émet beaucoup de polluants, les dalles de plafond également, les moquettes, certains textiles, la fumée, les fruits lorsqu’ils pourrissent, surtout les pommes, elles émettent alors énormément de formaldéhydes. » explique Patrick Verlhac, le Directeur du laboratoire.

 

Réalisation : François Demerliac
Production : Universcience, Fondation de la Maison de la chimie, Virtuel

Source : universcience.tv

La Chine va placer une sonde en orbite autour de la Lune d’ici à fin 2014

La mission sera lancée avant la fin de l’année, a indiqué l’administration d’Etat chargée des programmes scientifiques pour la Défense nationale chinoise, dans un communiqué publié dimanche.

La sonde lunaire a été acheminée à son centre de lancement, dans le Sichuan (sud-ouest), a-t-elle poursuivi.

Un tel module orbital, pour revenir sur Terre, doit être conçu de façon à résister aux très hautes températures provoquées par les frictions à son entrée dans l’atmosphère terrestre.

Cette sonde permettra de mettre à l’épreuve des technologies qui seront ensuite utilisées pour la mission Chang’e-5 (du nom de la déesse de la Lune dans la mythologie chinoise), qui visera à collecter des échantillons du sol lunaire, selon l’agence Chine nouvelle.

Pékin, qui accuse un lourd retard technologique, considère son onéreux programme spatial comme un symbole de l’ascension de la Chine parmi les puissances mondiales.

L’an dernier, un module d’exploration chinois — surnommé le « Lapin de jade » (« Yutu » en mandarin) — s’était posé en douceur sur la Lune, avant de connaître quelques problèmes mécaniques. Il s’agissait de la mission Chang’e-3.

Cet alunissage en douceur représentait un exploit que seuls les Etats-Unis et l’URSS étaient parvenus à réaliser auparavant, et qui n’avait plus été accompli depuis plus de 37 ans.

Le programme spatial chinois, supervisé par l’armée, prévoit également d’installer une station permanente en orbite avant 2020, pour, à terme, envoyer un homme sur la Lune.

Un haut responsable scientifique cité par les médias officiels avait indiqué en 2012 que la Chine prévoyait de prélever des échantillons sur Mars avant 2030.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

La production de viande bovine coûte cher à l’environnement

Certains types d’élevage ont de lourdes conséquences sur notre environnement. Des chercheurs de la revue scientifique Proceedings of the National Academy of Sciences ont conclu dans un rapport que la production de bœuf nécessitait 28 fois plus de terres et 11 fois plus d’eau d’irrigation que l’élevage de porcs, de volailles, d’œufs ou de produits laitiers.

« L’analyse comparative nous permet de connaître avec exactitude l’impact qu’ont les élevages bovins, porcins, avicoles, et la production de lait et d’œufs en termes d’utilisation des terres et de l’eau, de rejets d’azote réactif et les émissions des gaz à effet de serre », a expliqué à la BBC le professeur Gidon Eshel du Bard College de New York.

Les scientifiques ont calculé la quantité de ressources nécessaires pour toute la nourriture consommée par le bétail destiné à l’abattage. Ils se sont donc penchés sur la quantité de foins, de fourrage et de concentrés comme les germes de soja indispensables pour la production d’un kilo de viande. Ils ont analysé aussi les émissions de gaz à effet de serre engendré par le fourrage des animaux, mais également par leur digestion et par leur fumier.

Outre les répercussions sur la terre et l’eau, les cheptels bovins libèrent cinq fois plus de gaz à effet de serre et consomment six fois plus d’azote que la production d’œufs ou de volaille.

Taxe européenne sur la viande ?

Les autorités agricoles suédoises ont recommandé en 2013 de mettre en place une taxe à l’échelle européenne pour réduire la consommation de viande. Le ministère de l’agriculture suédois a indiqué que cette mesure permettrait de réduire l’impact de la production de viande sur l’environnement.

Marit Paulsen, eurodéputée suédoise et membre de la commission sur l’agriculture et le développement rural, a expliqué à EurActiv qu’elle était en faveur d’une taxe supplémentaire sur la viande, même si elle représente le groupe libéral au Parlement européen. Elle a ajouté que le prix de la viande devrait être plus élevé pour protéger l’environnement.

« Je pense que la viande deviendra plus chère. Je ne sais pas quelle manière choisir, mais, si nous devons ajouter une taxe, allons-y. Mais, bon dieu, entamons maintenant une réelle discussion tout en gardant en tête que nous ne pouvons pas nous permettre de dépenser autant d’argent pour produire de la viande », a-t-elle déclaré.

Source : EurActiv.com – traduction de l’anglais par Aubry Touriel 

Et aussi dans les
ressources documentaires :

Quand un mégaséisme au Chili fait trembler la glace de l’Antarctique

Six heures après le puissant tremblement de terre ayant secoué les côtes chiliennes, des détecteurs installés dans l’Antarctique occidental ont enregistré de petites secousses, fournissant pour la première fois aux scientifiques la preuve que la plus grande couche de glace du monde peut être affectée par des séismes lointains mais très puissants, affirment les auteurs de l’étude.

Douze des 42 stations de mesures qui jalonnent le continent glacé ont montré les « signes clairs » d’un pic d’activité sismique de haute fréquence, synonyme de fracturation de la glace près de la surface, expliquent les chercheurs dans la revue britannique Nature Geoscience.

Le mégaséisme qui a frappé la région chilienne de Maule le 27 février 2010 a atteint une magnitude de 8,8, ce qui en fait l’un des plus puissants connus à ce jour. Il a fait plus de 500 morts et provoqué des dégâts estimées à plus de 22 millions d’euros.

La secousse avait déclenché des micro-séismes qui avaient été ressentis jusqu’en Amérique du Nord, au fur et à mesure que l’onde de choc se diffusait dans l’écorce terrestre et provoquait des mouvements dans certaines failles.

Les géologues cherchent depuis longtemps à comprendre comment les calottes glaciaires du Groenland et d’Antarctique – dont le sous-sol rocheux est par ailleurs considéré comme relativement calme du point de vue sismique – réagiraient à des séismes massifs dans un autre point du globe.

Voici encore quelques années, ils ne disposaient d’aucune explication satisfaisante, jusqu’au déploiement d’un réseau de détecteurs sur ces nappes de glace.

Même si les signaux reçus après le séisme chilien de 2010 sont restés globalement peu précis, de nets signes d’activité ont été enregistrés dans une station de surveillance des Monts Ellsworth, dans l’Ouest Antarctique, qui a identifié la signature caractéristique d’un séisme. Pourtant, d’autres stations voisines ne percevaient dans le même temps rien de concluant.

Selon Zhigang Peng, de l’Institut de Technologie de Géorgie à Atlanta (USA), ces incohérences apparentes sont vraisemblablement liées au fait que les secousses provenaient de la couche de glace couvrant la région, et non pas du sol rocheux situé en-dessous.

« Nous n’en sommes pas sûrs à 100%, mais nous pensons que les signaux sismiques étaient émis par la fracturation de la glace au sein de la calotte, probablement très près de la surface », a-t-il expliqué à l’AFP.

Ces données suggèrent que des pans entiers de la calotte glaciaire peuvent être fragilisés par des mégaséismes, même distants de milliers de kilomètres. Mais il est nécessaire de poursuivre les recherches pour mieux comprendre le phénomène et savoir par exemple si un tel séisme est capable d’ouvrir une crevasse en Antarctique ou d’y accélérer la progression d’un glacier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Qui a abattu le vol MH17 de la Malaysia ?

Le 17 juillet, un Boeing 777 de la Malaysia Airlines est abattu en plein vol dans le ciel ukrainien faisant 298 morts. Si le fait qu’un missile est à l’origine de l’accident est acquis, des doutes demeurent sur le type de missile et surtout sur qui l’a tiré. Car ce terrible accident a eu lieu au dessus d’une zone de combat entre l’armée ukrainienne et les insurgés pro-russe. C’est donc une véritable guerre de communication que se livrent les diverses parties. Les experts détachés sur place vont devoir réunir de solides preuves pour faire éclater la vérité, sans contestation possible.

Un missile sol-air pointé par les américains

Dans la joute oratoire qui oppose ukrainiens et russes, le type de missile mis en jeu a toute son importance. D’un côté, Moscou indique qu’il s’agirait d’un missile air-air provenant d’un avion de chasse ukrainien, tandis que les Américains ont rapidement mis en cause un missile sol-air tiré d’une batterie mobile. En effet, on sait que les Russes mais aussi les Ukrainiens disposent tout deux de missiles «  Buk » de moyenne portée, capables d’atteindre un avion volant à 10 000 mètres d’altitude comme c’était le cas pour le Boeing abattu. D’autres experts confirment cette hypothèse expliquant que la taille des trous d’obus est compatible avec celle attendue avec des missiles sol-air « Buk » de type SA-11 ou SA-20. Barack Obama a précisé que le missile avait été tiré depuis une zone sous le contrôle des séparatistes pro-russes. Une information probablement obtenue à partir des photos de satellites espions, même si aucun cliché n’a été rendu public à ce jour.

De quels indices disposent les experts ?

Si les rebelles pro-russes ont remis les deux boîtes noires de l’avion de ligne à des experts malaisiens, ils n’ont toutefois pas assuré la préservation des débris de l’avion. Les Australiens, dont 28 compatriotes étaient à bord du vol n’ont pas hésité à accuser les dissidents pro-russes de maquiller les preuves, les combattants n’ayant pas hésité à piétiner les débris avec des engins de chantier. Or, les boites noires indiqueront ce qui s’est passé dans les dernières minutes avant le crash. Mais elles n’aideront pas à savoir d’où provenait le tir par exemple, ni qui a tiré. La qualité des pièces de l’avion est essentielle pour apporter des réponses. A l’image d’une pièce d’armature de carlingue qui porte des traces d’impacts et de très forte chaleur typiques d’un missile sol-air.

Les séparatistes pro-russes fortement soupçonnés

Comment savoir qui est l’origine du tir dans cette région en guerre ? Les pro-Russes avaient déjà abattu des avions militaires ukrainiens et ne cachaient pas leur volonté de bannir tout appareil ukrainien du ciel. De plus, ils ne disposent pas eux-mêmes d’avions militaires, les Ukrainiens semblent donc n’avoir  aucun intérêt à utiliser des armes de défense aérienne. Néanmoins, en l’absence de preuves, impossible de désigner formellement un coupable.

Les combats rendent le travail des enquêteurs compliqué

Les enquêteurs ont dû cesser leur travail sur le site du crash à cause de violents affrontements. Les 142 experts de la police néerlandaise ont dû être rapatriés vendredi 8 aout. Ces derniers ont indiqué ne rendre leurs résultats préliminaires que d’ici plusieurs semaines.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

La NASA dévoile les caractéristiques du rover Mars 2020

On en sait plus sur le rover de la mission Mars 2020. La Nasa vient de dévoiler sa sélection des instruments scientifiques qui feront partie de l’aventure. Ainsi, le Rover emportera avec lui pour 130 millions de dollars d’équipements, avec pour objectif d’analyser la géologie de la planète rouge et de traquer d’éventuelles traces de vie.

Un Planetary instrument for X-ray lithochemistry (PIXL) lui permettra d’analyser la composition des roches présentes  au sol, un Scanning habitable environments with Raman and luminescence for organics and chemicals (SHERLOC) détaillera la minéralogie du site. Le Radar imager for Mars subsurface exploration (RIMFAX) analysera ce qui est caché sous la surface. Le Mars environmental dynamics analyzer (MEDA), bardé de capteurs, servira à mesurer de nombreux paramètres de base comme la température, la pression, l’humidité ou encore la vitesse du vent.

SuperCam mast unit, une caméra dotée de spectromètres. Positionnée en haut du mât, cette SuperCam servira à sélectionner les échantillons les plus prometteurs. Cet instrument a été mis au point par le Centre national d’études spatiales (CNES) et l’équipe américaine du Los Alamos national laboratory. Il faut dire que les Français ont déjà de l’expérience dans ce domaine puisqu’ils avaient déjà conçu la ChemCam embarquée sur Curiosity.

Mais pour la mission Mars 2020, la Nasa innove avec un instrument capable de produire de l’oxygène à partir du dioxyde de carbone présent dans l’atmosphère martienne. Le succès du Mars oxygen ISRY experiment apparait comme une condition sine qua non à la conquête de Mars par l’homme. D’ailleurs, l’administrateur de la Nasa Charles Bolden est confiant dans le fait que Mars 2020 « va permettre d’étendre notre quête de vie dans l’Univers et d’offrir des occasions de développer de nouvelles capacités dans les technologies d’exploration ». Un objectif confirmé par William Gerstenmaier, administrateur associé à la Nasa qui précise que la mission « […] aidera à comprendre l’environnement auquel les astronautes feront face et à tester des technologies dont ils auront besoin avant d’atterrir, d’explorer et de revenir de la planète rouge ».

Regardez cette vidéo détaillant les objectifs de Mars 2020 :

Par Audrey Loubens, journaliste scientifique

 

Reportage vidéo : quels sont les bénéfices apportés par les jeux vidéos ?

dfef

Réalisation : Pascal Goblot
Production : Universcience

Source : universcience.tv

NIWeek 2014 : résumé du Keynote #3

Un keynote animé en grande partie par Eric Starkloff, charismatique vice-président de NI, et qui reprend dans une certaine mesure ce qui a déjà été dit lors de l’Academic Forum Keynote de lundi : l’importance pour National Instruments de former les ingénieurs de demain.

Et ce non seulement lorsqu’ils sont étudiants, avec comme arme absolue MyRIO, mais même dès l’enfance, avec LabVIEW for LEGO MINDSTORMS, ou encore NI miniSystems, qui permet de simuler le recueil de données sur un décolage d’hélicoptère ou un tremblement de terre miniaturisé.

L’occasion du démonstration « rock’n’roll » du robot sous-marin omnidirectionnel de Sepios, l’équipe qui a gagné le Student Design Contest 2014, conçu sur une base MyRIO, après prototypage sur LEGO MINDSTORMS puis via LabVIEW.

Invités suivant, l’équipe du Massachusetts Institut of Technology (MIT) est venue présenter ses travaux concernant un microscope ultra puissant permettant une vision en temps réel à l’échelle nanométrique, avec deux FPGA et un PXI Express. Invention qui leur a permis de remporter l’Engineering Impact Award 2014.

 

Ci-dessusEric Starkloff

 

L’interconnexion des machines

Traditionnellement, le dernier keynote se termine par l’intervention d’un invité de prestige. Changement cette année, puisque c’est un débat d’idée centré sur l’utilisation des nouvelles technologies à l’avenir, internet des objets et big data surtout, qui a conclu cette année le dernier keynote, avec pour participants :

 

  • Mark Hatch, patron de TechShop, qui compte révolutionner l’accès aux équipements techniques en mettant à disposition de ses membres, moyennement un abonnement, du matériel de pointe pour les aider à monter leurs projets ;
  • Joe Salvo, directeur de General Electric Global Research, qui prédit une interconnexion des objets nous entourant semblable à celle déjà établie entre les individus via les réseaux sociaux (les fans de science-fiction catastrophiste apprécierons) ;
  • Gerhard Fettweis, de l’université de Dresde, qui dans le même ordre d’idée, prédit une explosion de la demande en Wireless dans la décennie à venir, et donc un sacré challenge pour les ingénieurs pour répondre à cette offre, en développant des réseaux toujours plus puissants.

 

Voilà, NI Week 2014 c’est fini, rendez-vous du 3 au 5 aout 2015 pour la prochaine édition !

Pour tout savoir sur NIWEEK 2014

Par Bruno Decottignies

Facebook lance une application VIP

Facebook serait-il jaloux de twitter ? C’est ce qu’on pourrait penser devant les efforts déployés dans le domaine du divertissement pour supplanter le réseau social aux messages limités à 140 signes.

En effet, beaucoup de stars possèdent un compte twitter, et Mark Zuckenberg aimerait bien les pousser hors du nid, direction Facebook de préférence. D’où l’idée de créer une application qui facilitera les échanges entre les personnes connues et le commun des mortels. C’est ce que permet Mentions, tout droit sortie du Créative Labs.

Réservée aux Very Important Personns, Mentions les autorise à s’immiscer dans des conversations sur Facebook, notamment celles de leurs fans. Imaginez la surprise que cela pourrait susciter si Rihanna, personnalité la plus populaire sur Facebook avec 85 millions de fans,  s’invitait à l’improviste lors d’échanges de fans. Ça serait le buzz assuré !

Mais l’appli ne se limite pas à faire de la veille en suivant les conversations de fans, Mentions permet de partager des photos et de proposer des sessions de tchat en direct. Cela suffira-t-il à séduire les stars ? Facebook chiffre à 800 millions le nombre de personnes fans d’une personnalité. Avec près de 1.3 milliards d’adeptes, Facebook pourrait bien faire exploser ces interactions et rendre les stars plus accessibles.

Facebook s’est déjà offert Instagram en 2012 pour la modique somme de 715 millions d’euros, un premier pas dans la maîtrise des échanges initiés par les personnalités, très friandes de la plateforme de partage de photos. Avec Mentions, Facebook marche ouvertement sur les plates-bandes de twitter, spécialisé dans le divertissement et la social TV. 

Par Audrey Loubens

Facebook teste un bouton « J’achète »

Toujours à la recherche de nouvelles façons pour monétiser Facebook, Mark Zuckenberg a décidé d’expérimenter une nouvelle fonctionnalité : permettre aux internautes d’acheter directement via le réseau social. Comment ?

Grâce à un judicieux bouton « J’achète » accessible sur la page d’une publicité. L’objectif affiché est d’aider les entreprises à améliorer leur chiffre d’affaire, Facebook ayant indiqué qu’il ne prendrait pas de commission sur ces transactions. 

On imagine toutefois aisément que Facebook espère doper son propre chiffre d’affaire lié aux ventes publicitaires. Si le bouton « J’achète » favorise effectivement l’acte d’achat de façon notable, les commerçants seront plus susceptibles de payer pour de la publicité diffusée sur le réseau. Dans cet esprit, acheter par ce biais s’avère très simple. En cliquant sur « J’achète », le client achètera le produit « directement auprès de l’entreprise, sans quitter Facebook », comme indiqué sur leur site. Un procédé original mais qui fluidifie l’acte d’achat, limitant les abandons de paniers, si fréquents dans le e-commerce.

Facebook assure garantir la sécurité des données bancaires qui ne seront communiquées à personne, pas même à l’entreprise commercialisant le produit acheté. Le client pourra les laisser stocker en ligne pour des achats ultérieurs ou non.

Après avoir débauché David Marcus, ex-patron de la filiale paypal chez Ebay, et la préparation d’un service de paiement et de transfert d’argent entre utilisateurs, Facebook s’ouvre donc à la finance, capitalisant sur son nombre d’utilisateurs atteignant 1,23 milliards en décembre 2013 et toujours grandissant.

Par Audrey Loubens

Google veut détecter les maladies avant qu’elles ne surviennent !

Après les ballons stratosphériques et les lentilles intelligentes destinées aux diabétiques, c’est un projet encore plus ambitieux que souhaite développer la célèbre firme américaine via son laboratoire expérimental Google X : faire la cartographie moléculaire d’un corps humain en bonne santé. Dantesque même. Pour ce faire, une collecte d’informations génétiques sur plusieurs centaines de personnes et probablement plus par la suite doit avoir lieu.

Le biologiste Andrew Conrad, membre de la Food and Drug Administration (FDA) et reconnu pour avoir participé à l’élaboration d’un système de détection du VIH, est aux commandes de ce projet qui peut s’appuyer sur une équipe de 70 à 100 experts scientifiques (biochimie, chimie moléculaire…).

Le laboratoire a déjà commencé son travail de collecte sur un groupe de 175 individus, leur prélevant des fluides tels que sang, urine, salive et même larme. Comme le souligne le docteur Andrew Conrad, il est nécessaire « de comprendre les mécanismes qui régissent un corps en bonne santé » afin d’en dresser un profil type.

Par suite, la connaissance d’un corps sain et de ses « biomarqueurs de bonne santé » permettra aux scientifiques de faire une comparaison et d’identifier les biomarqueurs à risque.

Le but à terme est de prévenir les maladies ou de les détecter lorsqu’elles sont encore à un stade peu avancé. Cela concerne notamment les maladies cardiaques et les cancers. Une méthode proactive qui pourrait s’avérer efficace d’ici quelques années.

Google s’implante clairement dans le domaine de la santé – nous en parlions récemment avec la plateforme Google Fit – et contribue à la recherche médicale. Que ce soit à travers la société Calico créée en septembre 2013 et spécialisée dans les biotechnologies, avec laquelle Google compte « tuer la mort » ou avec « Baseline Study » le géant de l’internet fait montre d’une grande ambition dans ce domaine.

Toutefois, Andrew Conrad tient a garder les pieds sur terre et précise que l’étude durera bien quelques années. Ce qui est sur le papier une formidable idée, pourrait donc ne jamais sortir des locaux de Google X. 

Par Audrey Loubens

Et aussi dans l’actualité :

Fukushima: Tepco projette de rejeter en mer de l’eau souterraine décontaminée

Depuis le printemps, Tokyo Electric Power (Tepco) pompe de l’eau souterraine en amont des bâtiments, du côté de la montagne, avant qu’elle ne soit contaminée, pour limiter la quantité nouvellement souillée chaque jour. Cette eau, une fois contrôlée, est rejetée dans l’océan voisin.

Les pêcheurs de Fukushima avaient certes donné leur assentiment pour ces opérations de pompage et rejet en mer, mais ils ont mis un an avant d’accepter.

Ils risquent de se montrer encore plus réticents à l’égard du nouveau plan qui consiste cette fois à pomper de l’eau déjà contaminée via 42 puits plus près encore des réacteurs, puis à l’assainir du mieux possible.

« Je pense qu’une majorité des pêcheurs s’opposeront à ce plan », a déclaré à l’AFP Kenji Nakada, un responsable d’une Fédération de pêcheurs de la préfecture de Fukushima.

Un nouveau système de décontamination, plus puissant que l’actuel appelé ALPS, est censé permettre d’extraire l’essentiel des radionucléides que contient cette eau. Ce dispositif supplémentaire, dont la construction a été financée par l’Etat, devrait entrer en service à l’automne. Sa capacité doit non seulement accélérer le traitement de l’eau contaminée, mais aussi pallier les nombreuses déficiences d’ALPS qui, depuis qu’il est utilisé, ne cesse de tomber en panne.

Quelque 400 tonnes d’eau souterraine entrent chaque jour dans les bâtiments du site atomique, augmentant ainsi la quantité d’eau souillée au contact des équipements, eau qu’il faut ensuite récupérer et assainir. Une tâche d’autant plus insurmontable que s’y ajoutent les eaux de refroidissement des réacteurs qui fuient.

Pour le moment Tepco récupère une partie de l’eau et la traite au fur et à mesure, mais ne la rejette pas dans l’océan. Bilan, plus de 1.000 gigantesques réservoirs pleins et pas toujours fiables sont disséminés sur le site, un nombre qui continue de croître au rythme de plusieurs dizaines par mois, ce qui est encore insuffisant.

kh-kap/jlh/ml

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Samsung prépare un casque de réalité virtuelle

Les fuites sur le casque virtuel de Samsung s’intensifient. Nommé provisoirement Gear VR, ce casque permettrait de s’immerger dans une réalité virtuelle via son Smartphone. En effet, le casque ne serait qu’un support sans aucun capteur. Le Gear VR s’appuierait sur les données transmises par le Smartphone, son accéléromètre et son gyroscope notamment. De même, le traitement de données dédié au suivi du mouvement de l’individu se fait grâce au téléphone.

En sous-traitant ainsi de nombreuses fonctions, Samsung peut proposer un casque de réalité virtuelle à moindre coût. Les utilisateurs pourront profiter d’une bande élastique et de coussins positionnés de chaque côté, de quoi garantir un minimum de confort et d’envisager de porter le casque un long moment.

Samsung aurait donc opté pour une conception modulaire, le Smartphone se raccordant au casque via un dock USB 3.0. De plus, les deux photos révélées par le site SamMobile montrent un pavé tactile et l’existence d’un bouton sur le côté du casque. Ce dernier a pour fonction de lancer des applications. Theatre, 360Player et Gallery seront disponibles dès le lancement qui devrait intervenir début septembre à l’occasion de l’IFA, la Foire internationale d’électronique.

Le parfait timing pour faire fleurir des Gear VR sous les sapins.

Ce à quoi ressemblerait le futur casque de Samsung selon le site SamMobile

Par Audrey Loubens, journaliste scientifique

NIWeek 2014 : résumé du Keynote #2

Et pour commencer ce second Keynote, autorisons-nous un cocorico, avec une impressionnante présentation par Sébastien Boria et Bernard Duprieu (regarder l’interview de Bernard Duprieu) du projet Usine du futur, développé par Airbus.

L’idée étant de réduire au maximum les tâches manuelles, notamment les tâche pénibles, par l’utilisation de robots, ou encore en utilisant un système de caméra intégrée dans les lunettes de l’opérateur, renvoyant l’image par Wireless vers un outil détectant, par exemple, les trous dans le fuselage, et les communiquant à l’opérateur, qui peut ainsi directement travailler dessus sans avoir à effectuer un repérage préalable. Un concept nommé Inspection intelligente, et basé sur une plate-forme CompactRIO.

 

Ci-dessus : Bernard Duprieu présente le projet « Usine du futur » piloté par Airbu.

 

L’occasion pour National Instruments de rebondir et de présenter le NI System on Module, un outil de la taille d’une carte bleue ayant des fonctionnalités et des capacités semblables à CompactRIO, mais sans le châssis de celui-ci, et donc destiné aux usages nécessitant une miniaturisation poussée à l’extrême.

CompactRIO toujours, avec le CompactRIO performance controller, qui, dans les grandes lignes, consiste en une augmentation de l’espace FPGA couplé avec le nouveau processeur Intel Atom. Plus de puissance donc, pour plus de rapidité, et donc un gain de temps pour l’utilisateur, au point de permettre une synchronisation parfaite entre outils reliés par ce biais.

Applications dans l’énergie

Bravo à l’équipe de National Grid UK, d’abord pour avoir eu le courage d’entrer sur scène avec des chapeaux de cow-boys, et aussi et surtout pour leur exposé.

Leur problème : réussir à connecter l’ensemble des installations du réseau électrique entre elle pour une gestion optimale du flux, et éviter ainsi les black-out sur l’ensemble de la Grande-Bretagne. En gros, adapter l’offre d’électricité à la demande de façon quasi-instantanée, tout en gérant un réseau évolutif, au fur et à mesure que de nouvelles sources d’énergie sont connectées. Grâce à LabVIEW et CompactRIO, ils peuvent contrôler en temps réel l’énergie produite et délivrée à l’échelle de la Grande-Bretagne, les zones et périodes de tension, et ainsi anticiper et empêcher les black-out.

Toujours dans l’énergie, mais pour un usage bien différent, 15MW Wind Turbine Test Facility, qui produit des éoliennes d’une capacité de 8 mégawatts, oui oui, vous avez bien lu (d’un diamètre bien plus large que l’A380, et deux à trois fois plus hautes que Godzilla paraît-il. Rassurez-vous, elles sont placées en mer, et Godzilla n’existe pas), utilise toute une batterie de PXI, LabVIEW et FlexRIO pour simuler les contraintes pesant sur leur éolienne, avant même que la première ne sorte de l’usine. Ils prévoient ainsi déjà le développement d’éoliennes d’une capacité de 15 mégawatts.

Dernière démo d’envergure, et non des moindres celle de la société japonaise Furuno, vainqueur des NI Engineering Impact Awards 2014, qui a utilisé une plate-forme FlexRIO pour développer un radar de taille relativement réduite (80 centimètres de diamètre) capable de détecter des orages à 30 kilomètres à la ronde. Furuno ne compte pas s’arrêter là, puisqu’ils ont pour projets de développer un outil de navigation intégrant les conditions climatiques (une sorte de Google Maps de la météo) ainsi qu’un outil capable de prévoir la formation de nuages. Catherine Laborde a du souci à se faire.

Après la présentation par NI d’un oscilloscope nouvelle génération, sur base software, le keynote s’est achevé sur une présentation du partenariat entre National Instruments et Nokia quant au développement de la 5G, et par un discours de Jeff Kodosky, le « père » de LabVIEW, sur l’intérêt toujours croissant d’un tel outil permettant de designer les logiciels d’application industrielle.

 

Ci-dessusJeff Kodosky, le « père » de LabVIEW

 

Pour tout savoir sur NIWEEK 2014

Par Bruno Decottignies

Livre blanc – Le mystère de la matière noire, dans les coulisses de l’univers

La découverte du Boson de Higgs a récemment ébranlé les fondations de la cosmologie et de la physique des particules. Dans les années 1920, quelques pionniers avaient bien remarqué des anomalies dans le mouvement des galaxies, mais ce n’est qu’à la fin du XXe siècle que les scientifiques ont été confrontés à une conclusion étonnante : l’univers est rempli d’une substance inconnue fondamentalement différente de tout ce que les astronomes ont observé avec leurs télescopes ou mesuré dans leurs laboratoires. Comprendre ce qu’est cette matière dite « noire » est aujourd’hui devenu le grand défi de la science.

Rosetta à son point de rendez-vous avec la comète Tchourioumov-Guérassimenko

« On est arrivé à la comète », s’est écrié Sylvain Lodiot, responsable des opérations de vol de Rosetta à l’Agence spatiale européenne (ESA), depuis le Centre de contrôle de Darmstadt (Allemagne), qui pilote la mission.

Rosetta se trouve comme prévu à 100 km de Tchourioumov-Guérassimenko, à quelque 400 millions de km de la Terre.

« Après dix ans, cinq mois et quatre jours de voyage, cinq passages à proximité du Soleil et 6,4 milliards de kilomètres parcourus, nous avons le plaisir d’annoncer que notre but est enfin atteint », a déclaré Jean-Jacques Dordain, Directeur général de l’ESA.

Rosetta est le premier engin spatial qui se met en orbite autour d’une comète, et qui ne se contente pas seulement de la survoler ponctuellement. Elle va accompagner la comète dans sa course vers le Soleil pendant plus d’une année.

En novembre, elle tentera une autre première très délicate, le largage sur la comète de son robot-laboratoire Philae.

« Rosetta est une mission unique, unique par son objectif scientifique, la compréhension de nos origines, qui est sûrement le meilleur moyen de comprendre notre futur », a souligné M. Dordain. « Elle est aussi unique par ses défis technologiques », a-t-il ajouté. Ce qui « fait de 2014 l’année Rosetta ».

Equipée de 11 instruments scientifiques (caméras, spectromètres, analyseurs de poussière et de particules…), Rosetta va étudier sous toutes les coutures le noyau de la comète, ainsi que les gaz et la poussière éjectés (la coma ou « chevelure ») à son approche du Soleil.

Les comètes sont considérées comme des témoins de la matière primitive à partir de laquelle s’est formé le système solaire, il y a 4,6 milliards d’années. Elles pourraient même détenir la clé de l’origine de la vie sur Terre .

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

NIWeek 2014 : résumé du Keynote #1

« You and NI will », c’est le nouveau credo de National Instruments, répété à foison tout au long de ce keynote. L’idée, qui elle n’est pas vraiment nouvelle chez NI, étant d’avancer main dans la main avec leurs clients pour aller plus vite, plus haut, plus fort, mais pour moins cher.

Pour ce faire, responsables NI et clients se sont succédés sur scène pour présenter nouveaux produits et applications, après une introduction par Ray Almgren, vice-président de NI, et James Truchard, président fondateur de la firme texane.

Premier du lot, Jeff Phillips, chef de produit LabVIEW, a donné une – trop courte ? – présentation de LabVIEW 2014, en mettant l’accent sur l’application LabSocket développée par Bergmans Mechatronics LLC, qui permet d’accéder à distance aux applications LabVIEW depuis internet, ainsi que sur une nouveauté plutôt séduisante : le câblage automatique des modules disposés dans LabVIEW.

Plus besoin a priori de faire ses lacets entre tel et tel éléments, LabVIEW 2014 les relie automatiquement.

 

Ci-dessus : James Truchard, Président fondateur de National Instruments, a comme d’habitude inauguré le premier keynote.

 

Nouveautés pour le PXI

Autre membre emblématique de la famille NI, le PXI s’est accaparé une bonne partie du kenyote, principalement dans une logique de réduction des coûts des tests, en premier lieu desquels les tests automatiques des semi-conducteurs.

En effet, le nouveau STS (pour système de test de semi-conducteurs), disponible en trois tailles mais en une seule couleur, permet de tester ses systèmes intégrés de façon rapide et semble-t-il économique, qui intègre le fameux PXI ainsi qu’une interface labVIEW.

Réduction des coûts grâce au PXI mais également meilleure fiabilité des tests, selon le témoignage de Tony Tenison, de Jacobs Engineering, venu expliqué comme le PXI leur permet de fiabiliser leurs tests en soufflerie, et d’éviter de devoir faire revenir (ou pas) le client pour de (coûteux) tests additionnels.

CompactDAQ durci

Le CompactDAQ quatre emplacements intègre processeur (Atom d’Intel), conditionnement du signal en entrées et sorties, et s’inscrit lui aussi dans une logique de simplification des tâches et de réduction des coûts, puisqu’il s’utilise en totale autonomie, sans être relié à un ordinateur.

Là encore, ce sont les clients qui en parlent le mieux : Robin Pritz de Case New Holland, un fabriquant d’engins agricoles, explique ainsi comment en mêlant CompactDAQ et CompactRIO dans une moissonneuse batteuse, il peut recueillir les données relatives au fonctionnement et réactions de la moissonneuse selon son utilisation.

Plus « impactant », John Lloyd, de BRAINS Inc, explique ensuite comment le CompactDAQ leur a permis de mesurer les forces de rotation auxquelles sont soumises les têtes des footballeurs américains, pour ensuite concevoir un casque réduisant celles-ci de 50 %.

 

Ci-dessus : Une des nombreuses démos présentées lors du keynote #1

 

DataFinder Server 2014

Le keynote s’est achevé sur une présentation de DatFinder Server 2014, l’outil NI permettant de mettre en commun l’ensemble des données de travail des ingénieurs d’une même structure, le tout hébergé non pas sur autant de segments que d’ingénieurs concernés, mais sur serveur commun, et donc beaucoup plus économique, avec outil de recherche des données intégré, fonctionnant tel un moteur de recherche. L’incarnation par excellence du big analog data si cher à National Instruments.

En savoir plus sur NIWEEK 2014

Par Bruno Decottignies