Nouvelles technologies pour le diagnostic et le dépistage en cancérologie

Les applications visées sont cliniques et précliniques, principalement pour la cancérologie en recherche et pour le diagnostic ou le dépistage précoce. Cette technique nouvelle présente l’avantage principal de ne pas utiliser de rayonnements ionisants. Elle a été qualifiée par diverses équipes (INSERM, Service Hospitalier Frédéric Joliot, Institut d’Imagerie Moléculaire et Fonctionnelle de Bordeaux) comme un instrument de tomographie préclinique quantitatif. Ces équipes ont montré la parfaite adéquation des résultats obtenus avec cette nouvelle localisation optique des tumeurs et avec la méthode classique à base de rayonnements ionisants PET (Position Emission Tomography).

Ces travaux ont conduit à la mise en place d’un partenariat avec deux entreprises : la société SCANCO Medical et la société DIGISENS. L’objectif de la collaboration avec SCANCO Medical (Zürich, Suisse), basée sur une valorisation des travaux du CEA LETI en tomographie optique diffuse de fluorescence (géométrie d’acquisition cylindrique), était de développer un nouveau système bi-modalités de tomographie préclinique couplant une information fonctionnelle fournie par tomographie optique de fluorescence à une information anatomique fournie par un micro-tomographe RX.

En ce qui concerne la société DIGISENS, deux accords ont été signés, en juillet 2011, avec le CEA LETI, en vue de la commercialisation du tomographe optique 3D de fluorescence (géométrie d’acquisition planaire) : un accord de licence et un accord pour l’étude et le développement d’une nouvelle version du tomographe 3D intégrant des améliorations du système. Les travaux menés par l’institut Carnot CEA LETI ont également trouvé un prolongement au travers du démarrage de 2 start-up : CAPSUM qui bénéficie d’un accord de licence avec le CEA LETI pour l’application en cosmétique et agro-alimentaire, et Fluoptics, start-up du CEA LETI.

L’objectif principal de Fluoptics est de fournir aux chirurgiens oncologues une nouvelle technique temps réel d’imagerie et d’aide à l’acte chirurgical qui permette de sécuriser l’élimination de zones tumorales lors de l’acte chirurgical. Les technologies issues du CEA LETI (traceurs fluorescents et sonde per-opératoire) commercialisées par Fluoptics offrent de bonnes perspectives de développement à la jeune société.

 

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Une biopile implantable pour alimenter les dispositifs médicaux artificiels

La société Sorin, l’un des leaders de la conception et de la fabrication de pacemakers, est confrontée à cet enjeu, avec un besoin de sources d’énergies à longue durée de vie permettant d’éviter leur remplacement trop fréquent, remplacement qui nécessite souvent une intervention chirurgicale, même minime.

La société Sorin s’est rapprochée de l’institut Carnot LSI dont le Laboratoire Techniques de l’ingénierie médicale et de la complexité – Informatique (TIMC-IMAG), associé au Département de Chimie Moléculaire de Grenoble, a réussi à utiliser les ressources du corps humain comme carburants pour la production d’électricité in situ. Ainsi le rêve de nombreux chirurgiens est devenu réalisable avec la mise au point d’une biopile à glucose. Cette biopile (GBFC, Glucose Bio Fuel Cell), déjà fonctionnelle chez l’animal, permettra à terme d’alimenter en énergie différents dispositifs médicaux : pacemakers, sphincters artificiels, pompes à insuline, voire, pourquoi pas, des organes comme un rein artificiel.

La société Sorin y voit de quoi concevoir une nouvelle génération de stimulateurs cardiaques qui, petits et vissés sur le cœur, seraient alimentés par ses battements ou le glucose du corps. Elle s’appuie également sur le groupe ST Microelectronics qui, par son savoir-faire, contribuera à concilier miniaturisation et augmentation de la puissance. Une seconde biopile utilisant comme combustible le sel (NaCl) est aujourd’hui à l’étude. Ces résultats offrent à la société Sorin de très bonnes perspectives pour répondre aux attentes de ses marchés avec un avantage concurrentiel important.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

La nutrition humaine menacée par l’augmentation du CO2 dans l’atmosphère

Une analyse à grande échelle

Les plantes utilisent le CO2 lors de la photosynthèse. Elles le piègent, le fixent et l’utilisent pour fabriquer leurs propres nutriments. Il existe plusieurs mécanismes de fixation du CO2, parmi lesquels celui dit en « C3 » (pour le blé, le riz, le soja, etc.) et le mécanisme de fixation « en C4 » (mais, sorgho, etc.). Le premier est typique des régions à ensoleillement faible, eau abondante, faible taux de CO2 et températures moyennes. Le second, plus efficace, est typique des zones chaudes, sèches, très ensoleillées et où le taux de CO2 est plus élevé.

Depuis le début des années 1990, les chercheurs ont constaté une diminution des quantités de zinc et de fer dans certaines plantes utilisées pour la nutrition humaine, comme le blé, l’orge et le riz. Cette baisse se produisait lorsque ces plantes étaient cultivées dans une atmosphère artificielle avec un taux élevé de CO2 imposé. Cependant la petite taille des échantillons ne permettait pas de tirer des conclusions significatives. De plus, les conditions de cultures étaient discutables.

Depuis, une nouvelle technologie de culture a été mise au point, le Free Air Concentration Enrichment (ou FACE). Cette technique permet de cultiver des plantes à l’air libre tout en modifiant la quantité de CO2 absorbée par les végétaux. Des tuyaux horizontaux ou verticaux sont placés autour des terrains expérimentaux et diffusent du CO2 jusqu’à atteindre le taux désiré. Celui-ci est dosé grâce à des capteurs eux-mêmes reliés à un ordinateur chargé de réguler les émissions.

Le problème de la petite taille des échantillons a ainsi été résolu en regroupant des données venant de cultures utilisant le FACE au Japon, en Australie et aux Etats-Unis. L’équipe du docteur Kloog du Department of Geography and Environmental Development de l’Université Ben Gourion du Néguev a ensuite analysé ces données, effectuant des comparaisons entre 143 échantillons récoltés après 6 périodes de culture et regroupant 41 génotypes végétaux différents. Les analyses concernaient la partie comestible du riz, du blé, du soja, des petits pois, du mais et du sorgho. Les taux de CO2 administrés étaient de 546 à 586 parties par million, ce qui correspond aux taux atmosphériques moyens estimés pour 2050.

Des résultats inquiétants

Grâce à cette méthode, les chercheurs israéliens ont montré que le zinc, le fer et les protéines diminuent de façon significative dans les plantes « C3 », cultivées avec un haut taux de CO2. Par exemple, on note une baisse de 9,3%, 5,1% et 6,3% respectivement en zinc, fer et protéines dans le blé cultivé dans ces conditions. Pour les légumes (soja et petits pois), la baisse concernait uniquement les taux de zinc et de fer. Autre phénomène inquiétant : l’étude montre que le taux de phytate diminue de façon significative dans le blé cultivé dans les conditions « FACE ». Or, le phytate est une molécule importante, qui conditionne l’absorption du zinc par l’intestin lors de la digestion.

Etant donné que les taux de CO2 sont appelés à augmenter de manière significative (et ce, même si des changements réels sont opérés dans les prochaines années au niveau des politiques environnementales), les carences en fer, zinc et protéines risquent de causer un désastre humanitaire. Néanmoins, un espoir subsiste car les analyses concernant les champs de riz ont montré une grande variabilité entre les échantillons, suggérant qu’il existe certains génotypes moins sensibles à l’augmentation de CO2 que d’autres. Ces plants peuvent servir de base pour créer des cultures plus résistantes et tenter d’éviter ainsi les risques de malnutrition.

Hélas, le choix des cultures dépend de nombreux facteurs comme la disponibilité des semences ou leur coût, ainsi que sur le goût des populations et leur tradition agricole.

Source : Bulletins électroniques

News environnement d’août 2014: Exploits scientifiques russes de l’ère post-soviétique, un ballon d’hélium pour l’étude du sous-sol…

Publication d’une étude trilatérale sur les centrales de pompage-turbinage en Allemagne, en Autriche et en Suisse

Le Ministère fédéral de l’économie et de l’énergie (BMWi) a publié, lundi 18 août 2014, une étude trilatérale sur les centrales de pompage-turbinage (ou STEP pour Stations de transfert d’énergie par pompage) en Allemagne, en Autriche et en Suisse [1].

Dans le cadre de cette étude, ont été analysés les aspects juridiques et économiques des centrales de pompage-turbinage dans les trois pays, ainsi que de futures possibilités de développement. Les experts ont conclu que l’importance à long terme des centrales de pompage-turbinage augmentera avec la part croissante des énergies renouvelables, et qu’elle doit être considérée en lien étroit avec le développement du réseau électrique.

L’étude publiée a été initiée sur la base de la « Déclaration de l’Allemagne, de l’Autriche et de la Suisse à propos d’initiatives conjointes pour le développement de centrales de pompage-turbinage », publiée en avril 2012, et contribue à la coopération renforcée dans ce domaine.

Le cadre juridique du pompage-turbinage a été examiné dans les trois pays, à la demande du BMWi, par le cabinet d’avocats Görg mbB. Le point de vue économique a été étudié par un expert des politiques économiques et d’infrastructure de l’Université technique de Berlin, à la demande de l’Office fédéral suisse de l’énergie. Enfin, l’Institut d’installations électriques et d’économie de l’énergie de l’Université technique RWTH d’Aix-la-Chapelle (Rhénanie du Nord-Westphalie) a mené une étude sur les contributions des stations de pompage-turbinage pour l’approvisionnement en énergie, pour le compte du Ministère fédéral autrichien de la science, de la recherche et de l’économie. En outre, à la demande de l’Office fédéral suisse de l’énergie, un rapport de synthèse a été réalisé par l’Energy Science Center de l’ETH de Zurich

Les exploits scientifiques russes de l’ère post-soviétique

Début juillet, l’agence Thomson Reuteurs a publié la liste des scientifiques les plus influents du monde de l’année 2014. Parmi ces héros d’aujourd’hui figurent huit. Les réalisations scientifiques russes des dernières années sont souvent peu connues, alors que certaines sont d’importance capitale. Voici 5 travaux, arbitrairement retenus mais très souvent cités par la communauté scientifique russe, qui illustrent les succès de la recherche post-soviétique.
 
En premier lieu, on relèvera les travaux des physiciens du laboratoire Flerov de l’Institut unifié de recherches nucléaires de Dubna, centre scientifique international située dans la banlieue moscovite, qui ont été les premiers à synthétiser les six éléments les plus lourds connus à ce jour et portant les numéros atomiques allant de 113 à 118. Pour l’instant seuls les flérovium (114)( Fl) et livermorium (116)(Lv) ont été reconnus par l’Union internationale de chimie pure et appliquée (UICPA). Leurs propriétés étonnantes permettent de spéculer sur la création de nouveaux types d’écrans souples, de batteries ou mêmes des vêtements.
 
En 2006, les physiciens de l’Institut de physique appliquée (IPA) de l’Académie russe des sciences de Russie à Nijni Novgorod ont créé le système PEARL (PEtawatt pARametric Laser). Ce laser, basé sur la technologie d’amplification paramétrique de la lumière dans les cristaux optiques non-linéaires, a été un temps, le laser existant le plus puissant avec une puissance de 0,56 petawatt. Ce laser permis à des chercheurs d’étudier des processus physiques extrêmes et des techniques de traitements des tumeurs cancéreuses.
 
Dans les années 90, les physiciens du Centre atomique russe à Sarov dirigée par Alexandre Pavlovsky ont réussi, grâce aux générateurs magnéto-cumulatifs à explosifs, à atteindre un champ magnétique de 28 megagauss. Ce méga-aimant donné lieu à de nombreuses études sur le comportement des supraconducteurs, qui jouent un role crucial dans la physique moderne (canon magnétique, accélérateur de particules…).
 
Dans le domaine des géosciences, les chercheurs de l’université russe d’Etat de pétrole et de gaz Goubkine ont invalidé la théorie selon laquelle pétrole et le gaz ne peuvent être produits que par décomposition de matières organiques. En effet, sous la croûte terrestre, à 100-150km de profondeur, selon Vladimir Koutcherov, professeur à l’Académie de technologie chimique fine de Moscou, la synthèse d’hydrocarbure lourd est possible. Selon le professeur Koutcherov, « une technologie de synthèse artificielle de pétrole permettrait de résoudre de nombreux problèmes économiques et écologiques ».
 
Enfin, En 2002, le mathématicien russe Grigori Perelman a démontré la conjecture de Poincaré, l’un des sept « problèmes du millénaire » recensés par l’Institut de mathématiques Clay. Cette conjecture, formulée pour la première fois par le mathématicien français Henri Poincaré en 1904, et s’énonce comme suit : « Soit une variété compacte V simplement connexe, à 3 dimensions, sans bord. Alors V est homéomorphe à une hypersphère de dimension 3. » Parmi les travaux présentés, ceux de Grigori Perelman ont été d’avantage médiatisés, moins par l’aboutissement d’un effort scientifique collectif sur près d’un siècle que par son double refus d’une part du prix de un million de dollars américains que Clay s’était engagé à remettre pour la résolution de ce problème, d’autre part de la médaille Fields.

Un ballon d’hélium pour l’étude du sous-sol

Le 17 juillet 2014, l’Institut fédéral des géosciences et des ressources naturelles [1] a testé un système mobile et semi-aérien pour la réalisation de mesures géophysiques du sous-sol.

L’innovation pour ces mesures électromagnétiques réside dans l’utilisation d’un ballon d’hélium. Ce ballon, un boudin de 1 m de diamètre enroulé en forme d’anneau de 20m de diamètre, est équipé de bobines qui jouent le rôle d’émetteurs/récepteurs. Le dispositif permet ainsi l’étude du sous-sol géologique à des profondeurs de plusieurs centaines de mètres.

Le ballon est tracté par un véhicule et arrimé à un second afin de maintenir une direction rectiligne (voir la démonstration en vidéo proposée ci-dessus). L’avantage conféré par la mobilité est de pouvoir réaliser jusqu’à vingt fois plus de relevés du sous-sol qu’avec les dispositifs conventionnels.

Les premiers essais se sont déroulés à Döberitzer Heide, une zone d’entraînement militaire de la Bundeswehr dans le Brandebourg. Ces essais ayant été concluants, le BGR envisage une utilisation sur le terrain, en particulier pour l’exploration des eaux souterraines dans les pays en développement.

4000 bactéries découvertes sous l’Antarctique

28 janvier 2013. Le premier échantillon d’eau est extrait du lac avec beaucoup de précautions. Les scientifiques sont très attentifs à ne pas polluer leur trouvaille, ce qui remettrait en cause toutes les découvertes à venir. Pour assurer l’intégrité des échantillons, l’équipe du projet dédié à l’exploration du lac Whillans a passé pas moins de six années à mettre au point leur protocole. Cela en valait la peine. Les analyses ont révélé la présence de 3931 microbes, majoritairement des bactéries et archéobactéries. Toutefois, 793 organismes restent de nature inconnue.

A l’endroit du forage, la profondeur du lac est faible, 2,20m, et la température y est clémente avoisinant les -0.5°C. Le camp construit tout autour est impressionnant. Tracteurs, laboratoires mobiles mais surtout un système d’injection d’eau chaude nécessaire pour creuser le trou de 60 cm de diamètre et garantir la propreté des échantillons. Soit en tout des centaines de tonnes de matériels pour cette mission en plein cœur de l’Antarctique. Il aura fallu sept jours pour creuser à travers l’épaisse couche de glace. Des rayonnements ultra-violets, la filtration de l’eau et du peroxyde d’hydrogène ont garanti la stérilisation du matériel. Avant que le trou ne se referme, trente litres d’eau ont été prélevés ainsi que plusieurs carottes de sédiments.

793 organismes restent de nature inconnue

Dans leur article paru dans Nature le 21 août 2014, les chercheurs indiquent avoir trouvé 130 000 cellulles/ml d’eau, soit une densité équivalente à celle des océans terrestres les plus profonds. « J’ai été surpris par la richesse de cet écosystème. C’est incroyable » s’enthousiasme John Priscu, microbiologiste de l’Université du Montana.

Situé 800m en dessous de la surface, le lac Whillans recèle donc des formes de vie capables de survivre dans des conditions extrêmes puisque ces bactéries ont passé près de 120 000 années sans voir un seul rayon de soleil. Ces dernières ont donc dû produire leur énergie par oxydation de fer et de soufre présents dans les minéraux des sédiments Mais la plus grande partie des microbes découverts vivent en oxydant les ions ammonium, eux-mêmes pouvant être d’origine biologique.

La découverte d’une vie aussi complexe et dense dans un environnement aussi hostile laisse supposer que d’autres bactéries existent dans d’autres lacs subglaciaux, attendant patiemment d’être mises à jour.

Le projet Whillans Ice Stream Subglacial Access Research Drilling  (Wissard) engage une vingtaine de chercheurs provenant de quinze universités de cinq pays.

Par Audrey loubens

Grandes manœuvres dans les gaz de schistes américains

C’est ainsi que le groupe Anglo-néerlandais Royal Dutch Shell (RDS) après s’être doté d’un nouveau dirigeant, aux modes de gestion assez décapants, avait abandonné un vaste projet de conversion de gaz en produits pétroliers liquides (GTL) qu’il devait installer dans le Golfe du Mexique. Décision financière et industrielle, au demeurant, assez incompréhensible, compte tenu de l’abondance locale de gaz naturel peu onéreux et de la demande croissante de gazole et de kérosène dans le monde. De plus, RDS est copropriétaire depuis 2007 à 50% de plus de 350 000 acres (1400 km2) avec Encana dans la zone de gaz de schistes de Haynesville et qui compte, selon l’EIA, une cinquantaine de forages en activité.

Ce champ situé à cheval entre le Nord de la Louisiane et l’Est du Texas, localisation qui rendait le projet GTL d’autant plus attractif. Le Wall Street Journal nous apprend que la Direction de RDS pourrait, suivant la logique de son désengagement du projet GTL, céder ses droits de propriété sur Haynesville au Groupe d’investissement Black Rock pour une somme autour du milliard de dollars. Il semblerait que l’acquéreur ait l’intention de valoriser la ressource, proche des côtes du Golfe du Mexique, par l’exportation de gaz vers l’Europe ou l’Asie sous forme de Gaz liquéfié, là ou les prix du gaz naturel sont 3 à 5 fois supérieurs aux cours du gaz américain. 

Compte tenu de l’enjeu économique et stratégique, il est fort probable que le gaz américain liquéfié va constituer, dans les décennies à venir, une importante source d’énergie alternative au gaz russe pour les pays de l’Europe de l’Ouest, et cela malgré les productions dispendieuses et folkloriques d’hydrogène ou de biogaz allemand. (Je ne peux m’empêcher de croire que les difficultés économiques rencontrées en ce moment par l’Allemagne et qui vont impacter la Zone Euro, sont imputables, pour une large part, à la délirante et ridicule politique énergétique de se dirigeants.) 

Mais la nouvelle la plus importante dans le domaine des gaz de schistes américains, regarde les nouvelles productions en forte croissance du champ d’UTICA (Carte) qui sont maintenant reportées mensuellement dans les statistiques de l’EIA. Ce gisement de gaz de schiste situé au Nord-est des Etats-Unis, en large partie au-dessous du prolifique champ de Marcellus, présente un démarrage des extractions de gaz particulièrement dynamique. Nul doute qu’une part de ces extractions abondantes de gaz dans l’Est des Etats-Unis, méritera d’être un jour exportée vers l’Europe.

Pour comprendre l’enjeu économique des exploitations de gaz de schistes américains, il me semble indispensable d’intégrer, parmi d’autres paramètres, la probable future exportation à bon prix d’une partie de ces extractions de gaz.

Par Raymond Bonnaterre

De la cellule rectale au neurone : les clés de la transdifférenciation

Une équipe de l’Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Inserm/Université de Strasbourg) s’est intéressée à un exemple naturel et 100% efficace de ce phénomène, appelé transdifférenciation. Cette étude identifie le rôle d’acteurs épigénétiques dans cette conversion, souligne le caractère dynamique du processus et met en évidence les mécanismes clé pour l’efficacité de la transdifférenciation. Ces travaux, réalisés en collaboration avec l’Institut Curie, ont été publiés le 15 août 2014 dans la revue Science.

Notre organisme est constitué de cellules ayant acquis des caractéristiques au cours du développement et remplissant une fonction précise au sein de chaque organe : on parle de cellules différenciées. En règle générale les cellules maintiennent leur spécificité jusqu’à leur mort mais il a été prouvé que certaines cellules peuvent changer d’état et acquérir de nouvelles fonctions, un phénomène rare mais retrouvé dans de nombreuses espèces dit de « transdifférenciation ».

L’équipe a étudié ce processus chez C. elegans, un petit ver transparent, où une cellule rectale se transforme naturellement en moto-neurone. Ce passage d’un type cellulaire à un autre se fait sans division cellulaire et par une succession d’étapes bien définies qui aboutissent toujours au même résultat. Les chercheurs se sont intéressés aux facteurs qui rendent le processus de conversion aussi stable.

L’équipe avait déjà élucidé le rôle de plusieurs facteurs de transcription dans cette transdifférenciation. Mais ces nouveaux résultats ont mis en évidence le rôle d’acteurs dits « épigénétiques », c’est-à-dire capables de moduler l’expression des gènes. Deux complexes protéiques interviennent ainsi dans le mécanisme. Ces enzymes agissent sur une histone et lorsqu’une mutation altère leur action, la transdifférenciation est interrompue et la cellule rectale ne se transforme plus en neurone.

Les chercheurs ont observé que les deux complexes agissent à des étapes différentes et que leur rôle peut évoluer en fonction des facteurs de transcription auxquels ils sont associés. Ces résultats soulignent l’importance du bon enchaînement des actions de chacune de ces molécules : l’aspect dynamique du mécanisme de transdifférenciation est essentiel à sa stabilité.

La part respective des facteurs génétiques et épigénétiques dans les processus biologiques est un sujet largement débattu. Ces travaux mettent en lumière les rôles respectifs de chacun des acteurs de la transdifférenciation : l’initiation et le déroulement sont assurés par les facteurs de transcription alors que les facteurs épigénétiques servent à garantir un résultat invariable. L’étude va même plus loin, montrant que dans des conditions « normales », les facteurs épigénétiques sont accessoires (même en leur absence la conversion se déroule relativement efficacement) mais qu’ils sont indispensables en cas de stress environnemental. Ils ont donc un rôle primordial pour maximiser l’efficacité du mécanisme et assurer sa stabilité face aux variations extérieures.

La transdifférenciation est un phénomène encore mal connu. Il pourrait être impliqué dans la régénération d’organes observée chez certains organismes, comme le triton capable de reconstruire le cristallin de son œil après une blessure. Ces résultats apportent de nouvelles clés pour comprendre comment contrôler ce processus et pourraient déboucher sur des thérapies prometteuses, notamment dans le domaine de la médecine régénérative.

Source : CNRS

Une nacre artificielle particulièrement tenace

Une fois encore, la nature inspire les chercheurs. Cette fois, il s’agit de la nacre des ormeaux. Celle-ci est composée à 95% de carbonate de calcium, matériau de nature fragile. Pourtant, la  nacre possède une ténacité importante. C’est justement cette capacité à résister à la propagation d’une fissure qui a inspiré les auteurs de l’étude. Parus dans Nature Materials, les travaux des équipes du Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint-Gobain), en collaboration avec le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et le laboratoire Matériaux : ingénierie et science (CNRS/INSA Lyon/Université Claude Bernard Lyon 1) révèlent comment obtenir de façon artificielle les mêmes caractéristiques que la nacre des bi-valves.

Le secret de fabrication ? Un passage au frigo ! Les chercheurs ont utilisé de l’alumine, une céramique standard, qu’ils ont placé en suspension dans de l’eau, puis refroidi. Ce faisant, la croissance a conduit à un auto-assemblage sous forme d’un empilement de plaquettes. Une dernière étape de densification à haute température a conclu la fabrication de cette nacre artificielle.

Grâce à ce procédé innovant, les scientifiques ont produit un matériau dix fois plus tenace qu’une céramique à base d’alumine. De plus, n’importe quelle poudre céramique sous forme de plaquettes peut se soumettre à ce processus d’auto-assemblage. L’obtention de céramiques libérées de leur fragilité pourrait conduire à la fabrication de pièces de plus petite taille et plus légères puisque plus tenaces à égale densité, et donc aboutir à une diminution des coûts de production pour les applications industrielles.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Des courants marins empêchent la hausse des températures à la surface du globe (étude)

Parmi ces hypothèses, il y a les effets de la pollution qui fait écran aux rayons solaires, un regain d’activité volcanique et des tâches sur le soleil, notent les auteurs de cette recherche de l’Université de Washington à Seattle (nord-ouest), publiée jeudi dans la revue américaine Science.

Selon leurs travaux, la chaleur ne reste pas à la surface de l’océan Atlantique, elle descend dans les profondeurs, transportée par un cycle naturel des courants.

« Un grand nombre de recherches faites précédemment se concentraient sur les symptômes à la surface de la Terre », relève Ka-Kit Tung, le principal auteur.

« Nous nous sommes concentrés sur des observations dans les fonds océaniques », précise-t-il.

L’étude montre qu’un courant se déplaçant lentement dans l’Atlantique, qui véhicule la chaleur entre les deux pôles, a accéléré au début du 21e siècle, précipitant la chaleur absorbée par les eaux en surface à 1.500 mètres de profondeur.

La plupart des études précédentes portaient sur la variabilité à court terme ou des particules dans l’eau pouvant bloquer les rayons solaires sans pouvoir expliquer la chaleur accumulée manquante depuis plus d’une décennie.

« Cette découverte est une surprise car cette théorie des courants entraînant la chaleur vers les fonds océaniques pointait le doigt vers le Pacifique comme principale source de la chaleur manquante », dit ce chercheur.

« Il y a des courants marins cycliques déterminés par la salinité de l’eau qui peuvent stocker de la chaleur dans les fonds de l’Atlantique et les eaux océaniques australes », relève Ka-Kit Tung.

Quand l’eau à la surface de l’océan est plus salée, elle devient plus lourde et descend vers le fond, entraînant avec elle la chaleur emmagasinée, explique-t-il.

Les récentes mesures à la surface de l’Atlantique nord montrent une salinité record alors qu’en même temps les eaux en profondeur sont plus chaudes.

Selon les données historiques, ces courants changent tous les 30 ans avec une alternance de cycles produisant des eaux de surface plus chaudes et plus froides quand la chaleur est transportée vers le fond.

Selon ces chercheurs, le réchauffement rapide du climat lors des trois dernières décennies du 20e siècle peut être attribué pour 50% aux gaz à effet de serre et pour le reste au cycle de ces courants dans l’Atlantique qui ont maintenu plus de chaleur dans les eaux de surface.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La montre intelligente signée Withings

Le marché des montres connectées fait l’actualité ces temps-ci. Ou plutôt, il l’envahit. Il faut dire que de nombreux géants s’y sont mis et dévoilent à présent leur rejeton comme la Samsung Gear Live, la Motorola 360, la G Watch et évidemment l’iWatch. Toutefois il ne faudrait pas déconsidérer un autre acteur, certes plus modeste, des objets connectés. Je parle bien sûr de la société française Withings, basée à Issy-les-Moulineaux. En effet, cette start-up exemplaire, fondée en 2009 et dirigée par Éric Carreel et Cédric Hutchings, impressionne depuis ses débuts. Davantage reconnue aux États-Unis qu’en France, elle s’était déjà faite remarquer pour son pèse-personne Smart Body tweetant le poids (vanté par Jack Dorsey, le créateur de Twitter lui-même), son tensiomètre, ou encore le bracelet à capteurs Pulse.
La Banque Publique d’Investissement (BPI) croit visiblement en cette montre puisqu’elle a alloué à Withings 11 millions d’euros sur les 23,5 millions reçus. Il s’agit d’un des plus gros montants octroyé à une start-up.

Un design qui se distingue de ses concurrents

Contrairement à Samsung, Google ou Apple, Withings n’a pas opté pour une approche futuriste mais a choisi de combiner harmonieusement technologie à un style plus traditionnel et élégant. À voir son bracelet en cuir et ses élégants cadrants arrondis, on penserait presque que l’on a affaire à une montre suisse (ou elle a d’ailleurs été fabriquée) tout ce qu’il y a de classique. Oui, Activité ressemble vraiment à une montre. Pour se démarquer, la start-up Française a misé sur une apparence plus traditionnelle que les autres montres connectées généralement pourvues d’écran électronique. Elle a sans doute considéré que son classicisme pourrait attirer une cible plus large et pourquoi pas une clientèle féminine.

Cependant, Activité ne fait pas que donner l’heure. Elle permet, par ailleurs, d’enregistrer le nombre de foulées de son utilisateur, de calculer le nombre de calories brûlées, de mesurer la qualité du sommeil, de vous réveiller au moment propice… Pour cela, deux cadrans couvrent l’affichage de la montre. Le premier sert à lire l’heure. Quant au second, il transmet par Bluetooth les données biométriques de l’utilisateur au terminal (smartphone, ordinateur) qui pourront être par la suite décryptées via l’application Health Mate; ceci afin d’inciter l’usager à se fixer des objectifs.

Pour acquérir Activité, il faudra un peu de patience, sa sortie étant prévue dans le courant de l’automne prochain au prix à l’unité de 390 euros. Si son coût est plus élevé que ses concurrentes (la smartwatch de Sony est à 99 euros, celle de Samsung à 250 euros) elle se veut aussi plus haut de gamme.
 

Par Sébastien Tribot

Amazon se tourne vers la vente d’objets imprimés

On le sait, l’entreprise créée par Jeff Bezos est le leader de la vente en ligne, notamment en ce qui concerne les produits culturels et surtout les livres. Mais depuis quelques temps, celle qui fait partie des quatre grands d’internet diversifie ses activités. Citons en exemple le Fire Phone qui vient d’être lancé, l’Amazon Fire TV, l’Amazon Kindle Fire et bien entendu la plateforme MarketPlace. Et voilà qu’aujourd’hui, en sus de tout cela, Amazon s’ouvre à l’impression 3D.

La version américaine du site comprend depuis peu une page consacrée à la vente d’objets 3D sur laquelle 200 produits sont déjà proposés. La sélection est assez vaste pour que tout le monde y trouve son compte. Ainsi, il est possible d’y dénicher bijoux, lampes, jouets, figurines et autres coques d’iPhone…

Un catalogue respectable qui devient bien plus impressionnant si l’on tient compte du fait que chacun de ces objets est personnalisable. En effet, l’impression 3D permet aux acheteurs de customiser à leur guise certains paramètres tels que le type de matériau, la taille ou la couleur au moment de la commande. 

Ce sont, en dernière étape, les partenaires auxquels Amazon a fait appel qui s’occupent de la réalisation des commandes. La start-up française Sculpteo, dirigée par Éric Carreel et Clément Moreau et spécialisée dans l’impression 3D est l’un d’entre eux.

Compte tenu de l’énorme potentiel de l’impression 3D, il semble normal, voire presque tardif qu’Amazon s’installe dans ce secteur et lance sa « boutique » en ligne. Car bien que son emploi ne soit pas encore vraiment répandu, l’impression 3D a tendance à se démocratiser. 

Clément Moreau avouait être enchanté par cette tournure : « Nous sommes ravis de voir qu’Amazon prend part au mouvement de l’impression 3D, et nous sommes convaincus que cela offrira de nouvelles opportunités aux designers utilisant l’impression 3D ». Pour la suite, on conjecture en effet que le dispositif se complexifiera et proposera, pourquoi pas, un service permettant aux utilisateurs d’imprimer des objets qu’ils auront eux-même inventés.

Par Sébastien Tribot

Vantablack, le matériau le plus noir jamais fabriqué

Encore mieux que le Super black de la Nasa qui absorbait déjà 99% de la lumière. La société britannique dame le pion aux américains avec son produit lui aussi bâti à partir de nanotubes de carbone.

Comment atteindre un tel niveau de « noir » ? Toute la magie réside dans le traitement réservé aux particules de lumières qui ont l’imprudence de pénétrer dans le Vantablack. Car quand un photon frappe le Vantablack, il rebondi entre les nanotubes pour y être absorbé et converti en chaleur. Voilà comment la lumière pénètre le matériau pour ne plus jamais en ressortir.

 Il aura fallu deux années d’études pour mettre au point ce matériau noir et réussir à faire croitre ces nanotubes sur des structures en aluminium et des capteurs pyroélectriques. Les applications visées sont liées à l’imagerie, comme par exemple améliorer la capacité des télescopes à voir des étoiles au signal particulièrement faible. Le Vantablack peut se retrouver à recouvrir des capteurs optiques ou des déflecteurs.

Mais le Vantablack possède d’autres atouts comme une conduction de la chaleur supérieure à celle du cuivre et une capacité de traction dix fois plus grande que celle de l’acier. En absorbant 99,965% de la lumière, le Vantablack est perçu comme un trou, une absence de matière. Même si sa surface présente des courbes, un individu ne verra rien d’autre qu’un vide ou une surface noire en 2D. Des applications militaires seraient aussi à l’étude du fait de ses propriétés optiques hors norme, mais tout ceci reste top secret.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Revue du web #64 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

  • Rendre un essaim d’un millier de robots autonome : un jeu d’enfant ;
  • Le robot origami qui se plie seul, avatar étonnant des « Transformers » ;
  • Pépite : transmettre des données à l’aide de signaux de fumée ;
  • Tout est possible à réaliser avec des Lego… même un afficheur sept segments ;
  • Le gadget (inutile?) de la semaine : l’épouvantable épouvantail ;
  • Et en bonus : le plaisir toujours jouissif de la destruction, à l’aide d’aimants.

Rendre un essaim d’un millier de robots autonome : un jeu d’enfant

La prestigieuse université Harvard aurait-elle finalement succombé à la mode du flash-mob, alors que ce n’est plus qu’un lointain – mauvais – souvenir ? Rassurez-vous : l’institution américaine, qui peut se targuer d’être l’établissement d’enseignement supérieur le plus ancien et le plus riche des États-Unis, n’a pas cédé aux sirènes de la « mobilisation éclair », tout du moins pas de la manière dont on pourrait l’entendre. Pour débuter notre soixante-quatrième Revue du Web, voici « Kilobots », un essaim de 1024 petits robots simples et collaboratifs qui, à l’image des poissons se déplaçant en banc, ou des cellules d’un organisme qui s’assemblent en une structure sophistiquée et intelligente, sont capables de créer des formes complexes en suivant des règles de programmation basiques.

Chaque « Kilobot » est un monument de simplicité juché sur trois petites tiges qui font office de pattes : un petit moteur vibrant, un cavalier, une diode électroluminescente, une photodiode (en guise de capteur de lumière), un émetteur et un récepteur infrarouge, ainsi qu’un microcontrôleur pour la partie programmation et une pile bouton pour alimenter l’ensemble. Pour cette expérience inédite d’intelligence artificielle collective (tout du moins, à cette échelle), une équipe de chercheurs dirigée par le professeur Radhika Nagpal a développé un algorithme permettant aux robots de se déplacer afin de reproduire une forme prédéfinie, sans autre intervention humaine que le placement des quatre premiers robots « noyaux » pour ancrer la forme dans l’espace.

Placés de manière arbitraire, les robots de l’amas se mettent peu à peu en branle, en commençant par les extrémités et sans jamais s’éloigner de la masse. Pour pallier les situations difficiles ou les erreurs que les robots sont inévitablement amenés à commettre (« embouteillages », déplacements aberrants…), chaque Kilobot collabore afin de corriger les menus problèmes, transcendant ainsi les limites individuelles en une entité-groupe plus intelligente. Contrairement à l’effet de foule, l’union fait ici la force.

Le robot origami qui se plie seul, avatar étonnant des « Transformers » :

Comme ils ne chôment pas à Harvard, la nuée intelligente du millier de Kilobots n’est pas leur seul fait d’armes de l’été. Quittons le flash-mob robotique pour retrouver le monde créatif et autrement plus apaisant de l’origami. Un origami peut transformer une feuille de papier en formes tridimensionnelles complexes, alors que des techniques similaires de pliage peuvent produire à la fois des structures et des mécanismes pour le moins sophistiqués. Cette tradition japonaise de l’art du pliage du papier semble, au premier abord, ne rien partager avec le monde supposément froid et austère de la robotique. Pourtant, les chercheurs de l’institut Wyss pour la bio-ingénierie de l’université Harvard sont parvenus à créer une passerelle entre les deux univers.

Pour démontrer la possible application des techniques de l’origami à la fabrication de machines plus ou moins simples, l’équipe américaine a développé un robot rampant… qui se plie tout seul, et se transforme en un robot fonctionnel. Afin d’arriver à cette prouesse, les scientifiques ont développé un matériau composite à mémoire de forme qui se plie le long de charnières intégrées, se contractant comme un muscle une fois l’origami chauffé. Ce petit robot peut prendre forme en seulement quatre minutes, suivant une feuille de route bien précise – pliage des pattes extérieures, alignement du moteur, pliage du corps, redressement, pliage des pattes intérieures – avant de s’en aller en rampant, tout seul. Comme un grand. Quelque peu effrayant.

Pépite : transmettre des données à l’aide de signaux de fumée

Il est loin, le temps où les Indiens d’Amérique communiquaient à l’aide de signaux de fumée ? Niklas Isselburg et Jakob Kilian, deux étudiants de l’école Internationale de Design de Cologne, ont décidé de rendre hommage aux premiers occupants du continent nord-américain avec « Binairy Talk », un système ingénieux dépoussiérant cette forme de communication ancestrale. Ici, plus besoin de feu, ni de tissu pour le couvrir.

L’installation interactive est composée d’un module émetteur – un ordinateur, un haut-parleur, un générateur de sons et un autre de fumée– et d’un module récepteur – un réseau de lasers. Le message à transmettre est traduit par l’ordinateur en langage binaire, que le premier module va matérialiser en créant puis en propulsant une série de ronds de fumée vers le second module, qui va alors intercepter le « signal » dans son maillage laser. Pour décrypter les signaux, nos deux jeunes Allemands utilisent un module Arduino customisé permettant la traduction du message. L’installation, en plus de son côté hautement ludique, permet de rendre « physique » et de matérialiser les données, le plus souvent intangibles, créant ainsi une passerelle entre le monde digital et le monde analogique.

Tout est possible à réaliser avec des Lego… même un afficheur sept segments :

De vidéos en vidéos, nombreux sont les artistes, ingénieurs en herbe et bricoleurs du dimanche qui semblent crier, à l’unisson… que rien n’est impossible à créer à partir de Lego. Madeleine de Proust pour nombre de nos amis internautes, ils rivalisant souvent d’ingéniosité pour concevoir des choses aussi étonnantes et diverses qu’un clavier d’ordinateur, un variateur de vitesse mécanique, une imprimante 3D ou encore… une voiture. On peut se souvenir également de la merveilleuse horloge LCD conçue par le Suédois Hans Andersson.

Dans le même registre, un internaute a créé un afficheur sept segments – similaires à ceux présents dans les montres ou les calculatrices à affichage numérique – complètement mécanique et uniquement à partir de Lego. Fonctionnant sur le modèle d’une boite à musique, chaque segment est contrôlé de manière indépendante et ne peut prendre que deux valeurs (jaune ou noire, correspondant à « allumé » ou « éteint »). Bravo !

Le gadget (inutile?) de la semaine : l’épouvantable épouvantail

Mustafa Karasungur le répète à qui veut bien l’entendre : il en a marre. Marre de la météo peu clémente ? Marre de la politique conduite par le gouvernement ? Non, Mustafa Karasungur en a par-dessus la tête… des ours. Lassé par l’attitude inconvenante des ursidés de sa région, cet agriculteur turc de 46 ans a décidé d’employer les grands moyens afin de protéger ses récoltes et d’éloigner les grands mammifères de ses terres. Oui, mais comment faire ? Tout simplement… avec un épouvantail à ours spécialement conçu pour l’occasion !

Pour que l’épouvantail soit à la hauteur de son adversaire, l’agriculteur turc l’a équipé d’un pistolet à impulsion électrique, délivrant la bagatelle de 25 000 volts aux plus hardis des ours qui n’auraient pas déjà fui son bruit insupportable d’alarme de voiture, ou son aspect effrayant digne d’un film d’horreur à – très – petit budget. La journaliste ne semble, elle-non plus, pas rassurée devant notre gadget (inutile?) de la semaine. Ni devant tant de goût incertain.

Bonus : le plaisir jouissif de la destruction, à l’aide d’aimants

Pour conclure notre soixante-quatrième Revue du Web, pourquoi ne pas profiter de la puissance potentielle d’un aimant pour en faire une arme destructrice ? Ici, tout devient simple, on se trouve plongé dans le plaisir primaire et régressif de la destruction d’un verre à pied, de l’explosion de deux ou trois saucisses, de quelques néons, ou encore d’une banane. Les aimants permanents ne leur laissent aucune chance.

Pour rappel, un aimant permanent est souvent constitué d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B). L’alliage de néodyme fer bore est celui qui est le plus souvent utilisé pour les aimants en terres rares, car le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

Par Moonzur Rahman

Florales ou présidentielles, des cellules solaires atypiques pour doper l’énergie verte

C’est une jolie boîte cubique en bois, de 20 cm de côté, en partie couverte de cellules solaires vitrées au motif floral.

Grâce à un système doté de trois électrodes, ces cellules ne se contentent pas de générer de l’électricité sous l’effet de la lumière du soleil, elles sont aussi capables d’en stocker, si bien que l’ensemble permet de recharger deux fois un téléphone portable.

De bleue, la fleur redevient blanche, comme la vraie Annabelle des jardins, une fois vidée de son énergie.

Son inventeur, Hiroshi Segawa, a également mis au point des cellules photovoltaïques à l’effigie du président français François Hollande ou encore de Hatsune Miku, star holographique virtuelle de la pop japonaise. « Personnages de dessins animés, portraits de gens réels et plein d’autres choses encore » : les possibilités décoratives sont illimitées, selon ce chercheur de l’université de Tokyo.

Son objectif ? Changer le regard sur le secteur de l’énergie qui n’a « pas une très bonne image », explique-t-il.

Réacteurs nucléaires à hauts risques, centrales à charbon polluantes, panneaux solaires encombrants, éoliennes bruyantes : avec cette initiative originale, M. Segawa veut créer « une énergie agréable » qui « ne nuise pas à l’environnement » et apporte une touche de couleur à une industrie bien terne.

Depuis l’accident nucléaire de Fukushima en mars 2011, qui a entraîné l’arrêt de l’ensemble des réacteurs du pays (auparavant plus du quart de l’électricité), le Japon cherche à promouvoir les énergies renouvelables.

Un gigantesque parc d’éoliennes est notamment en construction au large de la province durement meurtrie de Fukushima (nord-est). Le projet prévoit, d’ici à 2016, une capacité de production électrique de l’ordre de 12.000 kilowatts, de quoi alimenter plusieurs dizaines de milliers de foyers.

En excluant l’hydraulique, ces énergies ne représentent cependant qu’une portion congrue du total : 4,7% du panier énergétique, loin derrière la Grande-Bretagne (10,4%) ou l’Allemagne (20,1%), selon les chiffres de l’Agence internationale de l’énergie (AIE).

Les efforts de l’archipel pour développer le secteur solaire se heurtent toutefois à la météo, en particulier à un ensoleillement irrégulier, et à un manque de terrains propices.

Annabelle, elle, fonctionne même avec une faible source lumineuse intérieure, assure Hiroshi Segawa.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un nouvel instrument tout-en-un pour les mesures sur plan de travail

Un oscilloscope à signaux mixtes, un générateur de fonctions, un multimètre, une alimentation DC et des entrées/sorties numériques, le tout piloté par une seule et unique interface ?

Tout cela sans aucun bouton de réglage mécanique ? Et bien sûr pour un prix compétitif ? NI VirtualBench est l’instrument qui propose tout cela.

Ce nouvel instrument tout-en-un est suffisamment compact pour créer un espace de travail complet sur votre bureau.

Il est aussi aisément portable pour vous permettre de déplacer votre instrumentation sur le lieu de votre projet.

Par conséquent, il vous évite de devoir transporter votre projet jusqu’au laboratoire. Grâce à une interface logicielle innovante sur iPad communiquant sans fil par Wi-Fi, ou basée PC par USB, vous pouvez interagir rapidement sur vos mesures en utilisant la rotation de la souris ou vos doigts pour sélectionner des traitements sur les mesures ou simplement zoomer.

Une toute nouvelle expérience interactive s’offre à vous !

Conçu pour rendre la vie plus facile en augmentant la rapidité de conception et de validation de circuits, il peut également automatiser des mesures répétitives grâce à des fonctions LabVIEW et enfin vous faire bénéficier de mises à jour gratuites de ses interfaces logicielles.

 

ni.com/virtualbench/f

[email protected]

Des approches prédictives pourraient se substituer aux vrais tests de substances chimiques

La caractérisation complète des substances physico-chimique est coûteuse et chronophage. Et si les méthodes prédictives étaient une alternative crédible aux tests en laboratoire? C’est la conclusion du projet PREDIMOL rendue officielle début juillet par l’Institut national de l’environnement industriel et des risques (Ineris). Ce projet dont l’acronyme signifie Prédiction des propriétés physico-chimiques des produits par modélisation moléculaire a été mené entre 2010 et 2014.

Financé par l’Agence nationale de la recherche, labellisé par le pôle de compétitivité Axelera et piloté par l’Ineris, Predimol s’est intéressé à la pertinence de la modélisation moléculaire dans l’obtention de données physico-chimiques. Les tests réels peuvent-ils être évités ? Oui, répond Predimol. Des méthodes prédictives peuvent servir à définir des propriétés physico-chimiques. 

Plus particulièrement, deux approches sont mises en avant. Il s’agit de la Quantitative structure-property relationship (QSPR) et des méthodes de simulation moléculaires (dynamique moléculaire et Monte-Carlo).  La QSPR serait pertinente pour l’analyse des propriétés dangereuses tandis que la simulation moléculaire est plus adaptée à l’évaluation des propriétés d’équilibre et des propriétés de transport.

Pour en arriver à ces résultats, les différents partenaires du projet Predimol, IFP Energies Nouvelles, Chimie ParisTech, le Laboratoire de Chimie Physique de Paris XI, Materials Design et Arkema, ont travaillé sur les peroxydes organiques et les amines.

Predimol a permis de valider des modèles développés pour la détermination de certaines propriétés comme la densité relative, les propriétés explosives ou encore le point d’ébullition.  Une réussite qui pourrait bien rebattre les cartes du Reach en proposant aux professionnels une alternative moins couteuse pour l’évaluation des propriétés des nombreuses substances pré-enregistrées.

« Ces […] modèles répondent aux critères de validation de l’OCDE et, dans une démarche d’acceptabilité réglementaire, ils vont être proposés à la QSAR Tool Box et à la base de données du Joint Research Centre (JRC) de la Commission européenne » se félicite l’Ineris.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Les cellules STAP existent-elles vraiment ?

Elle s’appelle Haruko Obokata. Elle a à peine 30 ans et dirige déjà une unité de recherche de l’Institut  public Riken, célèbre institut japonais à Kobé. En janvier 2014, elle est l’auteure principale de deux publications qui paraissent dans la prestigieuse revue Nature. Les travaux présentés concernent la fabrication de cellules pluripotentes à partir de cellules somatiques. Le procédé est ultra-simple, rapide, peu coûteux et les cellules initiales utilisées ne sont pas embryonnaires, évitant tout problème éthique. C’est une véritable révolution qui impressionne l’ensemble de la communauté en lien avec la médecine régénérative. La jeune chercheuse Obokata est immédiatement portée aux nues et devient une icône de la recherche japonaise.  

Cet engouement parait justifié tant la découverte est exceptionnelle. Imaginez. A partir de cellules somatiques adultes plongées dans un bain d’acide citrique pendant moins d’une demi-heure puis passées  en centrifugeuse cinq minutes, Haruko Obokata affirme obtenir des cellules pluripotentes. Ces cellules tant convoitées que l’on peut spécialiser  en a peu près n’importe quelle cellule du corps et ainsi régénérer un organe, de la peau, des neurones…Mieux, le rendement est inespéré puisqu’en appliquant cette technique à des globules blancs, un quart de ces derniers a montré un comportement de pluripotence au bout de  quelques jours. Un tiers d’entre elles a pu être reprogrammées, soit un rendement de plus de 8%. Bien mieux que les 1% obtenus par le professeur Yamanake et les cellules souches pluripotentes induites (iPS) qui lui ont valu le prix Nobel en 2012. 

Les études menées au Centre pour la biologie du développement par l’équipe du Pr Obokata portent sur la mise au point d’une méthode de production de cellules pluripotentes  en infligeant un stress à des cellules somatiques, les cellules non germinales qui forment la quasi-totalité du corps d’un organisme. Pensant que même des cellules de mammifères sont  capables de se reprogrammer par instinct de survie, mimant le mécanisme permettant la repousse de la queue d’un lézard par exemple,  les scientifiques planchent sur la nature du stress qui pousserait les cellules à un tel exploit. Les résultats publiés dans Nature valident cette théorie pour des cellules de souris. Les Cellules pour acquisition de pluripotence déclenchée par stimulus (STAP) sont officiellement nées. 

C’est la première fois que le phénomène est observé. Mais les cellules STAP vont encore bluffer les scientifiques puisqu’elles pourraient servir à la formation de tissu placental, impossible à obtenir à partir des cellules souches, iPS ou embryonnaires. Une compétence qui va encore plus loin que la pluripotence. Il s’agirait ni plus ni moins de totipotence, soit la capacité de se transformer en n’importe quelle cellule et de former un être vivant dans sa totalité. De quoi envisager le clonage à partir d’une unique cellule alors qu’aujourd’hui un ovocyte hôte est nécessaire.

Mais l’enthousiasme des scientifiques des quatre coins du monde va vite retomber. En effet, l’Institut Riken met en place un comité d’enquête suite à des signalements d’incohérences dans les articles de Nature : Haruko Obokata aurait-elle trichée ? Car les erreurs relevées paraissent peu fortuites et plutôt volontaires. Le comité s’est focalisé sur six points douteux et conclu que des images ont été falsifiées. C’est un véritable coup de tonnerre. D’autant que le Riken est impitoyable, écrivant qu’ « En mêlant des images issues d’expériences différentes et en utilisant des données antérieures, le professeur Obokata a agi d’une façon qui ne peut aucunement être permise. […]Les actions de Mme Obokata et la façon bâclée dont elle a géré ses notes nous conduisent à conclure qu’elle manque non seulement de sens éthique mais aussi d’humilité et d’intégrité ». 

Haruko Obokata s’est défendu en affirmant la réalité des cellules STAP, tout en reconnaissant des erreurs de forme dans ses publications. Le biologiste Yoshiki Sasai, entraîné dans la tourmente médiatique en tant que superviseur de la jeune chercheuse, n’a pas résisté à la pression et s’est donné la mort début août.

Alors, les cellules STAP sont-elles une vaste tromperie ? A ce jour, si l’Institut a officiellement dénoncé les visuels comme des faux, il n’a pas su dire si l’ensemble des recherches relève aussi de la fumisterie. Le Riken indique qu’il lui faudra pas moins d’une année pour vérifier le travail d’Haruko Obokata.

Par Audrey Loubens

Du plutonium de Fukushima retrouvé plus loin que prévu

Les premières mesures  de l’isotopie du plutonium dans les eaux suite à la catastrophe de Fukushima montrent un ratio 241Pu/239Pu plus élevé que le ratio induit par les tests nucléaires des années 1960. Autrement dit, du plutonium de Fukushima a bien contaminé les rivières et menace de contaminer l’océan.

Les équipes du LSCE (CNRS/CEA/UVSQ) et du CEA, en collaboration avec une équipe japonaise de l’université de Tsukuba se sont intéressées à tous les isotopes du plutonium, 239Pu, 240Pu, 241Pu et 242Pu. Les chercheurs ont réalisé les analyses des sédiments prélevés dans les rivières côtières par spectrométrie de masse couplée à un plasma inductif (ICP-MS). Ces mesures ont permis de connaitre la valeur du ratio 241Pu/239Pu. La proportion entre élément et un autre est un marqueur utilisé pour connaitre l’origine du polluant et le moment où il a été émis.  Cette valeur est plus fiable qu’une mesure absolue de plutonium puisque le Japon a déjà été victime de pollution radioactive et il est normal d’en retrouver des traces. Toute la difficulté est de savoir différencier le plutonium issu de précédents évènements de celui émis suite à la catastrophe de la centrale Fukushima. Or, la valeur du ratio 241Pu/239Pu est plus élevée qu’attendu. Ceci prouve que du plutonium a bel et bien pollué les eaux aux alentours de la centrale. Pire, cette contamination s’est propagée assez loin, les travaux parus dans la revue Environmental Science & Technology indiquant la présence de plutonium lié à l’accident nucléaire jusqu’à 45km de la centrale.

Cette étude pourra servir de référence dans le suivi de la contamination, notamment en pistant les roches sédimentaires radioactives susceptibles d’atteindre l’océan Pacifique.

Les mesures sont accessibles sur le site de la revue ici

Par Audrey Loubens, journaliste scientifique

Le triclosan déconseillé aux femmes enceintes

Alors que le triclosan et le triclobaran sont régulièrement dénoncés comme nocifs pour la santé, voilà qu’une étude en révèle la présence à l’intérieur du cordon ombilical. Autrement dit, ces deux substances atteignent les bébés in utero et pourraient donc provoquer de nombreuses pathologies. Car le triclosan est soupçonné d’être un perturbateur endocrinien, de développer la résistance aux antibiotiques, de favoriser les allergies mais aussi d’altérer la fonction musculaire. Autant de dangers auxquels s’exposent les utilisateurs réguliers adultes. Quand cet adulte est une femme enceinte, ces produits toxiques passent dans le cordon ombilical et peuvent atteindre le fœtus.
L’étude parue dans Environmental Science and Technology révèle que des traces de triclosan ont été retrouvées dans les 181 échantillons d’urine de femme enceinte. La moitié des échantillons de sang de cordon en contenaient eux aussi. Plusieurs échantillons présentaient aussi des traces de triclobaran. Ces mesures réalisées par les chercheurs de l’Université d’Arizona prouvent que le risque s’étend au fœtus.
Le problème est que ces deux substances chimiques sont très répandues dans les objets du quotidien. On les retrouve dans de nombreux dentifrices, savons et détergents.
Les Américains sont les premiers à prendre des mesures face au risque chimique que représentent les agents antibactériens chimiques. Le Minnesota a ainsi interdit l’utilisation du triclosan et du triclobaran, avec une entrée en vigueur en 2017. Les autorités sanitaires américaines demandent désormais aux fabricants de savon contenant des antibactériens chimiques de prouver leur innocuité. Johnson & Johnson et Procter & Gamble ont d’ores et déjà annoncé qu’ils n’utiliseraient plus ces produits.
En France, les produits peuvent contenir jusqu’à 0.3% de triclosan. Cependant, la commission européenne vient de l’interdire dans tous les produits de rasage à partir du 30 octobre 2014.

Par Audrey Loubens, journaliste scientifique
 

Faut-il attendre une réaction de l’Arabie Saoudite sur le marché du pétrole ?

En effet le prix du baril OPEP, publié quotidiennement par le Cartel, a perdu près de 10 dollars le baril depuis le 18 Juin dernier (FIG.I) pour se retrouver à mi Août aux frontières des 100$ le baril, seuil psychologique de déclenchement de puissants conflits d’intérêts. La vie est chère en Arabie, l’inflation y galope, les dignitaires locaux émargeant à la rente pétrolière ne peuvent pas voir leurs revenus s’étioler et leur standing baisser. Ces dignitaires gèrent, avec rigueur, une rente naturelle payée en dollars et non en monnaie locale. (On peut lire les travaux de l’excellent Yanagisawa sur ce sujet)

FIG.I Prix du panier moyen OPEP en dollars le baril depuis le mois de Juin 2011

La dernière réaction de ce pays n’est pourtant pas si lointaine. Entre Juin et Juillet 2012 les prix du panier OPEP étaient passés au-dessous des 100$ le baril pour même atteindre les 90$ (FIG.I), cette incartade du Marché fut immédiatement punie par une baisse des productions saoudiennes de près d’un million de barils/jour durant plusieurs mois (FIG.II), le temps de purger dans le monde quelques stocks de pétrole brut trop abondants et de tendre à nouveau les flux. Les cours du baril retrouvèrent rapidement des niveaux satisfaisants pour le Cartel, autour des 110 dollars le baril.

FIG.II Flux des extractions mensuelles moyennes de pétrole par l’Arabie Saoudite, en millions de barils par jour

Les dernières productions de ce Royaume publiées par l’EIA (je suppose que l’Administration américaine connait très bien les productions saoudiennes) pour le mois de Juillet sont à 9,8 millions de barils/jour en croissance par rapport à celles du mois précédent. Cela signifie que la demande de brut, venant essentiellement d’Asie, a été soutenue au mois de Juillet. Je pense cependant que devant la baisse des prix du baril, l’Arabie Saoudite ne peut pas rester trop longtemps indifférente à ce phénomène, même si son allié américain lui a demandé de laisser chuter les cours pour handicaper un peu plus la Russie et favoriser la relance économique. Il sera donc passionnant de suivre les productions de pétrole saoudien d’ici à la fin de cette année et d’en mesurer les effets sur les cours du pétrole. Comme par le passé récent, ces derniers ne devraient pas rester durablement au-dessous des 100 dollars le baril.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Google a une dent contre les sites utilisant Flash

C’est une véritable déclaration de guerre. En marquant les liens dirigeant vers des sites recourant à Flash, Google les pénalise. Mais qu’a fait le Flash pour s’attirer ainsi les foudres de Google ?

Tout simplement, Flash n’est pas compatible avec un terminal fonctionnant sous iOS ou Androïd et les sites y recourant sont partiellement ou intégralement incompatibles.

Or, iOS est le système d’exploitation d’Apple et Android celui de Samsung. L’essor fulgurant des tablettes et smartphones accroit la quantité de recherches Google effectuées via ces terminaux mobiles. Oui mais voilà, ces derniers ne supportent pas le Flash et un internaute cliquant sur un des liens indiqués par Google suite à une recherche renvoyant à un site sous Flash ne verra pas le site s’afficher correctement.

De quoi énerver l’internaute.  Google, soucieux du bien-être de ses utilisateurs, a donc décidé d’indiquer quels sites sont susceptibles de ne pas fonctionner sous iOS et Android : « Il y a un agacement fréquent pour les utilisateurs web quand des sites exigent des technologies de navigateurs qui ne sont pas supportées par leur terminal. Quand des utilisateurs accèdent à de telles pages, ils ne voient qu’un espace blanc ou du contenu manquerait sur une bonne partie de la page. A partir d’aujourd’hui, nous indiquerons aux internautes quand nos algorithmes détectent des pages qui ne fonctionneraient pas sur leurs appareils. »

Le taux de clic de ces sites risque de chuter fortement, une pénalité qui va « encourager » les sites à utiliser le HTML 5 et le Responsive Design. Sympa, Google oriente vers deux sites pour ceux qui souhaitent se convertir au développement efficacement. Merci Google.

La chasse au Flash est ouverte !

Par Audrey Loubens

Rappel de boissons Mars, Snickers, Milky Way et Bounty, en raison d’une bactérie

Les produits concernés sont les boissons Mars Milk, Snickers Shake, Milky Way Milk et Bounty Drink, en bouteilles de 350 millilitres à bouchon sport, et dont les dates limites de consommation sont comprises entre le 19/12/2014 et le 11/04/2015.

Ces produits sont fabriqués par la société allemande Milchwerke Mittelelbe GmbH.

« Nous avons décidé de retirer de la vente ces produits par précaution car leur consommation pourrait entraîner des risques pour la santé, dus à la possible présence d’une bactérie connue sous le nom de bacillus Subtilis », annonce la compagnie dans un communiqué.

Cette bactérie est considérée comme peu virulente mais peut entraîner dans certains cas des intoxications alimentaires.

« Il est demandé aux personnes qui détiendraient ces produits de ne pas les consommer », ajoute Mars Chocolate Drinks, qui précise avoir « pris contact avec les autorités pour (s’)assurer de suivre toutes les mesures appropriées ».

Le service consommateurs de la société est joignable au 09 69 32 06 80.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un rendement exceptionnel avec du méthanol fabriqué à partir d’acide formique

50%. C’est le rendement obtenu par les équipes de l’Iramis du CEA dans la production de méthanol grâce à des catalyseurs innovants. Pour doper la performance du procédé, les scientifiques ont développé des catalyseurs à base de ruthénium. Un choix de matériau payant puisque le remplacement de l’Iridium, premier catalyseur utilisé jusqu’alors,  par le ruthénium est très avantageux d’un point de vue économique, le ruthénium étant nettement moins cher que l’iridium. De plus, les catalyseurs à base d’iridium ont un rendement de seulement 2%.  Or, les résultats obtenus avec un catalyseur à base de ruthénium permettent d’atteindre un rendement de 50%.

Les scientifiques ont réussi à montrer que l’espèce active en catalyse était un complexe hydrure de ruthénium capable de redistribuer correctement la liaison C-H de l’acide formique. Ainsi, trois molécules d’acide formique aboutissent à la création du méthanol et de deux molécules de CO2. Cette méthode affiche un bilan carbone favorable avec trois molécules de CO2 pour fabriquer trois molécules d’acide formique :

3 CO2 donnent 3 molécules d’acide formique qui, grâce au catalyseur à base de ruthénium, donnent 1 molécule de méthanol, 2 de CO2 et de l’eau.

Publiés dans Angewandte Chemie, ces travaux donnent une nouvelle direction à la fabrication de méthanol à partir d’acide formique. Sachant que le méthanol est impliqué dans la fabrication de carburant à base de ressources renouvelables, cette approche apparait comme crédible et efficace pour utiliser le CO2 comme source d’énergie.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Une voiture qui roule grâce à des électrolytes !

Si les batteries à flux sont déjà utilisées pour les systèmes de stockage d’énergie éolienne et solaire domestiques, elles n’avaient pas encore tracé leur route jusqu’aux véhicules électriques. C’est désormais chose faite grâce au prototype Quant e-Sportlimousine, qui sera prochainement décliné en véhicule de série. Les premiers tests du prototype viennent d’être autorisés sur les routes publiques européennes par Tüv Süd.

Ce prototype a tout d’une Supercar. Doté d’une carrosserie en fibre de carbone, ses dimensions sont atypiques (5,24 x 2 mètres), ce qui lui permet d’embarquer 4 sièges. Propulsé à l’eau dopée aux électrolytes, ce véhicule atteint 100 km/h en 2,8 secondes et présente une belle pointe à 349 km/h. 

Les batteries à flux combinent les aspects d’un accumulateur électrochimique à ceux d’une pile à combustible. La voiture dispose ainsi de deux réservoirs d’électrolytes liquides. Ces fluides électrolytiques sont pompés à partir de réservoirs à travers la cellule (la nanoFLOWCELL), où se réroule une « combustion froide », au cours de laquelle les processus d’oxydation et de réduction se produisent en parallèle. La réaction d’oxydo-réduction génére alors un courant l’électrique qui alimente les 4 moteurs électriques disposés dans chaque roue. Le prototype pèse tout de même 2,3 tonnes, avec ses deux réservoirs de 200 litres pleins.

Lorsque les électrolytes sont « déchargés », ils suffit de les pomper en dehors des réservoirs et de les remplacer par des électrolytes fraîchement concentrés. La charge est alors rapide; il suffit simplement de recharger les réservoirs, comme on le ferait pour des véhicules à essence. Le liquide déchargé pourra quant à lui être à nouveau rechargé de manière « propre » grâce à des éoliennes ou des panneaux solaires.

Quels avantages par rapport aux batteries acide-plomb ou lithium-ion?

Outre leur toxicité, l’inconvénient principal des batteries plomb-acide utilisées dans les voitures à essence et diesel réside dans leur faible capacité énergétique, à environ 30 Wh/kg. De plus, à cause de leur « effet mémoire », elles perdent rapidement leu capacité de charge après 500 cycles de charge et doivent être remplacées. Les batteries lithium-ion ont quant à elles une capacité de charge 4 fois supérieure, égale à 120 Wh/kg, et  résistent à environ 1 000 cycles de charge. Enfin, les batteries à flux les plus répandues ont la même densité de puissance, mais sont beaucoup plus durables : elles peuvent atteindre 10 000 cycles de charge sans effet mémoire notable.

Néanmoins, grâce à une combinaison rigoureuse de sels métalliques (sans métaux précieux ni terres rares, assure le constructeur) et de structures cristallines à très haute concentration, la nanoFLOWCELL de la Quant e-Sportlimousine va beaucoup plus loin. Sa capacité de charge est de 600 Wh/kg, soit 5 fois plus que les batteries lithium-lion des technologies actuelles. Un autre avantage est à noter : elles ne se déchargent que très lentement. Lorsque la voiture n’est pas utilisée, le taux de décharge est en effet de moins de 1 % par jour. 

Le prototype Quant e-Sportlimousine présente deux réservoirs de 200 litres à bord. Il emporte donc une énergie égale à 200 fois 600 Wh/L, soit 120 kWh au total. En consommant environ 20 kWh/100 km, la voiture aura donc une autonomie pouvant aller jusqu’à 600 km.

« Les avantages de la nanoFLOWCELL résident dans sa densité de charge élevée, sa densité de haute performance, et son faible poids par rapport aux systèmes de stockage d’énergie conventionnels. En outre,elle ne contient pas de substances nocives, pas de pièces mobiles, et elle est très efficace », résume Nunzio La Vecchia, PDG et directeur technique de NanoFlowcell.

Pour l’instant, le prix d’une recharge n’est néanmoins pas communiqué. Pas plus que celui de ce véhicule, mais l’addition promet sûrement d’être salée !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Interview expert : « Le management a besoin d’être plus agile, plus ouvert et plus curieux »

En quelques mots, qu’ est-ce que les réseaux et la révolution digitale change en termes de management ? De gouvernance ?

La révolution numérique et les réseaux fluidifient et accélère la circulation de l’information en multipliant les supports, les canaux et les sources.

Dans ce contexte, le management doit être capable d’exploiter la valeur de ce capital informationnel pour préciser sa vision, affiner sa stratégie et créer les capacités d’engagement au service de la performance économique et sociale de l’entreprise.

Les réseaux compliquent la donne du simple fait qu’aujourd’hui c’est moins « la possession » de l’information qui est clef que la capacité à la capturer, l’identifier dans des flux denses, ininterrompus et rapidement l’évaluer.

Le management a besoin d’être plus agile, mais également plus ouvert et plus curieux. Il va inscrire ses actions dans une stratégie d’échanges, ce qui en termes de gouvernance appelle à plus de transparence, de bienveillance et probablement d’humilité pour créer les conditions de la confiance. Il doit savoir utiliser les réseaux et s’entourer des meilleurs hommes pour évaluer avec pertinence les idées afin de trouver les relais de croissance et les « nouveaux » modèles d’affaires adaptés à l’économie numérique.

Dans son livre « Petite Poucette », Michel Serres annonce la fin du savoir, des experts et des décideurs, la révolution numérique annonce-t-elle aussi la fin des managers ?

Michel Serres est un philosophe brillant et je ne me permettrais pas de commenter sa vision présentée dans cet ouvrage. Le terme « managers » est parfois équivoque : si on parle des dirigeants qui participent aux comités de direction (la fameuse C suite) et aux conseils d’administration, dans des rôles « de gestionnaires » ou de « guides », je ne pense pas qu’ils vont disparaître de sitôt ; par contre, il est probable que la manière dont ils vont agir va évoluer vers plus de transparence et d’ouverture face à une responsabilité accrue du simple fait d’une plus grande « visibilité » donnée à leurs décisions et réalisations. Et il y le « middle management », les directeurs de services, les responsables d’unité, d’établissement ou de centres de profit, les chefs « métiers », tous ceux qui au quotidien gèrent des équipes, des opérations, des résultats, des réussites mais aussi parfois des échecs. Ces managers, habitués à être « au front », sont ceux dont le rôle va probablement le plus changer ces prochaines années. Il est possible que ces fonctions disparaissent des organigrammes, mais peu importe ! Le quotidien des femmes et des hommes en charge de ces responsabilités va être différent et il leur appartiendra de le transformer au gré de leurs réelles compétences personnelles.

Dans un monde en réseaux, quelles nouvelles postures le manager doit-il adopter rester légitime ?

Un monde en réseau est un monde constitué d’espaces ouverts dans lesquels tout à chacun a la possibilité de s’exprimer dans le cadre d’une étiquette (gouvernance) essentiellement basée sur le savoir-vivre. Le manager, traditionnellement plus à l’aise dans des communautés « privées », va progressivement se trouver exposé différemment et il doit mettre en œuvre une stratégie efficace.

La légitimité ne se décrète pas, elle vous est reconnue par vos pairs, vos employés, notamment, et il est important pour les managers de trouver la juste mesure en terme d’attitude et de discours sur les réseaux.

Il y a des qualités qui restent « intangibles » bien que parfois peu valorisées au quotidien, telles que l’empathie ou encore la bienveillance. Dans un monde connecté, la compétence ne suffit plus, le manager doit montrer sa capacité à s’entourer des meilleurs et à « donner envie » à ses équipes dont l’engagement est clef. On ne demande pas à un manager d’être omniscient, ni d’avoir le don d’ubiquité, par contre son écoute, son ouverture au dialogue et son savoir être sont les atouts qu’il doit être capable de mettre en valeur.

En résumé, compétent, habile, humain, simple, avec de l’autorité et sachant prendre des décisions, telles sont les qualités essentielles du manager dans un monde de réseau.

Comment l’entreprise peut-elle tirer profit des réseaux et se transformer pour trouver de nouveaux relais de croissance ?

Pour moi, il ne fait aucun doute que les réseaux et le monde connecté sont porteurs d’une valeur inestimable et largement sous évaluée et encore mal ou peu exploitée. Bien évidemment, la valeur est toujours étroitement liée aux objectifs des individus et des organisations, mais il n’empêche qu’au delà des singularités et des opportunismes, il est une condition essentielle pour « exploiter » ce gisement d’information que sont les réseaux : l’ouverture d’esprit !

Les réseaux offrent aux entreprises des espaces pour trouver des nouvelles idées, valider des options, mette en œuvre une démarche innovante, apprécier un modèle d’affaire, un produit ou encore un service, gagner de nouveaux marchés, identifier des talents, trouver des fonds, par exemple.

Mais l’entreprise doit approcher les réseaux avec une démarche différente que celle qu’elle a pu mettre en œuvre jusque là.

Elle doit s’ouvrir, montrer la pertinence de sa proposition de valeur sans arrogance et avoir une stratégie solide au regard des objectifs qui sont les siens.

L’entreprise peut créer et animer des espaces communautaires, lancer et participer à des discussions déjà existantes, diffuser ses messages et illustrer sa proposition de valeur, rejoindre des groupes qui peuvent lui être utiles par exemple. Quelle que soit la stratégie retenue, l’entreprise – par ses porte-parole – se doit d’être à l’écoute, humble et pertinente pour créer un intérêt autour d’elle. Les relais de croissance sont les offres de produits et/ou de services qui se vendront demain et aujourd’hui, plus que jamais, il est difficile de les imaginer sans le concours explicite de ceux à qui ils sont destinés, particuliers ou entreprises.

Interview de Claude Super réalisée par Marion Breulleux

Claude Super :

Claude Super est Expert en gouvernance informationnelle et stratégie social business. Il travaille avec de nombreuses entreprises et organisations en Europe dans le cadre de projets de valorisation des réseaux et des espaces collaboratifs. Il contribue au choix des solutions les mieux adaptées pour répondre aux besoins d’efficacité, d’animation, de gestion et de performance. Il anime également un blog dédié aux technos 2.0 et à l’entreprise de demain.
Lors du Panorama des Innovations managériales qui se tiendra les 1er et 2 octobre prochains, il interviendra sur le sujet « À l’ère des réseaux, le management doit se réinventer ! »

Source : management.efe.fr/2014/07/07/management-besoin-detre-agile-ouvert-curieux

Manager en mode start-up : « Développer un sentiment de fierté chez chaque collaborateur est primordial »

Pouvez-vous définir un quelques mots la culture managériale start-up ?

Les principales caractéristiques d’une start-up sont le changement, la vitesse, la circulation rapide de l’information et la capacité à se développer en l’absence de process notamment d’un point de vue managérial et RH.

Chez Videdressing, nous sommes dans un contexte de forte croissance. Le nombre de collaborateurs augmente très vite. Nous sommes passés de 12 à 80 collaborateurs en 18 mois !

Jusqu’à 20 collaborateurs, la société se gérait sans process définis, et notamment sans process RH.

La culture n’avait pas besoin d’être formalisée, ni même partagée car l’information circulait de manière très fluide. Il n’y avait aucune barrière dans la mesure où tout le monde était au contact direct et permanent des fondateurs

Aujourd’hui, nous nous posons beaucoup de questions sur la manière de maintenir l’esprit des débuts, sur la mise en place des process. Avec 80 collaborateurs, il est clair que le risque de déperdition d’informations est plus grand, que la culture de l’entreprise ne se diffuse plus aussi naturellement. Nous devons définir quels messages nous souhaitons faire passer aux collaborateurs et comment les faire passer.

Évoluer dans l’univers des start-up nous permet d’accéder facilement à des entrepreneurs qui ont connu le même développement rapide et qui peuvent nous conseiller sur de nouvelles actions en mettre en œuvre à l’instar de Frédéric Mazzella, P-DG de Blablacar par exemple.

Ce qui est stimulant dans une start-up, c’est de savoir que dans un an et demi, nous serons 200 et devrons tout revoir ! Le changement permanent, la vitesse, cela nous oblige à rester agiles et à nous adapter rapidement.

Comment préserver l’agilité et l’engagement des salariés à mesure que l’entreprise s’agrandit ?

Notre plus grand challenge dans cette phase de forte croissance c’est la mise en place d’un middle management et d’une organisation par service. Cette organisation, nous pousse à être beaucoup plus vigilants sur la circulation et le partage d’informations entre managers et entre services. L’accès à l’information, la connaissance des projets en cours sont les fondements de l’engagement des collaborateurs.

Actuellement, chaque manager organise régulièrement des réunions d’information pour assurer un niveau d’information égal dans chaque service. Moi-même, je présente chaque mois les résultats de l’entreprise à tous les services. C’est un moment privilégié pour rappeler où nous en sommes et où nous voulons aller.

Rappeler sans cesse notre objectif et notre vision pour l’avenir est essentiel pour maintenir l’engagement de tous nos collaborateurs.

A cet égard, nous nous inspirons de ce que Frédéric Mazzella a mis en place chez Blablacar. Nous allons remettre en place une réunion réunissant tous les collaborateurs. Lors de cette réunion bimensuelle chaque service présentera à tour de rôle ses réalisations des 3 derniers mois et ses projets pour les 3 prochains.

Notre objectif est de fluidifier au maximum la circulation de l’information, de favoriser la cohésion entre services et le respect du travail des autres équipes. C’est également un moyen de responsabiliser chaque manager puisqu’ils prennent un engagement devant l’ensemble des collaborateurs et plus seulement vis-à-vis de leurs N+1.

Notre croissance nous pousse à nous organiser en services. Pour autant, il est impératif pour nous de préserver la transversalité, la coopération entre services et d’éviter la création de silos. Chacun doit comprendre en quoi son activité peut impacter le travail des autres et être dans un état d’esprit tourné vers l’entraide. Car c’est sur ces valeurs que repose notre agilité !

Quelle vision transmettez-vous aujourd’hui aux managers et aux collaborateurs qui rejoignent Videdressing ?

Nous essayons de transmettre notre ambition et rappelons à chaque nouveau collaborateur qu’il intègre une des success story française et mondiale. Nous avons un objectif élevé, c’est pourquoi, développer un sentiment de fierté chez chaque collaborateur est primordial.

Nous cherchons également à cultiver l’adaptabilité car tout change très vite. Nous accueillons régulièrement de nouveaux arrivants, les missions, les postes peuvent changer du jour au lendemain.

Nous vivons dans un changement permanent et les collaborateurs doivent être prêts à relever ces défis ensemble.

Quelles sont les bonnes pratiques dont les grandes entreprises ou les managers de service peuvent s’inspirer pour casser la routine ?

C’est une question complexe car chaque organisation a sa propre histoire, sa propre culture. Il y a des bonnes et des mauvaises pratiques dans toutes les entreprises.

Cela étant, je perçois deux éléments différenciants entre une start-up et une grande entreprise : la passion et l’effervescence ainsi que le changement quasi permanent des postes et des missions.

Chez Videdressing, nous sommes tous passionnés et nous partageons notre passion tous les jours. Transmettre une passion, une excitation quant au projet de l’entreprise est un vecteur essentiel d’engagement et de mobilisation des collaborateurs. Ce n’est pas aussi facile pour des cadres travaillant dans une grande entreprise où le sentiment de participer à un projet collectif peut être plus dilué. Le dirigeant, les managers ont un rôle fondamental à jouer dans la transmission de ce sentiment.

Une des caractéristiques des start-up qui peut inquiéter des collaborateurs ou des managers de grandes entreprises est l’évolution permanente des postes et des missions. Dans une start-up, voir son poste changer est considéré comme positif et bénéfique. Accueillir ce changement, l’encourager en tant que manager me semble parfois plus difficile dans une grande structure où le périmètre des postes est plus stable.

Nous avons également à apprendre des grandes entreprises car nous allons grandir et allons découvrir progressivement de nouvelles contraintes propres aux grandes structures. Le défi est de faire attention à mettre en place des process tout en préservant notre nature et notre histoire.

Interview de Meryl Job (Fondatrice, CEO de Videdressing) et Renaud Guillerm (Co-fondateur, Président de Videdressing) par Marion Breulleux

Source : management.efe.fr/2014/07/25/manager-en-mode-start-up

Dialogue de sourds : culture du mépris

Deux comédiens rejouent une scène classique lors d’une fusion. Deux managers doivent collaborer pour réussir le projet  de réorganisation de l’entreprise. Que pensez-vous de leurs chances de réussite ?

Avez-vous remarqué que pour Paul, qui illustre la culture de son entreprise d’origine, la priorité est l’humain ? Tandis que pour Marie, qui vient d’une autre entreprise, la priorité est la tâche à réaliser ? Chacun d’entre eux souligne, selon sa culture, une nécessité pour réussir le projet. Problème : chacun d’entre eux agit sur la défensive. Leur confrontation porte préjudice au projet de l’entreprise. Pour le succès du projet, il est important qu’ils acquièrent une compétence indispensable : l’approche constructive. 

Les nouveaux comportements qui en découlent vont leur permettre de combiner leurs talents respectifs. En l’absence de nouvelles compétences relationnelles, et compte tenu de leur attitude défensive, nous pouvons êtres inquiets pour l’avenir de leur projet.

 

Par Dino Ragazzo

Reportage vidéo – La peinture qui dépollue

L’investissement en recherche est le principal atout de l’innovation. Les chercheurs de l’Onip ont conçu mieux qu’une peinture qui ne pollue pas, une peinture qui absorbe la pollution. Le corps de la formule : du carbonate de calcium et du titane.

« L’idée, c’était non seulement de fabriquer des produits peu émissifs donc avec une étiquette A+, mais aussi de participer à la dépollution de l’air intérieur, parce que la pollution de l’air intérieur vient essentiellement de tout ce qui est produit d’ameublement, cuisson ménagère, etc. Cela émet beaucoup de polluants, les dalles de plafond également, les moquettes, certains textiles, la fumée, les fruits lorsqu’ils pourrissent, surtout les pommes, elles émettent alors énormément de formaldéhydes. » explique Patrick Verlhac, le Directeur du laboratoire.

 

Réalisation : François Demerliac
Production : Universcience, Fondation de la Maison de la chimie, Virtuel

Source : universcience.tv

La production de viande bovine coûte cher à l’environnement

Certains types d’élevage ont de lourdes conséquences sur notre environnement. Des chercheurs de la revue scientifique Proceedings of the National Academy of Sciences ont conclu dans un rapport que la production de bœuf nécessitait 28 fois plus de terres et 11 fois plus d’eau d’irrigation que l’élevage de porcs, de volailles, d’œufs ou de produits laitiers.

« L’analyse comparative nous permet de connaître avec exactitude l’impact qu’ont les élevages bovins, porcins, avicoles, et la production de lait et d’œufs en termes d’utilisation des terres et de l’eau, de rejets d’azote réactif et les émissions des gaz à effet de serre », a expliqué à la BBC le professeur Gidon Eshel du Bard College de New York.

Les scientifiques ont calculé la quantité de ressources nécessaires pour toute la nourriture consommée par le bétail destiné à l’abattage. Ils se sont donc penchés sur la quantité de foins, de fourrage et de concentrés comme les germes de soja indispensables pour la production d’un kilo de viande. Ils ont analysé aussi les émissions de gaz à effet de serre engendré par le fourrage des animaux, mais également par leur digestion et par leur fumier.

Outre les répercussions sur la terre et l’eau, les cheptels bovins libèrent cinq fois plus de gaz à effet de serre et consomment six fois plus d’azote que la production d’œufs ou de volaille.

Taxe européenne sur la viande ?

Les autorités agricoles suédoises ont recommandé en 2013 de mettre en place une taxe à l’échelle européenne pour réduire la consommation de viande. Le ministère de l’agriculture suédois a indiqué que cette mesure permettrait de réduire l’impact de la production de viande sur l’environnement.

Marit Paulsen, eurodéputée suédoise et membre de la commission sur l’agriculture et le développement rural, a expliqué à EurActiv qu’elle était en faveur d’une taxe supplémentaire sur la viande, même si elle représente le groupe libéral au Parlement européen. Elle a ajouté que le prix de la viande devrait être plus élevé pour protéger l’environnement.

« Je pense que la viande deviendra plus chère. Je ne sais pas quelle manière choisir, mais, si nous devons ajouter une taxe, allons-y. Mais, bon dieu, entamons maintenant une réelle discussion tout en gardant en tête que nous ne pouvons pas nous permettre de dépenser autant d’argent pour produire de la viande », a-t-elle déclaré.

Source : EurActiv.com – traduction de l’anglais par Aubry Touriel 

Et aussi dans les
ressources documentaires :

Quand un mégaséisme au Chili fait trembler la glace de l’Antarctique

Six heures après le puissant tremblement de terre ayant secoué les côtes chiliennes, des détecteurs installés dans l’Antarctique occidental ont enregistré de petites secousses, fournissant pour la première fois aux scientifiques la preuve que la plus grande couche de glace du monde peut être affectée par des séismes lointains mais très puissants, affirment les auteurs de l’étude.

Douze des 42 stations de mesures qui jalonnent le continent glacé ont montré les « signes clairs » d’un pic d’activité sismique de haute fréquence, synonyme de fracturation de la glace près de la surface, expliquent les chercheurs dans la revue britannique Nature Geoscience.

Le mégaséisme qui a frappé la région chilienne de Maule le 27 février 2010 a atteint une magnitude de 8,8, ce qui en fait l’un des plus puissants connus à ce jour. Il a fait plus de 500 morts et provoqué des dégâts estimées à plus de 22 millions d’euros.

La secousse avait déclenché des micro-séismes qui avaient été ressentis jusqu’en Amérique du Nord, au fur et à mesure que l’onde de choc se diffusait dans l’écorce terrestre et provoquait des mouvements dans certaines failles.

Les géologues cherchent depuis longtemps à comprendre comment les calottes glaciaires du Groenland et d’Antarctique – dont le sous-sol rocheux est par ailleurs considéré comme relativement calme du point de vue sismique – réagiraient à des séismes massifs dans un autre point du globe.

Voici encore quelques années, ils ne disposaient d’aucune explication satisfaisante, jusqu’au déploiement d’un réseau de détecteurs sur ces nappes de glace.

Même si les signaux reçus après le séisme chilien de 2010 sont restés globalement peu précis, de nets signes d’activité ont été enregistrés dans une station de surveillance des Monts Ellsworth, dans l’Ouest Antarctique, qui a identifié la signature caractéristique d’un séisme. Pourtant, d’autres stations voisines ne percevaient dans le même temps rien de concluant.

Selon Zhigang Peng, de l’Institut de Technologie de Géorgie à Atlanta (USA), ces incohérences apparentes sont vraisemblablement liées au fait que les secousses provenaient de la couche de glace couvrant la région, et non pas du sol rocheux situé en-dessous.

« Nous n’en sommes pas sûrs à 100%, mais nous pensons que les signaux sismiques étaient émis par la fracturation de la glace au sein de la calotte, probablement très près de la surface », a-t-il expliqué à l’AFP.

Ces données suggèrent que des pans entiers de la calotte glaciaire peuvent être fragilisés par des mégaséismes, même distants de milliers de kilomètres. Mais il est nécessaire de poursuivre les recherches pour mieux comprendre le phénomène et savoir par exemple si un tel séisme est capable d’ouvrir une crevasse en Antarctique ou d’y accélérer la progression d’un glacier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »