La NASA ne comprend pas d’où vient le surplus de tétrachlorure de carbone présent dans l’air

D’où vient tout ce tétrachlorure de carbone (CCl4) ? C’est la question que pose la NASA qui vient d’en détecter une quantité incompréhensible. En effet, alors que l’usage de CCl4 a été interdit en 1985 du fait de sa toxicité et de son impact sur la couche d’ozone qu’il contribue à détruire, les ingénieurs américains  ont pourtant constaté une quantité inexpliquée de CCl4 dans l’atmosphère. Alors que son taux aurait dû diminuer de 4% par an, il semble qu’il ne baisse que de 1%. 

Mais alors pourquoi autant de CCl4 ? Cet agent chimique était massivement utilisé par les industriels comme solvant ou réfrigérant. Mais alors que depuis 2007 (et jusqu’à 2012) aucune émission n’a été déclarée par les états signataires du protocole, il apparait que ces émissions ont pourtant  atteints 39 000 tonnes par an en moyenne. Un chiffre loin d’être négligeable et qui témoigne soit d’émissions illégales ou inconnues, soit d’un mécanisme de dégradation erroné.

Depuis plus de dix ans, la communauté scientifique s’interroge sur la décroissance beaucoup trop lente du niveau de CCl4 en comparaison avec la théorie.

L’évolution du taux de CCl4  a été modélisée par l’équipe du Professeur Liang à l’aide d’un logiciel de la NASA et en considérant les données atmosphériques des différents réseaux d’observation autour du globe. Ce sont ces simulations qui signalent le taux anormalement élevé de CCl4. Les travaux publiés dans Geophysical Research Letters révèlent en outre que le CCl4 présente une durée de vie dans l’atmosphère 40% plus longue que celle attendue ! Autant de désaccords entre la théorie et la pratique inquiétants.

Reste à la communauté internationale à déterminer l’origine de ces écarts : existe-t-il des modèles de dégradation du CCl4 inconnus ? Des industriels continuent-ils à utiliser ce polluant en toute illégalité ? Existe-t-il des sources naturelles non identifiées ?

L’enquête ne fait que commencer.

Par Audrey Loubens, journaliste scientifique

Des chercheurs assurent avoir trouvé l’algorithme du chien de berger

p>C’est grâce au système de navigation par satellites que les scientifiques ont finalement réussi à comprendre le fonctionnement des chiens de berger. Jusqu’alors, ils n’avaient aucune théorie satisfaisante pour expliquer leur faculté à déplacer aussi efficacement un groupe d’animaux indisciplinés dans la même direction.

Andrew King, biologiste à l’université galloise de Swansea, a commencé par équiper de harnais GPS un chien de berger (une femelle de race Australian Kelpie) et un troupeau de brebis mérinos. Il a ensuite observé le comportement des uns et des autres dans une prairie du sud de l’Australie, enregistrant les mouvements de chaque individu avec une précision de 10 à 20 cm.

Daniel Strömbom, mathématicien à l’université suédoise d’Uppsala, et ses collègues ont alors analysé ces données pour établir l’algorithme (suite d’opérations permettant de résoudre un problème) régissant les décisions et les actions du chien de berger.

A leur grande surprise, un modèle simple permet d’accomplir une tâche d’apparence très complexe. Il se résume en deux règles: rassembler les moutons lorsqu’ils se dispersent et les pousser vers l’avant lorsqu’ils sont de nouveau réunis.

« Nous avons dû imaginer ce que le chien voyait pour développer notre modèle. Grosso modo, il aperçoit des choses blanches et touffues devant lui. S’il voit des espaces entre les moutons, ou si ces espaces grossissent, le chien doit les rassembler », explique Andrew King dans un communiqué.

« Si vous observez des chiens de berger en action, le chien va et vient derrière le troupeau exactement de la même façon que ce que donne notre modèle », assure-t-il.

Les mathématiciens de l’équipe ont bien testé d’autres modèles, mais les simulations étaient beaucoup moins concluantes. « Les autres modèles ne semblent pas capables de garder des groupes de grande taille. Dès que le nombre d’individus dépasse la cinquantaine, il faut commencer à ajouter des bergers ou des chiens », souligne Daniel Strömbom.

Cette découverte, publiée mercredi dans la revue britannique Journal of the Royal Society Interface, pourrait avoir de multiples applications, dans le domaine de la robotique par exemple, selon les chercheurs.

L’algorithme du chien de berger pourrait servir à tenir les animaux à l’écart de zones dangereuses mais aussi à la gestion des mouvements de foule ou au nettoyage de l’environnement, estime Andrew King.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Imprimer ses os en 3D pour se les transplanter

Limpression 3D est en passe de révolutionner la médecine, et plus particulièrement la chirurgie. Dernière avancée en date, la technologie mise au point par les scientifiques de l’Université de Tokyo et de la société Next-21 permet d’envisager une production à l’échelle industrielle d’os artificiels imprimés. C’est la première fois qu’il devient possible de fabriquer des os transplantables à grande échelle. Pour y parvenir, l’impression est réalisée avec de la poussière d’os comme encre. Le phosphate de calcium est chauffé entre 100°C et 200°C. Ainsi fluidifié, il devient injectable dans un moule. La forme du moule s’ajuste à la géométrie de l’os à fabriquer, suivant la partie du corps concernée bien sûr mais aussi les caractéristiques particulières de chaque patient.

Une mise sur le marché d’ici 2017 ?

 Le gros avantage de cette technique est qu’il n’est plus nécessaire de chauffer à haute température la poudre, comme c’est le cas pour le frittage qui requiert d’atteindre 800°C.  Les coûts sont aussi bien plus compétitifs, d’où la possibilité de travailler à grande échelle : il serait possible de produire plusieurs milliers d’unités par jour.  Les tests cliniques doivent démarrer cette année, l’objectif affiché de Next-21 étant de se lancer sur le marché d’ici trois ans maximum. 

Derrière cette première technique se cache la volonté de créer une banque d’os artificiels, qui seront transplantables sur les patients. Deux cas de figures pourront être envisagés. Soit il s’agit d’un accident et un malade a besoin d’une greffe en urgence. Il sera alors possible de piocher dans le stock d’os imprimés pour opérer rapidement. Soit un patient en bonne santé subit un scanner sans avoir besoin d’être greffé à court terme. Les informations sur son ossature sont alors enregistrées de façon à être communiqués à la banque d’os en cas de besoin pour choisir l’os artificiel le plus adapté à une greffe.

Par Audrey Loubens, journaliste scientifique

D’où proviennent les lumières bleues observées lors de certains séismes ?

Il s’agirait de charges électriques  issues des roches magmatiques qui remontent à la surface. Cette électricité, une fois arrivée à la surface, vient ioniser l’oxygène présent dans l’air, générant ainsi de la lumière.

C’est ainsi que des piétons ont vu des flammes de lumière quelques secondas avant le terrible séisme d’Aquila (Italie) en 2009, qu’un officier de marine a vu des colonnes de lumière jaillir de l’eau en 2007 à Pisco (Pérou), ou encore que des flammes bleues se sont déployées à San Francisco (USA) juste avant le séisme de 1906. Ce sont 65 témoignages qui ont été vérifiés par une équipe de chercheurs américains et canadiens, ce qui représente moins de 0. 5% des tremblements de terre recensés depuis l’an 1600. 

Paru dans la revue Seismological Research Letters, ce travail lève le voile sur ce mécanisme rare. Car l’apparition de lumières dépend de conditions très particulières. Il faut tout d’abord que l’onde sismique vienne générer des contraintes sur des roches comme le basalte ou le gabbro. Stressées, celles-ci se chargent électriquement. Ensuite, il faut compter avec l’apparition de failles verticales. Ces dernières se propagent très profondément, jusque dans la croûte terrestre. Le magma se solidifie le long de ces failles, augmentant la présence de roches chargées jusqu’à former ce que Robert Thériault, co-auteur et géologue du ministère des ressources naturelles au Canada, appelle des digues. Celles-ci agiraient comme des entonnoirs, concentrant les charges électrique à tel point qu’elles en deviennent un plasma ionisé. 

La lumière émise lorsque le plasma débouche à la surface peut prendre différentes formes, comme l’attestent les nombreux témoignages rapportés. De plus, ces lumières peuvent apparaître avant le séisme, mais aussi pendant ou après. Les régions réunissant les circonstances nécessaires à la possible apparition de ces lumières sismiques sont l’Italie, la Grèce, la vallée du Rhin, ainsi que certaines régions de l’Amérique du sud.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Fiabilisation des réseaux électriques intelligents du futur

Technologique, avec une production décentralisée, intermittente et hétérogène, ainsi qu’un transport variable. Législatif, avec notamment la dérégulation, la mise en concurrence et l’émergence des consommateurs / producteurs. Enfin, la dimension spatiale et dynamique, avec l’organisation de la distribution à l’échelle continentale. Face à cette complexité, il faut doter les réseaux d’intelligence. 

Le Centre Mathématiques Appliquées de MINES ParisTech travaille sur la modélisation mathématique du contrôle, de l’optimisation et de la décision appliquée aux systèmes liés au changement climatique. Dans le cadre d’une action de ressourcement scientifique de l’institut Carnot M.I.N.E.S, il a montré la faisabilité d’une méthode originale d’estimation de la fiabilité des systèmes électriques. Ainsi un partenariat a pu être mené avec SCHNEIDER Electric pour développer cette méthode qui permet d’analyser les conditions de stabilité requises afin d’assurer et d’optimiser la qualité du service délivré.

Cette innovation, protégée par un brevet déposé par les deux partenaires, permet en toute circonstance de préciser de quels types et de quelles quantités de réserves doit disposer le « dispatcher » le plus compétent pour maintenir la qualité de la fourniture électrique et faire face aux aléas : perte d’une unité de production, fluctuation de charge ou encore rupture de ligne …

La modélisation proposée repose sur une approche variationnelle des systèmes électriques traduisant une condition de réversibilité globale. Elle permet d’analyser les problèmes de stabilité du système électrique, critiques dans un contexte où l’intégration massive d’énergies renouvelables pourrait se faire au détriment de la fiabilité. En outre, elle peut être déclinée dans les exercices de prospective long terme du système électrique afin d’en évaluer la plausibilité.

L’efficacité énergétique et le «smart grid» signent une mutation de SCHNEIDER Electric vers de nouveaux paradigmes de gestion de l’énergie. Grâce à des logiciels fondés sur les méthodes développées par l’institut Carnot M.I.N.E.S pour mesurer et adapter la consommation électrique, SCHNEIDER Electric fournira des procédés et des équipements capables d’équilibrer dynamiquement l’offre et la demande d’électricité sur l’ensemble des territoires tout en minimisant l’empreinte carbone.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Récupérer le vent des camions pour produire de l’énergie pour les équipements autoroutiers

En juillet 2007, Jean-Claude Bois, inventeur, présente son projet à Cita Production. Jean-Claude Piot, alors responsable de l’entreprise, est séduit. Mais, le régime de rotation variable de cette éolienne, qui peut tourner avec des vents de 10 à 100 km/h, complique la conception d’une génératrice fournissant un courant régulier.Un responsable des Autoroutes Paris-Rhin-Rhône (APRR), au fait de ces recherches, comprend immédiatement l’intérêt de l’éolienne pour son entreprise. Outre l’image de marque « environnementale », l’éolienne peut, en effet, servir de source d’électricité pour des équipements installés le long des autoroutes (caméras, stations de comptage, etc.).

Bien plus, l’éolienne utilise non seulement le vent naturel, mais aussi le souffle d’air produit par le passage des camions.

Un partenariat se met alors en place début 2010 avec APRR. Mandaté par Cita Production, l’institut Carnot Cetim apporte ses compétences en calcul et en dimensionnement pour proposer des solutions techniques adaptées aux contraintes d’implantation et d’intégration dans l’environnement concerné. Dans le cas présent, il fallait notamment optimiser la conception et fiabiliser l’éolienne par des calculs spécifiques s’appuyant sur des règles de tenue au vent. 

En avril 2011, une génératrice efficace est au point et la commercialisation peut réellement commencer. Le marché potentiel atteint une trentaine de machines rien que pour APRR. L’innovation intéresse déjà d’autres entreprises. Un atelier d’assemblage est alors construit et, côté financier, c’est une nouvelle entreprise positionnée sur le marché de l’énergie renouvelable dans son ensemble qui est créée. « Nous sommes très intéressés par l’arrivée d’investisseurs sur cette nouvelle activité afin de renforcer notre capacité d’investissement et de développer ce marché d’ores et déjà très prometteur », précise Natacha Piot, gérante de Cita Production.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

News informatique d’août 2014 : spéciale sécurité informatique

Des ordinateurs qui apprennent à détecter les virus informatiques

Des chercheurs de l’Université Ben Gourion du Néguev apprennent aux ordinateurs à identifier par eux-mêmes les nouveaux virus. L’objectif ? Renforcer la sécurité de nos systèmes informatiques.

Une détection basée sur le système de signature

Chaque virus informatique est différent. Il porte en lui une signature numérique qui lui est propre. Un logiciel anti-virus fonctionne ainsi comme une grande base de signatures, mise à jour le plus souvent possible et qui vérifie en permanence que l’on ne retrouve pas la signature d’un virus dans l’un des programmes installés sur l’ordinateur (sinon, le programme est bloqué ou supprimé).

Pour constituer une telle base, les éditeurs d’anti-virus doivent d’abord « attraper » les programmes malveillants sur les réseaux et les analyser. Une fois la signature obtenue, elle est intégrée dans la prochaine mise à jour de l’anti-virus. Ce processus est fastidieux et présente une faiblesse majeure : un nouveau virus infectant un ordinateur avant que sa signature ne fasse partie de la base signatures ne sera pas détecté. Par ailleurs, de subtiles variations d’un même virus changeront sa signature et mettront ainsi en échec le programme de protection.

L’apprentissage automatique appliqué à la détection de virus

Et si un ordinateur était capable d’apprendre à détecter lui-même des virus inconnus ? C’est le but des nouveaux programmes développés par des chercheurs en apprentissage automatique (Machine Learning), une technique qui permet à des ordinateurs d’identifier des schémas, ou des comportements dans le cas des virus. « L’approche de l’apprentissage automatique utilise des algorithmes qui synthétisent le comportement de programmes sains et de programmes malveillants, plutôt qu’une signature spécifique. Ils sont ainsi capables de classifier des nouveaux programmes, malveillants ou non », explique Lior Rokach, professeur et fondateur du Machine Learning Research Laboratory à l’Université Ben Gourion du Néguev.

Plus précisément, cette méthode consiste à apprendre au logiciel anti-virus à identifier à quoi ressemble un programme malveillant, et à ce qu’il affine lui-même les critères d’identification au cours du temps, générant ce que l’on appelle des « statements ». « Généralement, ces statements sont très faibles et apportent peu d’information, explique Kevin Allix, un doctorant en sécurité informatique à l’Université du Luxembourg. Mais si nous avons plusieurs centaines de milliers de ces statements, le peu d’information qu’ils apportent s’additionne pour parvenir à une prédiction assez fiable de la dangerosité d’un programme. »

Vers des programmes de détection hybrides

Cette méthode commence à faire ses preuves. Les derniers travaux conduits par le professeur Rokach en partenariat avec Yuval Elovici, directeur du T-Lab et du laboratoire de cyber-sécurité de l’Université Ben Gourion, et le professeur Asa Shabtai, de la même université, ont obtenu un taux de faux positifs (un programme sain est détecté comme un virus) compris entre 5 et 10%.

Un taux bas, mais qui ne permet pas une commercialisation en l’état. En effet, l’utilisateur excédé par des alertes inutiles trop fréquentes aura de grandes chances de désactiver son anti-virus. La solution ? Selon le professeur Rokach, on devrait voir apparaître dans le futur des programmes hybrides, combinant une base de signatures et un module d’apprentissage, ce dernier envoyant les détections suspectes à l’éditeur pour analyse.

Source : bulletins-electroniques.com

Cyber-sécurité : nouveau logiciel de protection contre les scans de ports

Les balayeurs de ports sont des programmes qui parcourent le web en recherchant les ports ouverts, donc vulnérables, sur un serveur de réseau. Dans le cadre des récentes révélations de cyber-espionnage massif, un tel logiciel aurait été utilisé. Une équipe de l’Université technique de Munich (TUM, Bavière) a développé un logiciel de défense contre ce type d’attaques.

Baptisé « TCP Stealth », ce programme peut empêcher la détection des systèmes sur le net lors d’attaques par balayage de ports, ainsi que la prise de contrôle massive de ces systèmes. Ce logiciel, gratuit, nécessite tout de même certaines connaissances en informatique et systèmes pour être utilisé. Un usage plus large nécessitera encore une phase de développement. Cet outil peut venir en complément des pare-feux, antivirus et réseaux privés virtuels qui ne protègent que partiellement face à de telles attaques.

La connexion d’un utilisateur à un serveur se fait à travers un protocole de transport fiable (TCP). Afin d’accéder au service souhaité par l’utilisateur, sa machine envoie une demande au serveur. La réponse du serveur contient parfois des données susceptibles d’être utilisées pour mener des attaques. Le logiciel développé se fonde sur le principe suivant : un nombre est partagé uniquement entre la machine d’un utilisateur et le serveur. Sur la base de ce numéro, un code secret est généré puis transmis de manière invisible au serveur lors de la mise en connexion. Si le code reçu par le serveur n’est pas correct, le système ne répond pas et ne transmet donc pas d’informations au possible pirate.

De tels moyens de défense sont déjà connus, mais le logiciel développé est présenté par les chercheurs comme un outil de protection plus fiable, car il gère également une variante de cette attaque. Il est ici question d’attaques générées lors de l’échange de données entre l’utilisateur et le serveur, mais cette fois-ci dans le cas où la connexion est déjà établie. Les données envoyées par l’utilisateur au serveur peuvent être, à ce stade, encore interceptées et modifiées. Afin d’empêcher cette attaque et suivant le même principe que précédemment, un code secret intégré au flux de données est également envoyé au serveur. Le serveur reconnaîtra alors si le contenu est conforme à l’original.

Source : bulletins-electroniques.com

Une tablette ultra sécurisée et son système d’exploitation mis à l’essai

Un prototype de la future tablette numérique « Rupad » a été envoyé à plusieurs institutions étatiques, en vue d’une future acquisition par l’armée notamment. Elle a été conçue avec une résistance particulière aux températures extrêmes (de -22 à +55°C), aux chutes jusqu’à deux mètres et peut fonctionner jusqu’à une profondeur d’un mètre sous l’eau pendant 30 minutes.

La tablette « Rupad » offre des caractéristiques similaires à ses concurrents : processeur bi-coeur d’une fréquence d’horloge de 1 GHz, 1 GB de RAM, un objectif d’une résolution de 0,3 et 5 megapixels, un accès au réseau 3G, le Wi-fi ainsi que le GPS. Une des grandes particularités de la tablette « Rupad » est son système d’exploitation (OS), RoMOS -« système d’exploitation russe pour mobile » – développé sur la base de l’OS Android par l’Institut Central de Recherche pour l’Economie, l’Informatique et les Systèmes de contrôle (TsNII-EISU), partie intégrante de RosTech.

Annoncé en 2012, RoMOS diffère des autres systèmes d’exploitation et permet une protection accrue des données personnelles et informations confidentielles. En effet, en plus d’être doté d’un antivirus, antimalware, antispyware, d’un filtre de contenu et d’un accès protégé à Internet à travers un réseau virtuel privé (VPN), un bouton supplémentaire permet également de couper les différents modules susceptibles de transmettre des informations (GPS, caméra, 3G, microphone, haut-parleur, Wi-fi, Bluetooth).

Si le lieu de construction et d’assemblage des différents composants de la tablette n’a pas été pour le moment évoqué, le TsNII-EISU devra veiller à ce que l’installation de l’OS RoMOS se fasse à partir d’une plateforme particulière, hébergée sur le serveur d’un opérateur mobile russe. La tablette et l’OS limiteront l’accès aux applications ne nécessitant pas d’accès aux données personnelles.

Le TsNII-EISU prévoit la production initiale de 1000 tablettes « Rupad ». Aucune version commerciale n’a pour le moment été formellement annoncée.

Source : bulletins-electroniques.com

Les instituts Carnot : la recherche et l’innovation pour les entreprises

Ils s’engagent à développer leur professionnalisme et leur action pour l’avenir de l’industrie française.

Ils réalisent à eux seuls plus de 50 % du chiffre d’affaires direct des laboratoires publics avec l’industrie, soit, annuellement, 420 M€ de contrats de R&D sur financement direct des entreprises.

27 000 chercheurs, techniciens et doctorants travaillent dans ces instituts et constituent un réseau de recherche pluridisciplinaire national qui couvre une large palette de domaines :

  • les matériaux, la mécanique et les procédés
  • l’énergie, la propulsion, les transports
  • les technologies de l’information et de la communication, les micro et nanotechnologies
  • la construction, le génie civil, l’aménagement du territoire
  • l’environnement, les ressources naturelles
  • la chimie durable
  • la nutrition, les pathologies, les technologies pour la santé.

Plus d’1,2 M€ sont confiés chaque jour aux instituts Carnot par leurs partenaires industriels.

Quelques exemples de recherches partenariales :

2014 : une structuration « en filières » et un effort vers les PME

En juillet dernier, l’Association des instituts Carnot organisait la rencontre annuelle du réseau, le « 17/20 des instituts Carnot », réunissant plus de 200 décideurs du monde de la recherche et de l’innovation, parmi lesquels de nombreux chefs d’entreprises.

Le thème 2014 était « Le réseau Carnot se mobilise pour l’innovation des entreprises. Un effort particulier vers les PME ». Parmi ces enjeux, l’accès des PME à la recherche publique est un objectif prioritaire soutenu par l’Etat. 

Pour y parvenir, et renforcer la lisibilité et l’accessibilité de leur offre, les instituts Carnot ont engagé une démarche de structuration en « filières de demande économique », associant tous les acteurs pertinents pour apporter une offre complète aux entreprises, de la recherche académique à la mise sur le marché de nouveaux produits et services.

Cette orientation stratégique vise à changer d’échelle pour répondre encore plus efficacement aux besoins des entreprises, notamment les PME et ETI (Entreprises de tailles intermédiaires), et renforcer leur développement et leur compétitivité.

A la tribune des « 17/20 des instituts Carnot », M. Pascal Deschaseaux, Directeur général de l’institut Carnot CALYM, a rappelé le rôle majeur du dispositif pour mettre la recherche et l’innovation au service de l’emploi et de la compétitivité des entreprises. Le réseau des instituts donne en effet accès aux entreprises aux moyens des meilleurs laboratoires et organismes de recherche publique français.

Il a également mis l’accent sur l’ouverture à l’international du réseau des instituts Carnot, notamment dans le domaine de la santé humaine avec l’initiative Global Care.

Les besoins des entreprises sont multiples, ainsi  M. Philippe Contet, Directeur Technique et Innovation de la Fédération des Industries Mécaniques, a exprimé un exemple de besoins des entreprises :

« L’innovation est le pilier majeur du développement des industries mécaniques puisqu’elle nous permettra de moderniser toute l’industrie de demain. (…) Les instituts Carnot nous permettent d’établir un pont entre le monde de la recherche et tout le tissu des PME mécaniciennes, afin de poursuivre cet objectif. (…) Grâce au dispositif Carnot, ces transferts de technologies, et en particulier vers les PME, permettent le développement de l’industrie française et même de relocaliser certaines productions. »

Les rendez-vous Carnot : point de rencontre entre les industriels et les instituts Carnot

Pour la 7ème année consécutive, l’Association des instituts Carnot, en partenariat avec en partenariat avec le Grand Lyon et la Région Rhône-Alpes, organise les «Rendez-vous Carnot ».

Porteurs de projets d’innovation et dirigeants d’entreprises peuvent y rencontrer les 34 instituts Carnot, ainsi que les autres acteurs majeurs de la R&D et du soutien à l’innovation en France, et ainsi trouver le meilleur accompagnement R&D en réponse à leurs besoins d’innovation.

Ces rendez-vous permettent à 2 600 visiteurs d’accéder directement aux acteurs majeurs de la R&D pour les entreprises : plus de 9 000 rendez-vous Recherche / Entreprises sont organisés.

Cette année, ils ont lieu les 8 et 9 octobre 2014, à Lyon (double Mixte). Les inscriptions se font directement sur le site dédié.

Des conférences pour une vision prospective

Une série de conférences est proposée lors des Rendez-vous Carnot, avec deux grands axes : des sujets techniques et la présentation des dispositifs de soutien à l’innovation.

Les conférences techniques, en partenariat avec Techniques de l’Ingénieur, sont présentées par des acteurs majeurs et spécialistes de grands secteurs et illustrées de témoignages de partenariats Public / Privé de recherche et d’innovation.

En voici les grands thèmes :

  • L’usine du futur : optimisez l’interaction homme-robot ;
  • Usages civils des drones : potentiel et applications ;
  • Micro-technologies et outils connectés au service de la santé ;
  • La substitution des produits dangereux dans les résines – Cas des époxy ;
  • Polluants émergents : les outils de détection et de surveillance ;
  • L’hydrogène pour le stockage des énergies intermittentes ;
  • Biomatériaux pour la santé ;
  • Big Data.

La seconde série de conférence aborde :

  • Les doctorants CIFRE : de jeunes chercheurs dans les entreprises (voir aussi notre webinar sur le sujet)
  • Le programme Master Class INPI :PME / ETI comment optimiser votre stratégie PI
  • Le plan PME de la Région Rhône-Alpes
  • PME : comment tirer profit des programmes européens
  • Innover en s’ouvrant à l’international
  • La stratégie d’innovation de la Région Rhône-Alpes

Pour plus informations relatives aux conférences et tables rondes, cliquez ici.

Voir aussi :
http://www.instituts-carnot.eu

http://www.rdv-carnot.com

Un laboratoire commun pour inventer les réseaux de communication du futur

Ce laboratoire commun rassemble plus de 50 chercheurs dont les recherches portent sur les « réseaux autonomes ».

Les travaux concernent l’analyse et l’étude de l’automatisation de l’exploitation des réseaux de télécommunication pour gérer la complexité, toujours croissante, des flux de communication échangés. L’objectif est de poursuivre l’essor de l’utilisation des réseaux, tout en conservant un niveau de qualité irréprochable. Le contexte de relation bilatérale entre l’institut Carnot Inria et l’entreprise a permis de faire émerger, grâce à la confiance établie, des sujets de recherche communs au cœur des enjeux industriels identifiés par Alcatel-Lucent.

Il a été ainsi possible de mobiliser, de manière efficace car focalisée, les compétences des équipes Inria les plus pertinentes selon trois axes de recherche, chacun co-piloté par Alcatel-Lucent et Inria. Ces axes sont l’automatisation des réseaux fixes (« High manageability »), la capacité du réseau à reconnaître automatiquement le type d’applications portées par les flux qu’il transporte et à en déduire les traitements appropriés pour offrir la qualité de service requise (« Semantic networking ») ainsi que l’optimisation distribuée des réseaux d’accès sans fil (« Self optimised Wireless networks »).

Dix brevets ont été déposés dans le cadre de ce partenariat, permettant à Alcatel Lucent d’affirmer son positionnement sur le marché des nouveaux réseaux de communication. Citons notamment diverses optimisations de réseaux cellulaires 3G/4G, un nouvel algorithme distribué pour le réglage des puissances des canaux dans un réseau optique dynamique maillé à multiplexage en longueur d’onde, ou des méthodes de classification et de traitement des flux pour un meilleur contrôle de la qualité de service du réseau.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

 

Instrumentation océanographique pour traquer le réchauffement climatique des océans

Lancé en 2000 par la Commission océanographique intergouvernementale et l’Organisation météorologique mondiale, le programme Argo a pour objectif de développer et de maintenir un réseau global de 3000 flotteurs profilants, d’une durée de vie moyenne de 4 ans et autonomes, pour mesurer en temps réel et tous les 10 jours la température et la salinité des 2000 premiers mètres de l’océan.

La société NKE exerce son activité dans 4 domaines dont l’instrumentation océanographique et dispose de ressources en bureau d’études et en production. Ses activités répondent aux exigences de qualité ISO 9001. L’entreprise s’est adressée à l’institut Carnot Ifremer-EDROME qui travaille depuis près de dix ans dans ce domaine, afin de mettre sur le marché de nouveaux profileurs plus performants à coût plus faible. L’apport du savoir-faire Ifremer-EDROME à NKE sur de nombreux aspects technologiques s’est traduit par une baisse des coûts de production de plus de 15%.

Ifremer-EDROME a attribué à NKE une licence de fabrication exclusive, avec reversement de royalties sur les instruments vendus à des tiers. Cette collaboration a déjà permis à NKE de remporter des succès à l’exportation en Chine, au Japon, en Inde … L’instrumentation océanographique de NKE représente aujourd’hui 35 emplois pour un chiffre d’affaires de l’ordre de 4 M€, en augmentation de 25% sur deux ans.

Sa part de marché voisine de 15% situe NKE au 3ème rang mondial derrière les concurrents Américains (WRC Teledyne, Scripps ou WHOI), tandis que les flotteurs Allemands et Japonais se placent à moins de 10% de part de marché. L’EQUIPEX NAOS (Novel Argo Ocean observing System) permettra de consolider et d’améliorer la contribution française au programme Argo et de préparer les prochains défis scientifiques, avec de nouveaux développements technologiques menés avec NKE qui compte consolider sa position sur ce marché en développement.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Pour un recyclage compétitif des polymères

Dés 2004, Plastic Omnium avait identifié que des travaux scientifiques conséquents étaient nécessaires pour mettre au point des recyclés avec valeur ajoutée. C’est dans ce contexte qu’un partenariat de recherche a été engagé entre la société Plastic Omnium et le laboratoire Ingénierie des Matériaux Polymères (IMP), composante de l’institut Carnot Ingénierie@Lyon.

Le premier objectif était de pouvoir augmenter les sources potentielles de polymères à recycler au travers d’additifs ou de procédés innovants permettant de s’affranchir des baisses des caractéristiques mécaniques et/ou d’aspect. Un premier brevet conjoint a été déposé dès 2007 sur la « compatibilisation » d’un mélange de Polypropylène et de Polyéthylène (PP/PE). 

Puis des travaux pilotés par l’IMP pour le compte de Plastic Omnium ont permis de mettre au point des procédés d’extrusion innovants pour des mélanges de PP/PE compatibilisés. Ces travaux ont conduit au dépôt d’un nouveau brevet conjoint en 2011 sur un premier procédé d’extrusion et ont permis à Plastic Omnium de lancer une gamme de produits recyclés appelée Greenlene®.

Les travaux menés conjointement par l’institut Carnot Ingénierie@Lyon et Plastic Omnium se poursuivent en 2012 pour optimiser notamment les rendements des procédés de production, et donc les données technico-économiques pour cette gamme de produits : augmentation des sources de recyclés de haut niveau grâce au marquage chimique des polymères afin de faciliter le tri en fin de vie, valorisation des déchets plastiques des équipements électriques et électroniques…

Le Greenlene® vient de faire une entrée remarquée dans le secteur automobile par le biais d’une première mondiale : une pièce de carrosserie extérieure automobile peinte, à partir de matériau 100% recyclé – le pare choc arrière de la 208 Peugeot. Fort de ce premier succès à fort impact commercial, 4 autres projets d’utilisation de Greenlene® sont d’ores et déjà signés, confirmant l’intérêt économique réel de la filière mise en place par Plastic Omnium.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Nouvelles technologies pour le diagnostic et le dépistage en cancérologie

Les applications visées sont cliniques et précliniques, principalement pour la cancérologie en recherche et pour le diagnostic ou le dépistage précoce. Cette technique nouvelle présente l’avantage principal de ne pas utiliser de rayonnements ionisants. Elle a été qualifiée par diverses équipes (INSERM, Service Hospitalier Frédéric Joliot, Institut d’Imagerie Moléculaire et Fonctionnelle de Bordeaux) comme un instrument de tomographie préclinique quantitatif. Ces équipes ont montré la parfaite adéquation des résultats obtenus avec cette nouvelle localisation optique des tumeurs et avec la méthode classique à base de rayonnements ionisants PET (Position Emission Tomography).

Ces travaux ont conduit à la mise en place d’un partenariat avec deux entreprises : la société SCANCO Medical et la société DIGISENS. L’objectif de la collaboration avec SCANCO Medical (Zürich, Suisse), basée sur une valorisation des travaux du CEA LETI en tomographie optique diffuse de fluorescence (géométrie d’acquisition cylindrique), était de développer un nouveau système bi-modalités de tomographie préclinique couplant une information fonctionnelle fournie par tomographie optique de fluorescence à une information anatomique fournie par un micro-tomographe RX.

En ce qui concerne la société DIGISENS, deux accords ont été signés, en juillet 2011, avec le CEA LETI, en vue de la commercialisation du tomographe optique 3D de fluorescence (géométrie d’acquisition planaire) : un accord de licence et un accord pour l’étude et le développement d’une nouvelle version du tomographe 3D intégrant des améliorations du système. Les travaux menés par l’institut Carnot CEA LETI ont également trouvé un prolongement au travers du démarrage de 2 start-up : CAPSUM qui bénéficie d’un accord de licence avec le CEA LETI pour l’application en cosmétique et agro-alimentaire, et Fluoptics, start-up du CEA LETI.

L’objectif principal de Fluoptics est de fournir aux chirurgiens oncologues une nouvelle technique temps réel d’imagerie et d’aide à l’acte chirurgical qui permette de sécuriser l’élimination de zones tumorales lors de l’acte chirurgical. Les technologies issues du CEA LETI (traceurs fluorescents et sonde per-opératoire) commercialisées par Fluoptics offrent de bonnes perspectives de développement à la jeune société.

 

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Une biopile implantable pour alimenter les dispositifs médicaux artificiels

La société Sorin, l’un des leaders de la conception et de la fabrication de pacemakers, est confrontée à cet enjeu, avec un besoin de sources d’énergies à longue durée de vie permettant d’éviter leur remplacement trop fréquent, remplacement qui nécessite souvent une intervention chirurgicale, même minime.

La société Sorin s’est rapprochée de l’institut Carnot LSI dont le Laboratoire Techniques de l’ingénierie médicale et de la complexité – Informatique (TIMC-IMAG), associé au Département de Chimie Moléculaire de Grenoble, a réussi à utiliser les ressources du corps humain comme carburants pour la production d’électricité in situ. Ainsi le rêve de nombreux chirurgiens est devenu réalisable avec la mise au point d’une biopile à glucose. Cette biopile (GBFC, Glucose Bio Fuel Cell), déjà fonctionnelle chez l’animal, permettra à terme d’alimenter en énergie différents dispositifs médicaux : pacemakers, sphincters artificiels, pompes à insuline, voire, pourquoi pas, des organes comme un rein artificiel.

La société Sorin y voit de quoi concevoir une nouvelle génération de stimulateurs cardiaques qui, petits et vissés sur le cœur, seraient alimentés par ses battements ou le glucose du corps. Elle s’appuie également sur le groupe ST Microelectronics qui, par son savoir-faire, contribuera à concilier miniaturisation et augmentation de la puissance. Une seconde biopile utilisant comme combustible le sel (NaCl) est aujourd’hui à l’étude. Ces résultats offrent à la société Sorin de très bonnes perspectives pour répondre aux attentes de ses marchés avec un avantage concurrentiel important.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

La nutrition humaine menacée par l’augmentation du CO2 dans l’atmosphère

Une analyse à grande échelle

Les plantes utilisent le CO2 lors de la photosynthèse. Elles le piègent, le fixent et l’utilisent pour fabriquer leurs propres nutriments. Il existe plusieurs mécanismes de fixation du CO2, parmi lesquels celui dit en « C3 » (pour le blé, le riz, le soja, etc.) et le mécanisme de fixation « en C4 » (mais, sorgho, etc.). Le premier est typique des régions à ensoleillement faible, eau abondante, faible taux de CO2 et températures moyennes. Le second, plus efficace, est typique des zones chaudes, sèches, très ensoleillées et où le taux de CO2 est plus élevé.

Depuis le début des années 1990, les chercheurs ont constaté une diminution des quantités de zinc et de fer dans certaines plantes utilisées pour la nutrition humaine, comme le blé, l’orge et le riz. Cette baisse se produisait lorsque ces plantes étaient cultivées dans une atmosphère artificielle avec un taux élevé de CO2 imposé. Cependant la petite taille des échantillons ne permettait pas de tirer des conclusions significatives. De plus, les conditions de cultures étaient discutables.

Depuis, une nouvelle technologie de culture a été mise au point, le Free Air Concentration Enrichment (ou FACE). Cette technique permet de cultiver des plantes à l’air libre tout en modifiant la quantité de CO2 absorbée par les végétaux. Des tuyaux horizontaux ou verticaux sont placés autour des terrains expérimentaux et diffusent du CO2 jusqu’à atteindre le taux désiré. Celui-ci est dosé grâce à des capteurs eux-mêmes reliés à un ordinateur chargé de réguler les émissions.

Le problème de la petite taille des échantillons a ainsi été résolu en regroupant des données venant de cultures utilisant le FACE au Japon, en Australie et aux Etats-Unis. L’équipe du docteur Kloog du Department of Geography and Environmental Development de l’Université Ben Gourion du Néguev a ensuite analysé ces données, effectuant des comparaisons entre 143 échantillons récoltés après 6 périodes de culture et regroupant 41 génotypes végétaux différents. Les analyses concernaient la partie comestible du riz, du blé, du soja, des petits pois, du mais et du sorgho. Les taux de CO2 administrés étaient de 546 à 586 parties par million, ce qui correspond aux taux atmosphériques moyens estimés pour 2050.

Des résultats inquiétants

Grâce à cette méthode, les chercheurs israéliens ont montré que le zinc, le fer et les protéines diminuent de façon significative dans les plantes « C3 », cultivées avec un haut taux de CO2. Par exemple, on note une baisse de 9,3%, 5,1% et 6,3% respectivement en zinc, fer et protéines dans le blé cultivé dans ces conditions. Pour les légumes (soja et petits pois), la baisse concernait uniquement les taux de zinc et de fer. Autre phénomène inquiétant : l’étude montre que le taux de phytate diminue de façon significative dans le blé cultivé dans les conditions « FACE ». Or, le phytate est une molécule importante, qui conditionne l’absorption du zinc par l’intestin lors de la digestion.

Etant donné que les taux de CO2 sont appelés à augmenter de manière significative (et ce, même si des changements réels sont opérés dans les prochaines années au niveau des politiques environnementales), les carences en fer, zinc et protéines risquent de causer un désastre humanitaire. Néanmoins, un espoir subsiste car les analyses concernant les champs de riz ont montré une grande variabilité entre les échantillons, suggérant qu’il existe certains génotypes moins sensibles à l’augmentation de CO2 que d’autres. Ces plants peuvent servir de base pour créer des cultures plus résistantes et tenter d’éviter ainsi les risques de malnutrition.

Hélas, le choix des cultures dépend de nombreux facteurs comme la disponibilité des semences ou leur coût, ainsi que sur le goût des populations et leur tradition agricole.

Source : Bulletins électroniques

News environnement d’août 2014: Exploits scientifiques russes de l’ère post-soviétique, un ballon d’hélium pour l’étude du sous-sol…

Publication d’une étude trilatérale sur les centrales de pompage-turbinage en Allemagne, en Autriche et en Suisse

Le Ministère fédéral de l’économie et de l’énergie (BMWi) a publié, lundi 18 août 2014, une étude trilatérale sur les centrales de pompage-turbinage (ou STEP pour Stations de transfert d’énergie par pompage) en Allemagne, en Autriche et en Suisse [1].

Dans le cadre de cette étude, ont été analysés les aspects juridiques et économiques des centrales de pompage-turbinage dans les trois pays, ainsi que de futures possibilités de développement. Les experts ont conclu que l’importance à long terme des centrales de pompage-turbinage augmentera avec la part croissante des énergies renouvelables, et qu’elle doit être considérée en lien étroit avec le développement du réseau électrique.

L’étude publiée a été initiée sur la base de la « Déclaration de l’Allemagne, de l’Autriche et de la Suisse à propos d’initiatives conjointes pour le développement de centrales de pompage-turbinage », publiée en avril 2012, et contribue à la coopération renforcée dans ce domaine.

Le cadre juridique du pompage-turbinage a été examiné dans les trois pays, à la demande du BMWi, par le cabinet d’avocats Görg mbB. Le point de vue économique a été étudié par un expert des politiques économiques et d’infrastructure de l’Université technique de Berlin, à la demande de l’Office fédéral suisse de l’énergie. Enfin, l’Institut d’installations électriques et d’économie de l’énergie de l’Université technique RWTH d’Aix-la-Chapelle (Rhénanie du Nord-Westphalie) a mené une étude sur les contributions des stations de pompage-turbinage pour l’approvisionnement en énergie, pour le compte du Ministère fédéral autrichien de la science, de la recherche et de l’économie. En outre, à la demande de l’Office fédéral suisse de l’énergie, un rapport de synthèse a été réalisé par l’Energy Science Center de l’ETH de Zurich

Les exploits scientifiques russes de l’ère post-soviétique

Début juillet, l’agence Thomson Reuteurs a publié la liste des scientifiques les plus influents du monde de l’année 2014. Parmi ces héros d’aujourd’hui figurent huit. Les réalisations scientifiques russes des dernières années sont souvent peu connues, alors que certaines sont d’importance capitale. Voici 5 travaux, arbitrairement retenus mais très souvent cités par la communauté scientifique russe, qui illustrent les succès de la recherche post-soviétique.
 
En premier lieu, on relèvera les travaux des physiciens du laboratoire Flerov de l’Institut unifié de recherches nucléaires de Dubna, centre scientifique international située dans la banlieue moscovite, qui ont été les premiers à synthétiser les six éléments les plus lourds connus à ce jour et portant les numéros atomiques allant de 113 à 118. Pour l’instant seuls les flérovium (114)( Fl) et livermorium (116)(Lv) ont été reconnus par l’Union internationale de chimie pure et appliquée (UICPA). Leurs propriétés étonnantes permettent de spéculer sur la création de nouveaux types d’écrans souples, de batteries ou mêmes des vêtements.
 
En 2006, les physiciens de l’Institut de physique appliquée (IPA) de l’Académie russe des sciences de Russie à Nijni Novgorod ont créé le système PEARL (PEtawatt pARametric Laser). Ce laser, basé sur la technologie d’amplification paramétrique de la lumière dans les cristaux optiques non-linéaires, a été un temps, le laser existant le plus puissant avec une puissance de 0,56 petawatt. Ce laser permis à des chercheurs d’étudier des processus physiques extrêmes et des techniques de traitements des tumeurs cancéreuses.
 
Dans les années 90, les physiciens du Centre atomique russe à Sarov dirigée par Alexandre Pavlovsky ont réussi, grâce aux générateurs magnéto-cumulatifs à explosifs, à atteindre un champ magnétique de 28 megagauss. Ce méga-aimant donné lieu à de nombreuses études sur le comportement des supraconducteurs, qui jouent un role crucial dans la physique moderne (canon magnétique, accélérateur de particules…).
 
Dans le domaine des géosciences, les chercheurs de l’université russe d’Etat de pétrole et de gaz Goubkine ont invalidé la théorie selon laquelle pétrole et le gaz ne peuvent être produits que par décomposition de matières organiques. En effet, sous la croûte terrestre, à 100-150km de profondeur, selon Vladimir Koutcherov, professeur à l’Académie de technologie chimique fine de Moscou, la synthèse d’hydrocarbure lourd est possible. Selon le professeur Koutcherov, « une technologie de synthèse artificielle de pétrole permettrait de résoudre de nombreux problèmes économiques et écologiques ».
 
Enfin, En 2002, le mathématicien russe Grigori Perelman a démontré la conjecture de Poincaré, l’un des sept « problèmes du millénaire » recensés par l’Institut de mathématiques Clay. Cette conjecture, formulée pour la première fois par le mathématicien français Henri Poincaré en 1904, et s’énonce comme suit : « Soit une variété compacte V simplement connexe, à 3 dimensions, sans bord. Alors V est homéomorphe à une hypersphère de dimension 3. » Parmi les travaux présentés, ceux de Grigori Perelman ont été d’avantage médiatisés, moins par l’aboutissement d’un effort scientifique collectif sur près d’un siècle que par son double refus d’une part du prix de un million de dollars américains que Clay s’était engagé à remettre pour la résolution de ce problème, d’autre part de la médaille Fields.

Un ballon d’hélium pour l’étude du sous-sol

Le 17 juillet 2014, l’Institut fédéral des géosciences et des ressources naturelles [1] a testé un système mobile et semi-aérien pour la réalisation de mesures géophysiques du sous-sol.

L’innovation pour ces mesures électromagnétiques réside dans l’utilisation d’un ballon d’hélium. Ce ballon, un boudin de 1 m de diamètre enroulé en forme d’anneau de 20m de diamètre, est équipé de bobines qui jouent le rôle d’émetteurs/récepteurs. Le dispositif permet ainsi l’étude du sous-sol géologique à des profondeurs de plusieurs centaines de mètres.

Le ballon est tracté par un véhicule et arrimé à un second afin de maintenir une direction rectiligne (voir la démonstration en vidéo proposée ci-dessus). L’avantage conféré par la mobilité est de pouvoir réaliser jusqu’à vingt fois plus de relevés du sous-sol qu’avec les dispositifs conventionnels.

Les premiers essais se sont déroulés à Döberitzer Heide, une zone d’entraînement militaire de la Bundeswehr dans le Brandebourg. Ces essais ayant été concluants, le BGR envisage une utilisation sur le terrain, en particulier pour l’exploration des eaux souterraines dans les pays en développement.

4000 bactéries découvertes sous l’Antarctique

28 janvier 2013. Le premier échantillon d’eau est extrait du lac avec beaucoup de précautions. Les scientifiques sont très attentifs à ne pas polluer leur trouvaille, ce qui remettrait en cause toutes les découvertes à venir. Pour assurer l’intégrité des échantillons, l’équipe du projet dédié à l’exploration du lac Whillans a passé pas moins de six années à mettre au point leur protocole. Cela en valait la peine. Les analyses ont révélé la présence de 3931 microbes, majoritairement des bactéries et archéobactéries. Toutefois, 793 organismes restent de nature inconnue.

A l’endroit du forage, la profondeur du lac est faible, 2,20m, et la température y est clémente avoisinant les -0.5°C. Le camp construit tout autour est impressionnant. Tracteurs, laboratoires mobiles mais surtout un système d’injection d’eau chaude nécessaire pour creuser le trou de 60 cm de diamètre et garantir la propreté des échantillons. Soit en tout des centaines de tonnes de matériels pour cette mission en plein cœur de l’Antarctique. Il aura fallu sept jours pour creuser à travers l’épaisse couche de glace. Des rayonnements ultra-violets, la filtration de l’eau et du peroxyde d’hydrogène ont garanti la stérilisation du matériel. Avant que le trou ne se referme, trente litres d’eau ont été prélevés ainsi que plusieurs carottes de sédiments.

793 organismes restent de nature inconnue

Dans leur article paru dans Nature le 21 août 2014, les chercheurs indiquent avoir trouvé 130 000 cellulles/ml d’eau, soit une densité équivalente à celle des océans terrestres les plus profonds. « J’ai été surpris par la richesse de cet écosystème. C’est incroyable » s’enthousiasme John Priscu, microbiologiste de l’Université du Montana.

Situé 800m en dessous de la surface, le lac Whillans recèle donc des formes de vie capables de survivre dans des conditions extrêmes puisque ces bactéries ont passé près de 120 000 années sans voir un seul rayon de soleil. Ces dernières ont donc dû produire leur énergie par oxydation de fer et de soufre présents dans les minéraux des sédiments Mais la plus grande partie des microbes découverts vivent en oxydant les ions ammonium, eux-mêmes pouvant être d’origine biologique.

La découverte d’une vie aussi complexe et dense dans un environnement aussi hostile laisse supposer que d’autres bactéries existent dans d’autres lacs subglaciaux, attendant patiemment d’être mises à jour.

Le projet Whillans Ice Stream Subglacial Access Research Drilling  (Wissard) engage une vingtaine de chercheurs provenant de quinze universités de cinq pays.

Par Audrey loubens

Grandes manœuvres dans les gaz de schistes américains

C’est ainsi que le groupe Anglo-néerlandais Royal Dutch Shell (RDS) après s’être doté d’un nouveau dirigeant, aux modes de gestion assez décapants, avait abandonné un vaste projet de conversion de gaz en produits pétroliers liquides (GTL) qu’il devait installer dans le Golfe du Mexique. Décision financière et industrielle, au demeurant, assez incompréhensible, compte tenu de l’abondance locale de gaz naturel peu onéreux et de la demande croissante de gazole et de kérosène dans le monde. De plus, RDS est copropriétaire depuis 2007 à 50% de plus de 350 000 acres (1400 km2) avec Encana dans la zone de gaz de schistes de Haynesville et qui compte, selon l’EIA, une cinquantaine de forages en activité.

Ce champ situé à cheval entre le Nord de la Louisiane et l’Est du Texas, localisation qui rendait le projet GTL d’autant plus attractif. Le Wall Street Journal nous apprend que la Direction de RDS pourrait, suivant la logique de son désengagement du projet GTL, céder ses droits de propriété sur Haynesville au Groupe d’investissement Black Rock pour une somme autour du milliard de dollars. Il semblerait que l’acquéreur ait l’intention de valoriser la ressource, proche des côtes du Golfe du Mexique, par l’exportation de gaz vers l’Europe ou l’Asie sous forme de Gaz liquéfié, là ou les prix du gaz naturel sont 3 à 5 fois supérieurs aux cours du gaz américain. 

Compte tenu de l’enjeu économique et stratégique, il est fort probable que le gaz américain liquéfié va constituer, dans les décennies à venir, une importante source d’énergie alternative au gaz russe pour les pays de l’Europe de l’Ouest, et cela malgré les productions dispendieuses et folkloriques d’hydrogène ou de biogaz allemand. (Je ne peux m’empêcher de croire que les difficultés économiques rencontrées en ce moment par l’Allemagne et qui vont impacter la Zone Euro, sont imputables, pour une large part, à la délirante et ridicule politique énergétique de se dirigeants.) 

Mais la nouvelle la plus importante dans le domaine des gaz de schistes américains, regarde les nouvelles productions en forte croissance du champ d’UTICA (Carte) qui sont maintenant reportées mensuellement dans les statistiques de l’EIA. Ce gisement de gaz de schiste situé au Nord-est des Etats-Unis, en large partie au-dessous du prolifique champ de Marcellus, présente un démarrage des extractions de gaz particulièrement dynamique. Nul doute qu’une part de ces extractions abondantes de gaz dans l’Est des Etats-Unis, méritera d’être un jour exportée vers l’Europe.

Pour comprendre l’enjeu économique des exploitations de gaz de schistes américains, il me semble indispensable d’intégrer, parmi d’autres paramètres, la probable future exportation à bon prix d’une partie de ces extractions de gaz.

Par Raymond Bonnaterre

De la cellule rectale au neurone : les clés de la transdifférenciation

Une équipe de l’Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Inserm/Université de Strasbourg) s’est intéressée à un exemple naturel et 100% efficace de ce phénomène, appelé transdifférenciation. Cette étude identifie le rôle d’acteurs épigénétiques dans cette conversion, souligne le caractère dynamique du processus et met en évidence les mécanismes clé pour l’efficacité de la transdifférenciation. Ces travaux, réalisés en collaboration avec l’Institut Curie, ont été publiés le 15 août 2014 dans la revue Science.

Notre organisme est constitué de cellules ayant acquis des caractéristiques au cours du développement et remplissant une fonction précise au sein de chaque organe : on parle de cellules différenciées. En règle générale les cellules maintiennent leur spécificité jusqu’à leur mort mais il a été prouvé que certaines cellules peuvent changer d’état et acquérir de nouvelles fonctions, un phénomène rare mais retrouvé dans de nombreuses espèces dit de « transdifférenciation ».

L’équipe a étudié ce processus chez C. elegans, un petit ver transparent, où une cellule rectale se transforme naturellement en moto-neurone. Ce passage d’un type cellulaire à un autre se fait sans division cellulaire et par une succession d’étapes bien définies qui aboutissent toujours au même résultat. Les chercheurs se sont intéressés aux facteurs qui rendent le processus de conversion aussi stable.

L’équipe avait déjà élucidé le rôle de plusieurs facteurs de transcription dans cette transdifférenciation. Mais ces nouveaux résultats ont mis en évidence le rôle d’acteurs dits « épigénétiques », c’est-à-dire capables de moduler l’expression des gènes. Deux complexes protéiques interviennent ainsi dans le mécanisme. Ces enzymes agissent sur une histone et lorsqu’une mutation altère leur action, la transdifférenciation est interrompue et la cellule rectale ne se transforme plus en neurone.

Les chercheurs ont observé que les deux complexes agissent à des étapes différentes et que leur rôle peut évoluer en fonction des facteurs de transcription auxquels ils sont associés. Ces résultats soulignent l’importance du bon enchaînement des actions de chacune de ces molécules : l’aspect dynamique du mécanisme de transdifférenciation est essentiel à sa stabilité.

La part respective des facteurs génétiques et épigénétiques dans les processus biologiques est un sujet largement débattu. Ces travaux mettent en lumière les rôles respectifs de chacun des acteurs de la transdifférenciation : l’initiation et le déroulement sont assurés par les facteurs de transcription alors que les facteurs épigénétiques servent à garantir un résultat invariable. L’étude va même plus loin, montrant que dans des conditions « normales », les facteurs épigénétiques sont accessoires (même en leur absence la conversion se déroule relativement efficacement) mais qu’ils sont indispensables en cas de stress environnemental. Ils ont donc un rôle primordial pour maximiser l’efficacité du mécanisme et assurer sa stabilité face aux variations extérieures.

La transdifférenciation est un phénomène encore mal connu. Il pourrait être impliqué dans la régénération d’organes observée chez certains organismes, comme le triton capable de reconstruire le cristallin de son œil après une blessure. Ces résultats apportent de nouvelles clés pour comprendre comment contrôler ce processus et pourraient déboucher sur des thérapies prometteuses, notamment dans le domaine de la médecine régénérative.

Source : CNRS

Une nacre artificielle particulièrement tenace

Une fois encore, la nature inspire les chercheurs. Cette fois, il s’agit de la nacre des ormeaux. Celle-ci est composée à 95% de carbonate de calcium, matériau de nature fragile. Pourtant, la  nacre possède une ténacité importante. C’est justement cette capacité à résister à la propagation d’une fissure qui a inspiré les auteurs de l’étude. Parus dans Nature Materials, les travaux des équipes du Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint-Gobain), en collaboration avec le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et le laboratoire Matériaux : ingénierie et science (CNRS/INSA Lyon/Université Claude Bernard Lyon 1) révèlent comment obtenir de façon artificielle les mêmes caractéristiques que la nacre des bi-valves.

Le secret de fabrication ? Un passage au frigo ! Les chercheurs ont utilisé de l’alumine, une céramique standard, qu’ils ont placé en suspension dans de l’eau, puis refroidi. Ce faisant, la croissance a conduit à un auto-assemblage sous forme d’un empilement de plaquettes. Une dernière étape de densification à haute température a conclu la fabrication de cette nacre artificielle.

Grâce à ce procédé innovant, les scientifiques ont produit un matériau dix fois plus tenace qu’une céramique à base d’alumine. De plus, n’importe quelle poudre céramique sous forme de plaquettes peut se soumettre à ce processus d’auto-assemblage. L’obtention de céramiques libérées de leur fragilité pourrait conduire à la fabrication de pièces de plus petite taille et plus légères puisque plus tenaces à égale densité, et donc aboutir à une diminution des coûts de production pour les applications industrielles.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Des courants marins empêchent la hausse des températures à la surface du globe (étude)

Parmi ces hypothèses, il y a les effets de la pollution qui fait écran aux rayons solaires, un regain d’activité volcanique et des tâches sur le soleil, notent les auteurs de cette recherche de l’Université de Washington à Seattle (nord-ouest), publiée jeudi dans la revue américaine Science.

Selon leurs travaux, la chaleur ne reste pas à la surface de l’océan Atlantique, elle descend dans les profondeurs, transportée par un cycle naturel des courants.

« Un grand nombre de recherches faites précédemment se concentraient sur les symptômes à la surface de la Terre », relève Ka-Kit Tung, le principal auteur.

« Nous nous sommes concentrés sur des observations dans les fonds océaniques », précise-t-il.

L’étude montre qu’un courant se déplaçant lentement dans l’Atlantique, qui véhicule la chaleur entre les deux pôles, a accéléré au début du 21e siècle, précipitant la chaleur absorbée par les eaux en surface à 1.500 mètres de profondeur.

La plupart des études précédentes portaient sur la variabilité à court terme ou des particules dans l’eau pouvant bloquer les rayons solaires sans pouvoir expliquer la chaleur accumulée manquante depuis plus d’une décennie.

« Cette découverte est une surprise car cette théorie des courants entraînant la chaleur vers les fonds océaniques pointait le doigt vers le Pacifique comme principale source de la chaleur manquante », dit ce chercheur.

« Il y a des courants marins cycliques déterminés par la salinité de l’eau qui peuvent stocker de la chaleur dans les fonds de l’Atlantique et les eaux océaniques australes », relève Ka-Kit Tung.

Quand l’eau à la surface de l’océan est plus salée, elle devient plus lourde et descend vers le fond, entraînant avec elle la chaleur emmagasinée, explique-t-il.

Les récentes mesures à la surface de l’Atlantique nord montrent une salinité record alors qu’en même temps les eaux en profondeur sont plus chaudes.

Selon les données historiques, ces courants changent tous les 30 ans avec une alternance de cycles produisant des eaux de surface plus chaudes et plus froides quand la chaleur est transportée vers le fond.

Selon ces chercheurs, le réchauffement rapide du climat lors des trois dernières décennies du 20e siècle peut être attribué pour 50% aux gaz à effet de serre et pour le reste au cycle de ces courants dans l’Atlantique qui ont maintenu plus de chaleur dans les eaux de surface.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La montre intelligente signée Withings

Le marché des montres connectées fait l’actualité ces temps-ci. Ou plutôt, il l’envahit. Il faut dire que de nombreux géants s’y sont mis et dévoilent à présent leur rejeton comme la Samsung Gear Live, la Motorola 360, la G Watch et évidemment l’iWatch. Toutefois il ne faudrait pas déconsidérer un autre acteur, certes plus modeste, des objets connectés. Je parle bien sûr de la société française Withings, basée à Issy-les-Moulineaux. En effet, cette start-up exemplaire, fondée en 2009 et dirigée par Éric Carreel et Cédric Hutchings, impressionne depuis ses débuts. Davantage reconnue aux États-Unis qu’en France, elle s’était déjà faite remarquer pour son pèse-personne Smart Body tweetant le poids (vanté par Jack Dorsey, le créateur de Twitter lui-même), son tensiomètre, ou encore le bracelet à capteurs Pulse.
La Banque Publique d’Investissement (BPI) croit visiblement en cette montre puisqu’elle a alloué à Withings 11 millions d’euros sur les 23,5 millions reçus. Il s’agit d’un des plus gros montants octroyé à une start-up.

Un design qui se distingue de ses concurrents

Contrairement à Samsung, Google ou Apple, Withings n’a pas opté pour une approche futuriste mais a choisi de combiner harmonieusement technologie à un style plus traditionnel et élégant. À voir son bracelet en cuir et ses élégants cadrants arrondis, on penserait presque que l’on a affaire à une montre suisse (ou elle a d’ailleurs été fabriquée) tout ce qu’il y a de classique. Oui, Activité ressemble vraiment à une montre. Pour se démarquer, la start-up Française a misé sur une apparence plus traditionnelle que les autres montres connectées généralement pourvues d’écran électronique. Elle a sans doute considéré que son classicisme pourrait attirer une cible plus large et pourquoi pas une clientèle féminine.

Cependant, Activité ne fait pas que donner l’heure. Elle permet, par ailleurs, d’enregistrer le nombre de foulées de son utilisateur, de calculer le nombre de calories brûlées, de mesurer la qualité du sommeil, de vous réveiller au moment propice… Pour cela, deux cadrans couvrent l’affichage de la montre. Le premier sert à lire l’heure. Quant au second, il transmet par Bluetooth les données biométriques de l’utilisateur au terminal (smartphone, ordinateur) qui pourront être par la suite décryptées via l’application Health Mate; ceci afin d’inciter l’usager à se fixer des objectifs.

Pour acquérir Activité, il faudra un peu de patience, sa sortie étant prévue dans le courant de l’automne prochain au prix à l’unité de 390 euros. Si son coût est plus élevé que ses concurrentes (la smartwatch de Sony est à 99 euros, celle de Samsung à 250 euros) elle se veut aussi plus haut de gamme.
 

Par Sébastien Tribot

Amazon se tourne vers la vente d’objets imprimés

On le sait, l’entreprise créée par Jeff Bezos est le leader de la vente en ligne, notamment en ce qui concerne les produits culturels et surtout les livres. Mais depuis quelques temps, celle qui fait partie des quatre grands d’internet diversifie ses activités. Citons en exemple le Fire Phone qui vient d’être lancé, l’Amazon Fire TV, l’Amazon Kindle Fire et bien entendu la plateforme MarketPlace. Et voilà qu’aujourd’hui, en sus de tout cela, Amazon s’ouvre à l’impression 3D.

La version américaine du site comprend depuis peu une page consacrée à la vente d’objets 3D sur laquelle 200 produits sont déjà proposés. La sélection est assez vaste pour que tout le monde y trouve son compte. Ainsi, il est possible d’y dénicher bijoux, lampes, jouets, figurines et autres coques d’iPhone…

Un catalogue respectable qui devient bien plus impressionnant si l’on tient compte du fait que chacun de ces objets est personnalisable. En effet, l’impression 3D permet aux acheteurs de customiser à leur guise certains paramètres tels que le type de matériau, la taille ou la couleur au moment de la commande. 

Ce sont, en dernière étape, les partenaires auxquels Amazon a fait appel qui s’occupent de la réalisation des commandes. La start-up française Sculpteo, dirigée par Éric Carreel et Clément Moreau et spécialisée dans l’impression 3D est l’un d’entre eux.

Compte tenu de l’énorme potentiel de l’impression 3D, il semble normal, voire presque tardif qu’Amazon s’installe dans ce secteur et lance sa « boutique » en ligne. Car bien que son emploi ne soit pas encore vraiment répandu, l’impression 3D a tendance à se démocratiser. 

Clément Moreau avouait être enchanté par cette tournure : « Nous sommes ravis de voir qu’Amazon prend part au mouvement de l’impression 3D, et nous sommes convaincus que cela offrira de nouvelles opportunités aux designers utilisant l’impression 3D ». Pour la suite, on conjecture en effet que le dispositif se complexifiera et proposera, pourquoi pas, un service permettant aux utilisateurs d’imprimer des objets qu’ils auront eux-même inventés.

Par Sébastien Tribot

Vantablack, le matériau le plus noir jamais fabriqué

Encore mieux que le Super black de la Nasa qui absorbait déjà 99% de la lumière. La société britannique dame le pion aux américains avec son produit lui aussi bâti à partir de nanotubes de carbone.

Comment atteindre un tel niveau de « noir » ? Toute la magie réside dans le traitement réservé aux particules de lumières qui ont l’imprudence de pénétrer dans le Vantablack. Car quand un photon frappe le Vantablack, il rebondi entre les nanotubes pour y être absorbé et converti en chaleur. Voilà comment la lumière pénètre le matériau pour ne plus jamais en ressortir.

 Il aura fallu deux années d’études pour mettre au point ce matériau noir et réussir à faire croitre ces nanotubes sur des structures en aluminium et des capteurs pyroélectriques. Les applications visées sont liées à l’imagerie, comme par exemple améliorer la capacité des télescopes à voir des étoiles au signal particulièrement faible. Le Vantablack peut se retrouver à recouvrir des capteurs optiques ou des déflecteurs.

Mais le Vantablack possède d’autres atouts comme une conduction de la chaleur supérieure à celle du cuivre et une capacité de traction dix fois plus grande que celle de l’acier. En absorbant 99,965% de la lumière, le Vantablack est perçu comme un trou, une absence de matière. Même si sa surface présente des courbes, un individu ne verra rien d’autre qu’un vide ou une surface noire en 2D. Des applications militaires seraient aussi à l’étude du fait de ses propriétés optiques hors norme, mais tout ceci reste top secret.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Revue du web #64 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

  • Rendre un essaim d’un millier de robots autonome : un jeu d’enfant ;
  • Le robot origami qui se plie seul, avatar étonnant des « Transformers » ;
  • Pépite : transmettre des données à l’aide de signaux de fumée ;
  • Tout est possible à réaliser avec des Lego… même un afficheur sept segments ;
  • Le gadget (inutile?) de la semaine : l’épouvantable épouvantail ;
  • Et en bonus : le plaisir toujours jouissif de la destruction, à l’aide d’aimants.

Rendre un essaim d’un millier de robots autonome : un jeu d’enfant

La prestigieuse université Harvard aurait-elle finalement succombé à la mode du flash-mob, alors que ce n’est plus qu’un lointain – mauvais – souvenir ? Rassurez-vous : l’institution américaine, qui peut se targuer d’être l’établissement d’enseignement supérieur le plus ancien et le plus riche des États-Unis, n’a pas cédé aux sirènes de la « mobilisation éclair », tout du moins pas de la manière dont on pourrait l’entendre. Pour débuter notre soixante-quatrième Revue du Web, voici « Kilobots », un essaim de 1024 petits robots simples et collaboratifs qui, à l’image des poissons se déplaçant en banc, ou des cellules d’un organisme qui s’assemblent en une structure sophistiquée et intelligente, sont capables de créer des formes complexes en suivant des règles de programmation basiques.

Chaque « Kilobot » est un monument de simplicité juché sur trois petites tiges qui font office de pattes : un petit moteur vibrant, un cavalier, une diode électroluminescente, une photodiode (en guise de capteur de lumière), un émetteur et un récepteur infrarouge, ainsi qu’un microcontrôleur pour la partie programmation et une pile bouton pour alimenter l’ensemble. Pour cette expérience inédite d’intelligence artificielle collective (tout du moins, à cette échelle), une équipe de chercheurs dirigée par le professeur Radhika Nagpal a développé un algorithme permettant aux robots de se déplacer afin de reproduire une forme prédéfinie, sans autre intervention humaine que le placement des quatre premiers robots « noyaux » pour ancrer la forme dans l’espace.

Placés de manière arbitraire, les robots de l’amas se mettent peu à peu en branle, en commençant par les extrémités et sans jamais s’éloigner de la masse. Pour pallier les situations difficiles ou les erreurs que les robots sont inévitablement amenés à commettre (« embouteillages », déplacements aberrants…), chaque Kilobot collabore afin de corriger les menus problèmes, transcendant ainsi les limites individuelles en une entité-groupe plus intelligente. Contrairement à l’effet de foule, l’union fait ici la force.

Le robot origami qui se plie seul, avatar étonnant des « Transformers » :

Comme ils ne chôment pas à Harvard, la nuée intelligente du millier de Kilobots n’est pas leur seul fait d’armes de l’été. Quittons le flash-mob robotique pour retrouver le monde créatif et autrement plus apaisant de l’origami. Un origami peut transformer une feuille de papier en formes tridimensionnelles complexes, alors que des techniques similaires de pliage peuvent produire à la fois des structures et des mécanismes pour le moins sophistiqués. Cette tradition japonaise de l’art du pliage du papier semble, au premier abord, ne rien partager avec le monde supposément froid et austère de la robotique. Pourtant, les chercheurs de l’institut Wyss pour la bio-ingénierie de l’université Harvard sont parvenus à créer une passerelle entre les deux univers.

Pour démontrer la possible application des techniques de l’origami à la fabrication de machines plus ou moins simples, l’équipe américaine a développé un robot rampant… qui se plie tout seul, et se transforme en un robot fonctionnel. Afin d’arriver à cette prouesse, les scientifiques ont développé un matériau composite à mémoire de forme qui se plie le long de charnières intégrées, se contractant comme un muscle une fois l’origami chauffé. Ce petit robot peut prendre forme en seulement quatre minutes, suivant une feuille de route bien précise – pliage des pattes extérieures, alignement du moteur, pliage du corps, redressement, pliage des pattes intérieures – avant de s’en aller en rampant, tout seul. Comme un grand. Quelque peu effrayant.

Pépite : transmettre des données à l’aide de signaux de fumée

Il est loin, le temps où les Indiens d’Amérique communiquaient à l’aide de signaux de fumée ? Niklas Isselburg et Jakob Kilian, deux étudiants de l’école Internationale de Design de Cologne, ont décidé de rendre hommage aux premiers occupants du continent nord-américain avec « Binairy Talk », un système ingénieux dépoussiérant cette forme de communication ancestrale. Ici, plus besoin de feu, ni de tissu pour le couvrir.

L’installation interactive est composée d’un module émetteur – un ordinateur, un haut-parleur, un générateur de sons et un autre de fumée– et d’un module récepteur – un réseau de lasers. Le message à transmettre est traduit par l’ordinateur en langage binaire, que le premier module va matérialiser en créant puis en propulsant une série de ronds de fumée vers le second module, qui va alors intercepter le « signal » dans son maillage laser. Pour décrypter les signaux, nos deux jeunes Allemands utilisent un module Arduino customisé permettant la traduction du message. L’installation, en plus de son côté hautement ludique, permet de rendre « physique » et de matérialiser les données, le plus souvent intangibles, créant ainsi une passerelle entre le monde digital et le monde analogique.

Tout est possible à réaliser avec des Lego… même un afficheur sept segments :

De vidéos en vidéos, nombreux sont les artistes, ingénieurs en herbe et bricoleurs du dimanche qui semblent crier, à l’unisson… que rien n’est impossible à créer à partir de Lego. Madeleine de Proust pour nombre de nos amis internautes, ils rivalisant souvent d’ingéniosité pour concevoir des choses aussi étonnantes et diverses qu’un clavier d’ordinateur, un variateur de vitesse mécanique, une imprimante 3D ou encore… une voiture. On peut se souvenir également de la merveilleuse horloge LCD conçue par le Suédois Hans Andersson.

Dans le même registre, un internaute a créé un afficheur sept segments – similaires à ceux présents dans les montres ou les calculatrices à affichage numérique – complètement mécanique et uniquement à partir de Lego. Fonctionnant sur le modèle d’une boite à musique, chaque segment est contrôlé de manière indépendante et ne peut prendre que deux valeurs (jaune ou noire, correspondant à « allumé » ou « éteint »). Bravo !

Le gadget (inutile?) de la semaine : l’épouvantable épouvantail

Mustafa Karasungur le répète à qui veut bien l’entendre : il en a marre. Marre de la météo peu clémente ? Marre de la politique conduite par le gouvernement ? Non, Mustafa Karasungur en a par-dessus la tête… des ours. Lassé par l’attitude inconvenante des ursidés de sa région, cet agriculteur turc de 46 ans a décidé d’employer les grands moyens afin de protéger ses récoltes et d’éloigner les grands mammifères de ses terres. Oui, mais comment faire ? Tout simplement… avec un épouvantail à ours spécialement conçu pour l’occasion !

Pour que l’épouvantail soit à la hauteur de son adversaire, l’agriculteur turc l’a équipé d’un pistolet à impulsion électrique, délivrant la bagatelle de 25 000 volts aux plus hardis des ours qui n’auraient pas déjà fui son bruit insupportable d’alarme de voiture, ou son aspect effrayant digne d’un film d’horreur à – très – petit budget. La journaliste ne semble, elle-non plus, pas rassurée devant notre gadget (inutile?) de la semaine. Ni devant tant de goût incertain.

Bonus : le plaisir jouissif de la destruction, à l’aide d’aimants

Pour conclure notre soixante-quatrième Revue du Web, pourquoi ne pas profiter de la puissance potentielle d’un aimant pour en faire une arme destructrice ? Ici, tout devient simple, on se trouve plongé dans le plaisir primaire et régressif de la destruction d’un verre à pied, de l’explosion de deux ou trois saucisses, de quelques néons, ou encore d’une banane. Les aimants permanents ne leur laissent aucune chance.

Pour rappel, un aimant permanent est souvent constitué d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B). L’alliage de néodyme fer bore est celui qui est le plus souvent utilisé pour les aimants en terres rares, car le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

Par Moonzur Rahman

Florales ou présidentielles, des cellules solaires atypiques pour doper l’énergie verte

C’est une jolie boîte cubique en bois, de 20 cm de côté, en partie couverte de cellules solaires vitrées au motif floral.

Grâce à un système doté de trois électrodes, ces cellules ne se contentent pas de générer de l’électricité sous l’effet de la lumière du soleil, elles sont aussi capables d’en stocker, si bien que l’ensemble permet de recharger deux fois un téléphone portable.

De bleue, la fleur redevient blanche, comme la vraie Annabelle des jardins, une fois vidée de son énergie.

Son inventeur, Hiroshi Segawa, a également mis au point des cellules photovoltaïques à l’effigie du président français François Hollande ou encore de Hatsune Miku, star holographique virtuelle de la pop japonaise. « Personnages de dessins animés, portraits de gens réels et plein d’autres choses encore » : les possibilités décoratives sont illimitées, selon ce chercheur de l’université de Tokyo.

Son objectif ? Changer le regard sur le secteur de l’énergie qui n’a « pas une très bonne image », explique-t-il.

Réacteurs nucléaires à hauts risques, centrales à charbon polluantes, panneaux solaires encombrants, éoliennes bruyantes : avec cette initiative originale, M. Segawa veut créer « une énergie agréable » qui « ne nuise pas à l’environnement » et apporte une touche de couleur à une industrie bien terne.

Depuis l’accident nucléaire de Fukushima en mars 2011, qui a entraîné l’arrêt de l’ensemble des réacteurs du pays (auparavant plus du quart de l’électricité), le Japon cherche à promouvoir les énergies renouvelables.

Un gigantesque parc d’éoliennes est notamment en construction au large de la province durement meurtrie de Fukushima (nord-est). Le projet prévoit, d’ici à 2016, une capacité de production électrique de l’ordre de 12.000 kilowatts, de quoi alimenter plusieurs dizaines de milliers de foyers.

En excluant l’hydraulique, ces énergies ne représentent cependant qu’une portion congrue du total : 4,7% du panier énergétique, loin derrière la Grande-Bretagne (10,4%) ou l’Allemagne (20,1%), selon les chiffres de l’Agence internationale de l’énergie (AIE).

Les efforts de l’archipel pour développer le secteur solaire se heurtent toutefois à la météo, en particulier à un ensoleillement irrégulier, et à un manque de terrains propices.

Annabelle, elle, fonctionne même avec une faible source lumineuse intérieure, assure Hiroshi Segawa.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un nouvel instrument tout-en-un pour les mesures sur plan de travail

Un oscilloscope à signaux mixtes, un générateur de fonctions, un multimètre, une alimentation DC et des entrées/sorties numériques, le tout piloté par une seule et unique interface ?

Tout cela sans aucun bouton de réglage mécanique ? Et bien sûr pour un prix compétitif ? NI VirtualBench est l’instrument qui propose tout cela.

Ce nouvel instrument tout-en-un est suffisamment compact pour créer un espace de travail complet sur votre bureau.

Il est aussi aisément portable pour vous permettre de déplacer votre instrumentation sur le lieu de votre projet.

Par conséquent, il vous évite de devoir transporter votre projet jusqu’au laboratoire. Grâce à une interface logicielle innovante sur iPad communiquant sans fil par Wi-Fi, ou basée PC par USB, vous pouvez interagir rapidement sur vos mesures en utilisant la rotation de la souris ou vos doigts pour sélectionner des traitements sur les mesures ou simplement zoomer.

Une toute nouvelle expérience interactive s’offre à vous !

Conçu pour rendre la vie plus facile en augmentant la rapidité de conception et de validation de circuits, il peut également automatiser des mesures répétitives grâce à des fonctions LabVIEW et enfin vous faire bénéficier de mises à jour gratuites de ses interfaces logicielles.

 

ni.com/virtualbench/f

[email protected]

Des approches prédictives pourraient se substituer aux vrais tests de substances chimiques

La caractérisation complète des substances physico-chimique est coûteuse et chronophage. Et si les méthodes prédictives étaient une alternative crédible aux tests en laboratoire? C’est la conclusion du projet PREDIMOL rendue officielle début juillet par l’Institut national de l’environnement industriel et des risques (Ineris). Ce projet dont l’acronyme signifie Prédiction des propriétés physico-chimiques des produits par modélisation moléculaire a été mené entre 2010 et 2014.

Financé par l’Agence nationale de la recherche, labellisé par le pôle de compétitivité Axelera et piloté par l’Ineris, Predimol s’est intéressé à la pertinence de la modélisation moléculaire dans l’obtention de données physico-chimiques. Les tests réels peuvent-ils être évités ? Oui, répond Predimol. Des méthodes prédictives peuvent servir à définir des propriétés physico-chimiques. 

Plus particulièrement, deux approches sont mises en avant. Il s’agit de la Quantitative structure-property relationship (QSPR) et des méthodes de simulation moléculaires (dynamique moléculaire et Monte-Carlo).  La QSPR serait pertinente pour l’analyse des propriétés dangereuses tandis que la simulation moléculaire est plus adaptée à l’évaluation des propriétés d’équilibre et des propriétés de transport.

Pour en arriver à ces résultats, les différents partenaires du projet Predimol, IFP Energies Nouvelles, Chimie ParisTech, le Laboratoire de Chimie Physique de Paris XI, Materials Design et Arkema, ont travaillé sur les peroxydes organiques et les amines.

Predimol a permis de valider des modèles développés pour la détermination de certaines propriétés comme la densité relative, les propriétés explosives ou encore le point d’ébullition.  Une réussite qui pourrait bien rebattre les cartes du Reach en proposant aux professionnels une alternative moins couteuse pour l’évaluation des propriétés des nombreuses substances pré-enregistrées.

« Ces […] modèles répondent aux critères de validation de l’OCDE et, dans une démarche d’acceptabilité réglementaire, ils vont être proposés à la QSAR Tool Box et à la base de données du Joint Research Centre (JRC) de la Commission européenne » se félicite l’Ineris.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Les cellules STAP existent-elles vraiment ?

Elle s’appelle Haruko Obokata. Elle a à peine 30 ans et dirige déjà une unité de recherche de l’Institut  public Riken, célèbre institut japonais à Kobé. En janvier 2014, elle est l’auteure principale de deux publications qui paraissent dans la prestigieuse revue Nature. Les travaux présentés concernent la fabrication de cellules pluripotentes à partir de cellules somatiques. Le procédé est ultra-simple, rapide, peu coûteux et les cellules initiales utilisées ne sont pas embryonnaires, évitant tout problème éthique. C’est une véritable révolution qui impressionne l’ensemble de la communauté en lien avec la médecine régénérative. La jeune chercheuse Obokata est immédiatement portée aux nues et devient une icône de la recherche japonaise.  

Cet engouement parait justifié tant la découverte est exceptionnelle. Imaginez. A partir de cellules somatiques adultes plongées dans un bain d’acide citrique pendant moins d’une demi-heure puis passées  en centrifugeuse cinq minutes, Haruko Obokata affirme obtenir des cellules pluripotentes. Ces cellules tant convoitées que l’on peut spécialiser  en a peu près n’importe quelle cellule du corps et ainsi régénérer un organe, de la peau, des neurones…Mieux, le rendement est inespéré puisqu’en appliquant cette technique à des globules blancs, un quart de ces derniers a montré un comportement de pluripotence au bout de  quelques jours. Un tiers d’entre elles a pu être reprogrammées, soit un rendement de plus de 8%. Bien mieux que les 1% obtenus par le professeur Yamanake et les cellules souches pluripotentes induites (iPS) qui lui ont valu le prix Nobel en 2012. 

Les études menées au Centre pour la biologie du développement par l’équipe du Pr Obokata portent sur la mise au point d’une méthode de production de cellules pluripotentes  en infligeant un stress à des cellules somatiques, les cellules non germinales qui forment la quasi-totalité du corps d’un organisme. Pensant que même des cellules de mammifères sont  capables de se reprogrammer par instinct de survie, mimant le mécanisme permettant la repousse de la queue d’un lézard par exemple,  les scientifiques planchent sur la nature du stress qui pousserait les cellules à un tel exploit. Les résultats publiés dans Nature valident cette théorie pour des cellules de souris. Les Cellules pour acquisition de pluripotence déclenchée par stimulus (STAP) sont officiellement nées. 

C’est la première fois que le phénomène est observé. Mais les cellules STAP vont encore bluffer les scientifiques puisqu’elles pourraient servir à la formation de tissu placental, impossible à obtenir à partir des cellules souches, iPS ou embryonnaires. Une compétence qui va encore plus loin que la pluripotence. Il s’agirait ni plus ni moins de totipotence, soit la capacité de se transformer en n’importe quelle cellule et de former un être vivant dans sa totalité. De quoi envisager le clonage à partir d’une unique cellule alors qu’aujourd’hui un ovocyte hôte est nécessaire.

Mais l’enthousiasme des scientifiques des quatre coins du monde va vite retomber. En effet, l’Institut Riken met en place un comité d’enquête suite à des signalements d’incohérences dans les articles de Nature : Haruko Obokata aurait-elle trichée ? Car les erreurs relevées paraissent peu fortuites et plutôt volontaires. Le comité s’est focalisé sur six points douteux et conclu que des images ont été falsifiées. C’est un véritable coup de tonnerre. D’autant que le Riken est impitoyable, écrivant qu’ « En mêlant des images issues d’expériences différentes et en utilisant des données antérieures, le professeur Obokata a agi d’une façon qui ne peut aucunement être permise. […]Les actions de Mme Obokata et la façon bâclée dont elle a géré ses notes nous conduisent à conclure qu’elle manque non seulement de sens éthique mais aussi d’humilité et d’intégrité ». 

Haruko Obokata s’est défendu en affirmant la réalité des cellules STAP, tout en reconnaissant des erreurs de forme dans ses publications. Le biologiste Yoshiki Sasai, entraîné dans la tourmente médiatique en tant que superviseur de la jeune chercheuse, n’a pas résisté à la pression et s’est donné la mort début août.

Alors, les cellules STAP sont-elles une vaste tromperie ? A ce jour, si l’Institut a officiellement dénoncé les visuels comme des faux, il n’a pas su dire si l’ensemble des recherches relève aussi de la fumisterie. Le Riken indique qu’il lui faudra pas moins d’une année pour vérifier le travail d’Haruko Obokata.

Par Audrey Loubens

Du plutonium de Fukushima retrouvé plus loin que prévu

Les premières mesures  de l’isotopie du plutonium dans les eaux suite à la catastrophe de Fukushima montrent un ratio 241Pu/239Pu plus élevé que le ratio induit par les tests nucléaires des années 1960. Autrement dit, du plutonium de Fukushima a bien contaminé les rivières et menace de contaminer l’océan.

Les équipes du LSCE (CNRS/CEA/UVSQ) et du CEA, en collaboration avec une équipe japonaise de l’université de Tsukuba se sont intéressées à tous les isotopes du plutonium, 239Pu, 240Pu, 241Pu et 242Pu. Les chercheurs ont réalisé les analyses des sédiments prélevés dans les rivières côtières par spectrométrie de masse couplée à un plasma inductif (ICP-MS). Ces mesures ont permis de connaitre la valeur du ratio 241Pu/239Pu. La proportion entre élément et un autre est un marqueur utilisé pour connaitre l’origine du polluant et le moment où il a été émis.  Cette valeur est plus fiable qu’une mesure absolue de plutonium puisque le Japon a déjà été victime de pollution radioactive et il est normal d’en retrouver des traces. Toute la difficulté est de savoir différencier le plutonium issu de précédents évènements de celui émis suite à la catastrophe de la centrale Fukushima. Or, la valeur du ratio 241Pu/239Pu est plus élevée qu’attendu. Ceci prouve que du plutonium a bel et bien pollué les eaux aux alentours de la centrale. Pire, cette contamination s’est propagée assez loin, les travaux parus dans la revue Environmental Science & Technology indiquant la présence de plutonium lié à l’accident nucléaire jusqu’à 45km de la centrale.

Cette étude pourra servir de référence dans le suivi de la contamination, notamment en pistant les roches sédimentaires radioactives susceptibles d’atteindre l’océan Pacifique.

Les mesures sont accessibles sur le site de la revue ici

Par Audrey Loubens, journaliste scientifique

Le triclosan déconseillé aux femmes enceintes

Alors que le triclosan et le triclobaran sont régulièrement dénoncés comme nocifs pour la santé, voilà qu’une étude en révèle la présence à l’intérieur du cordon ombilical. Autrement dit, ces deux substances atteignent les bébés in utero et pourraient donc provoquer de nombreuses pathologies. Car le triclosan est soupçonné d’être un perturbateur endocrinien, de développer la résistance aux antibiotiques, de favoriser les allergies mais aussi d’altérer la fonction musculaire. Autant de dangers auxquels s’exposent les utilisateurs réguliers adultes. Quand cet adulte est une femme enceinte, ces produits toxiques passent dans le cordon ombilical et peuvent atteindre le fœtus.
L’étude parue dans Environmental Science and Technology révèle que des traces de triclosan ont été retrouvées dans les 181 échantillons d’urine de femme enceinte. La moitié des échantillons de sang de cordon en contenaient eux aussi. Plusieurs échantillons présentaient aussi des traces de triclobaran. Ces mesures réalisées par les chercheurs de l’Université d’Arizona prouvent que le risque s’étend au fœtus.
Le problème est que ces deux substances chimiques sont très répandues dans les objets du quotidien. On les retrouve dans de nombreux dentifrices, savons et détergents.
Les Américains sont les premiers à prendre des mesures face au risque chimique que représentent les agents antibactériens chimiques. Le Minnesota a ainsi interdit l’utilisation du triclosan et du triclobaran, avec une entrée en vigueur en 2017. Les autorités sanitaires américaines demandent désormais aux fabricants de savon contenant des antibactériens chimiques de prouver leur innocuité. Johnson & Johnson et Procter & Gamble ont d’ores et déjà annoncé qu’ils n’utiliseraient plus ces produits.
En France, les produits peuvent contenir jusqu’à 0.3% de triclosan. Cependant, la commission européenne vient de l’interdire dans tous les produits de rasage à partir du 30 octobre 2014.

Par Audrey Loubens, journaliste scientifique