Une peau à l’épreuve des balles ?

C’est une histoire sortie tout droit d’un livre de science-fiction : une chercheuse hollandaise dénommée Jalila Essaidi, aidée par une équipe de scientifiques hollandais, explore actuellement des moyens audacieux, voire farfelus, de développer une peau destinée à l’être humain, qui serait à l’épreuve des balles. Pour ce faire, la scientifique s’est tournée vers le lait de chèvres naines transgéniques, chèvres ayant reçu au préalable une séquence génétique provenant d’araignées codant pour la conception de leur soie.

Le projet se nomme « 2.6g 329m/s » car 2,6 grammes et 326 mètres par seconde sont « le poids maximum et la vitesse maximale d’une munition de calibre 22 Long Rifle, de laquelle un gilet pare-balles de Type 1 devrait vous protéger », explique Jalila Essaidi. Son prototype, qui ne cherche pas à améliorer les gilets pare-balles, est observable dans l’image d’illustration. Celui-ci se compose d’une membrane ultra-fine formée par une matrice de soie d’araignée, prise en sandwich entre deux couches de peau humaine.

La difficulté de récolter la soie d’araignée, tout du moins en quantité suffisante et de manière non fastidieuse, fait intervenir les fameuses chèvres. Nombreux sont les groupes de scientifiques et chercheurs (récemment une équipe de l’université du Wyoming) à avoir travaillé sur la synthèse de soie d’araignées, à partir de chèvres possédant un transgène provenant d’araignées, codant pour cette synthèse dans leur lait. La protéine est alors extraite du lait et utilisée, par exemple, pour améliorer les airbags.

Le prototype de Jalila Essaidi n’arrête pour le moment pas les balles à chaque reprise, mais la scientifique réfléchit déjà à un moyen de remplacer la kératine présente dans la peau humaine par cette protéine, afin de pouvoir se passer des gilets pare-balles.

Par Rahman Moonzur

Juno : une sonde spatiale vers Jupiter

5 août 2011, à 16h25 : la sonde spatiale américaine Juno (tirant son nom, ce n’est pas un hasard, de la soeur et épouse de Jupiter dans la mythologie romaine) a été lancée avec succès de la base de Cap Canaveral, en Floride. Propulsée par une fusée de type Atlas V, elle se dirige vers la plus grande planète de notre système solaire, Jupiter, pour un voyage qui devrait lui prendre un peu plus de cinq ans. Juno reviendra tout d’abord vers la Terre dans deux ans, gagnant encore en vitesse en profitant du potentiel de gravité de la planète bleue. La sonde, d’un cout d’1,1 milliards de dollars, restera un an en orbite autour de la géante gazeuse, utilisant entre autres toute une série d’instruments de mesure dont certains fournis par la France, l’Italie et la Belgique, afin de récolter des informations sur son histoire. Elle achèvera sa courte existence en plongeant dans l’atmosphère de Jupiter, phase pendant laquelle elle continuera à transmettre des données jusqu’à son écrasement sous la très forte pression de cette planète. Elle devrait grandement nous aider à répondre à quelques questions :

Comment Jupiter s’est-elle formée ?

Jupiter est la première planète du système solaire à s’être formée, ainsi que la plus grande et la plus massive. « Si nous voulons remonter dans le temps et confirmer d’où nous venons et comment les planètes se sont formées, c’est Jupiter qui en détient le secret. Et donc nous voulons connaître la liste des ingrédients. Ce que nous cherchons vraiment à faire, c’est découvrir la recette de fabrication des planètes » explique Scott Bolton, pierre angulaire de la mission Juno. Certains modèles suggèrent que Jupiter se seraient formés plus loin du Soleil que sa position actuelle, d’autres pensent au contraire qu’elle n’a pas bougé.

Quelle quantité d’eau y a-t-il sur Jupiter ?

La sonde américaine Galileo, qui avait elle aussi pour mission d’étudier Jupiter, avait détecté l’existence d’un océan salé sous la croute de glace recouvrant l’une des lunes de la planète, ainsi qu’une proportion d’eau anormalement faible dans son atmosphère. Les données récoltées par Juno pourraient alors donner de sérieux indices.

Que se cache-t-il sous la surface de Jupiter ?

De nombreux modèles existent quant à l’intérieur de la planète. Certains envisagent l’existence d’un coeur rocheux dont la masse serait 10 fois supérieure à celle de la Terre, d’autres l’imaginent sans. De précieuses informations seront aussi récoltées sur la couche nuageuse recouvrant la planète.

Quelle est l’origine du magnétisme jovien ?

Jupiter possède un champ magnétique d’une très grande intensité ainsi que d’une très grande portée, mais dont l’origine est pour le moment sujette à débat. La rapide rotation de la planète entrainera Juno à chercher du côté des fluides d’hydrogène, indice potentiellement probant, à l’aide de son magnétomètre.

Le très fort magnétisme de Jupiter est également responsable des plus grandes aurores du système solaire, à ses deux pôles. Juno prendra des clichés infrarouges et ultraviolets de ces aurores, et étudiera les particules de plasma responsables de celles-ci.

R.M

DIAPORAMA : le premier Boeing 787 « Dreamliner » en images

Le premier Boeing 787 Dreamliner de la compagnie japonaise All Nippon Airways (ANA) vient d’être dévoilé, au sortir de l’atelier de peinture. Le transporteur nippon, qui sera le premier à en disposer, effectuera de courts trajets entre les villes de Tokyo et Hong Kong, et ce dès le mois d’octobre. Il effectuera ensuite des vols domestiques entre la capitale japonaise et les villes d’Okayama et de Hiroshima.

Le Boeing 787 présente deux turboréacteurs de la marque anglaise Rolls Royce, les « Trent 1000 », permettant à l’avion d’atteindre une vitesse de croisière de près de 900 kilomètres/heure. En plus d’être plus économes en carburant, ces moteurs sont aussi plus silencieux. Le 787 devrait utiliser 20 % de carburant en moins que les autres avions équivalents, selon l’Américain Boeing.

L’aérodynamique du 787 a été améliorée par l’avionneur américain, notamment au niveau de l’extrémité des ailes, sensiblement incurvée pour se terminer en pointe. Ces ailes donnent au Boeing une envergure de 60 mètres, pour une longueur de 56,7 mètres et une hauteur de 17 mètres.

Le cockpit du 787 est somme toute très classique et similaire à celui du Boeing 777, ce qui réduira sensiblement le temps d’apprentissage pour permettre aux pilotes de faire la transition entre les deux avions.

« Les passagers d’ANA seront les premiers à découvrir l’environnement intérieur confortable du Boeing 787 Dreamliner. En complément du niveau de service d’ANA, les passagers pourront profiter d’un habitacle spacieux, de grands hublots, de sièges confortables et d’écrans tactiles de divertissement en vol », a déclaré Mitsuo Morimoto, vice-président de la compagnie ANA.

Par Rahman Moonzur

 

À lire aussi :

DIAPORAMA : le Phantom Ray, nouveau drone de combat de Boeing

Un micro-robot qui flotte sur l’eau

Il n’y a rien de surprenant à ce que la science prenne exemple sur la nature pour le développement d’une quelconque technologie. Les micro-robots se déplaçant sur l’eau ne sont en cela pas une nouveauté, les scientifiques ayant décidé d’étudier à de maintes reprises la faculté qu’ont les gerridés, communément appelées (à tort) araignées d’eau en raison de leurs longues pattes bien qu’elles fassent partie de la famille des punaises. La face ventrale des gerridés est complètement recouverte de fins poils hydrophuges (les préservant de l’humidité), leur permettant alors d’utiliser la tension superficielle de l’eau pour rester au dessus de la surface de l’eau et s’y déplacer. Cet effet, appelé l’effet lotus, permet donc aux gerridés de flotter tandis qu’ils se servent de leurs deux paires de pattes postérieures pour se déplacer et ainsi glisser.

Les scientifiques à l’origine de ce nouveau robot, affiliés à l’institut de Technologie de la ville de Harbin, en Chine, se sont donc calqués sur la faculté des gerridés pour concevoir leur insecte bionique, se servant également de quelques uns de leurs travaux précédents ainsi que de travaux « concurrents ». Jusqu’alors, de nombreuses équipes de chercheurs avaient réussi à concevoir de tels robots, mais aucune n’avait réussi le tour de force à les rendre à la fois pratiques, agiles et extrêmement peu onéreux.

Le robot, que vous pouvez observer dans la vidéo en fin d’article, est composé du corps, de dix pattes filiformes se servant de la tension superficielle de l’eau, et de deux pattes « rameuses » propulsées par deux moteurs miniatures. « Pesant près de 390 fois le poids d’un gerridé, on aurait s’attendre à voir le robot couler rapidement. Pourtant, il flotte sans efforts à la surface de l’eau, avançant et tournant librement. » confirme Qinmin Pan, responsable du projet. Ce robot pourrait bien avoir de nombreux développements militaires, notamment dans le domaine de l’espionnage en le munissant d’une caméra vidéo ainsi que dans le domaine de la prévention et du contrôle de la pollution marine.

 

Par R.M

Au détour des routes de France, le tourisme industriel

Le temps des vacances est arrivé pour nombre d’entre vous. Je vous propose quelques pistes pour découvrir le patrimoine industriel des régions et départements de France. Bien entendu, ce n’est qu’une liste de suggestions, qui n’a rien d’exhaustif et que vous pourrez compléter selon votre lieu de villégiature ou de résidence, et en fonction de vos centres d’intérêt. Bonnes visites !

  • En Ille-et-Vilaine : la visite de l’usine marémotrice de la Rance est un grand classique. Elle vous permettra de découvrir – ou derécouvrir – cette énergie marine et hydraulique.

http://energie.edf.com/hydraulique/energies-marines/carte-des-implantations-marines/usine-maremotrice-de-la-rance/presentation-51516.html

  • En Moselle : l’office de tourisme de Sarreguemines fait une proposition originale, avec la visite du centre de production de la Smart.

 

  • En Haute-Garonne : la région de Toulouse est réputée pour être le cœur de la production aéronautique. Bien sûr, la visite d’Airbus est devenue incontournable. Mais l’office de tourisme de Toulouse propose bien d’autres visites d’établissements, qui vous permettront de connaître toutes les facettes de ce secteur.

 

  • Dans le Rhône : près de Lyon, à Caluire, vous pourrez visiter l’ancienne usine des eaux et son lac souterrain. Ce site n’est plus exploité depuis 1976

  • En Île-de-France : la région parisienne ne manque pas d’usines et de centres industriels à explorer. Dans le secteur agroalimentaire, pourquoi ne pas aller voir le centre de recherche Danone Research, à Palaiseau ?

http://www.tourisme-essonne.com/fr/les-entreprises-de-lessonne-vous-ouvrent-leurs-portes/agricole-et-alimentaire/danone-research/

  • Dans le Nord : proposé par Lille Métropole Communauté Urbaine (LMCU), la visite de la station de lagunage de Deulémont puis celle de la station d’épuration d’Houplin-Ancoisne vous permettront de découvrir deux modes courants de traitement des eaux usées.

http://www.lillemetropole.fr/index.php?p=925&art_id=15319
http://www.lillemetropole.fr/index.php?p=925&art_id=19270

Dans le Pas-de-Calais : les sites industriels ne manquent pas dans ce département. Mon choix s’est porté sur Arc International, pour vous inviter à mieux connaître ce matériau tout à la fois quotidien et mystérieux qu’est le verre.
http://visite-usine-fr.arc-intl.com/index.html

Et vous, quelles usines visiterez-vous cet été ?

Par A.M

Fukushima : les parents japonais vivent avec la crainte des radiations

Depuis le déclenchement de la crise le 11 mars, les autorités nippones ont relevé la limite maximale d’exposition radioactive pour les enfants, au même niveau que celle fixée dans beaucoup de pays pour les personnes travaillant sur des sites atomiques. Et elles affirment que les enfants ne craignent rien.

Certaines familles n’ont pas été rassurées par le discours officiel et ont décidé de quitter la zone affectée par les retombées de Fukushima. La plupart sont cependant restées, hésitant à abandonner leur emploi, leur domicile et tirer un trait sur leur vie, malgré la peur ambiante.

Dans la ville de Fukushima, capitale de la préfecture du même nom, les aires de jeu ont été désertées par les enfants contraints de rester à l’intérieur, alors que des effluents radioactifs continuent de s’échapper de la centrale à une soixantaine de kilomètres de là, sur la côte Pacifique.

La plupart des écoles de cette ville de quelques 300 000 habitants ont interdit aux élèves de jouer au football ou au base-ball sur les terrains ou bien de se baigner dans les piscines en plein air. Les fenêtres des salles de classe restent fermées malgré la chaleur estivale. Plus de 300 enfants ont quitté les écoles primaires et les collèges depuis avril, selon le bureau de l’éducation de Fukushima, qui a chargé les employés municipaux de nettoyer les murs des établissements scolaires pour éliminer les poussières radioactives.

« Nous comprenons totalement les sentiments des parents, mais nous voulons qu’ils agissent dans le calme », a déclaré à l’AFP Yoshimasa Kanno, membre du bureau de l’éducation. Il a ajouté que la ville allait doter d’ici septembre chaque élève d’un dosimètre pour calculer le volume de radiations reçues.

Sachiko Sato, 53 ans, qui vit à Kawamata, à 35 kilomètres seulement de la centrale nucléaire, a décidé d’envoyer ses deux enfants dans une autre ville, mais de rester dans la maison familiale. « Nous nous demandons ce qui est le plus important pour nous », a-t-elle confié. « Pour certains, c’est leur travail, pour d’autres c’est la famille. Pour moi, c’est l’avenir de mes enfants. » Hiroshi Ueki, 40 ans, qui travaillait jusqu’à récemment dans un jardin d’enfants, a relogé sa femme et ses deux enfants d’un et quatre ans à Matsumoto, dans la préfecture montagneuse de Nagano, à 280 kilomètres. « Je n’arrêtais pas de dire à mes fils: « Ne touchez pas ça. Ne mangez pas ça. N’enlevez pas votre masque », se souvient-il. « Alors quand on est arrivé à Matsumoto, mon fils aîné m’a encore demandé: « Papa, est-ce que je peux toucher cette fleur, cette voiture ? Est-ce que je peux jouer sous la pluie ? » En entendant ça, j’avais envie de pleurer. »

La limite d’exposition aux radiations au Japon a été relevée de 1 millisievert par an à 20 millisieverts, après le séisme et le tsunami géants qui ont provoqué la plus grande catastrophe nucléaire depuis celle de Tchernobyl en 1986.

Dans la ville de Fukushima, les autorités évaluent la radioactivité dans l’atmosphère à des niveaux allant de 5,4 à 13,6 millisieverts par an, selon les endroits. Mais les critiques relèvent que ces mesures ne tiennent pas compte de l’exposition interne provoquée par la nourriture ou la poussière contaminée par les radiations.

Les experts sont d’accord pour dire que les enfants courent un risque plus élevé de développer des cancers ou d’autres maladies que les adultes, mais divergent lorsqu’il s’agit de mesurer ce risque. « Personne ne peut prédire avec précision quel sera l’impact éventuel des radiations sur les habitants de Fukushima », a reconnu le pédiatre Makoto Yamada. « C’est le devoir des autorités de prendre les mesures de précaution en envisageant le pire des scénarios », a-t-il estimé.

 

(Source et crédit photo : AFP)

 

À lire aussi :

Japon : perte colossale au 1er trimestre pour Tepco à cause de Fukushima

Le Japon crée un fonds public pour indemniser les victimes de Fukushima

Niveau record de radiations à Fukushima

Catastrophe de Fukushima : la décontamination reprend

L’AIEA se montre sévère face à la catastrophe de Fukushima

Sangliers morts : la responsabilité des algues vertes se confirme

Rendues publiques dans la nuit de vendredi à samedi, ces analyses ont écarté la présence de poisons et de cyanobactéries pour expliquer l’hécatombe de 36 sangliers survenue en juillet dans les Côtes-d’Armor, tout en révélant un taux record de ce gaz toxique, le H2S, chez un ragondin également décédé. « En l’état actuel des données, les seuls résultats significatifs portent sur le H2S », a admis la préfecture des Côtes-d’Armor dans un communiqué, en annonçant encore de dernières analyses toxicologiques complémentaires.

Rapidement avancée par les écologistes et des chercheurs mais récusée par les représentants agricoles, l’hypothèse d’un empoisonnement dû aux algues en décomposition n’avait jusqu’à présent été envisagée qu’avec beaucoup de prudence par les autorités. « Aujourd’hui, la préfecture reconnaît clairement la responsabilité de l’hydrogène sulfuré et des algues vertes. De ce point de vue le dossier est clos », s’est félicité samedi Gilles Huet, délégué général de l’association Eau et rivières de Bretagne, contacté par l’AFP.

« La préfecture a bien fait d’explorer toutes les hypothèses pour qu’il n’y ait aucun doute. Maintenant, nous attendons que la ministre de l’Ecologie, Nathalie Kosciusko-Morizet, dise les enseignements que le gouvernement tire face à cette menace pour la santé des hommes et pour la faune », a-t-il ajouté.

Révélé au grand public à la suite de la mort en 2009 d’un cheval et d’un convoyeur, le phénomène des « marées vertes », qui frappe chaque été une partie de la Bretagne, a conduit l’année dernière l’État et les collectivités à lancer un plan prévoyant le ramassage systématique des algues et la réduction à terme des rejets azotés qui favorisent cette prolifération. Un plan toutefois jugé insuffisant par les écologistes, qui ont fait valoir que certaines plages ne pouvaient être nettoyées et que certaines contraintes pesant sur les agriculteurs avaient été en réalité assouplies.

M. Huet a appelé samedi le gouvernement à revenir sur son « projet d’assouplissement des règles d’épandage », et demandé à ce que « l’État et les collectivités locales ferment toutes les plages où le ramassage ne peut être assuré ». « Il s’agit d’une mesure de protection de la santé publique qui permettra aussi de lever toute ambiguïté sur le littoral breton, dont la grande majorité du linéaire ne présente pas de dangerosité », a-t-il rappelé.

Le docteur Claude Lesné, ancien chercheur au CNRS, spécialiste de la toxicité des polluants aériens, a dit lui aussi espérer que les dernières conclusions permettront d' »assainir le débat ». « Il ne va plus être possible de nier qu’il y a des sites pollués. Si les autorités mettent en place une vraie politique d’information, cela pourra permettre de sauver les activités touristiques: les gens hésitent à venir en Bretagne car ils sentent qu’on leur cache des choses », a-t-il estimé. « Il y a un changement de ton, on a l’impression que l’on sort de la politique du camouflage », s’est félicité le praticien, saluant l’engagement de la préfecture à mettre les résultats d’analyses en ligne lundi.

Les dernières analyses révèlent notamment la présence de 2,45 mg/kg de H2S dans les poumons du ragondin, soit plus de double du taux relevé chez le cheval mort en 2009. « À titre de comparaison, l’an passé, on avait décelé 1,46 et 1,92 mg/kg chez deux humains décédés à la suite d’une intoxication domestique dans le Midi », a rappelé le Dr Lesné à l’AFP.

(Source et crédit photo : AFP)

 

À lire aussi :

La dépollution des eaux radioactives par les algues

La batterie aux algues vertes peut révolutionner l’industrie du stockage d’énergie

Le biocarburant algal : un trompe l’oeil ?

Japon : perte colossale au 1er trimestre pour Tepco à cause de Fukushima

Tepco, déficitaire sur tous les plans, est incapable d’établir des prévisions financières pour l’ensemble de l’année allant d’avril 2011 à mars 2012, en raison des multiples incertitudes entourant la crise à la centrale Fukushima Daiichi. L’opérateur avait déjà affiché une perte nette de quelques 11 milliards d’euros pour l’année budgétaire bouclée en mars 2011, trois semaines après le séisme et le tsunami géants qui ont endommagé le site atomique le 11 mars sur la côte Pacifique.

Tepco a dû enregistrer au 1er trimestre une perte exceptionnelle d’environ 503 milliards de yens (plus de 4,3 milliards d’euros), notamment pour le dédommagement des victimes de la catastrophe atomique. La compagnie, qui se débat pour stabiliser la situation dans la centrale atomique saccagée et pour fournir de l’électricité aux résidents de la mégapole de Tokyo et des environs, a vu son chiffre d’affaires trimestriel baisser de 7,2 % sur un an, à 1 133,11 milliards de yens (9,9 milliards d’euros).

Ses dépenses ont augmenté en raison des travaux en cours à la centrale et des achats de pétrole ou de gaz naturel pour relancer des centrales thermiques. Ce déséquilibre a entraîné une perte d’exploitation de 52 milliards de yens (452 millions d’euros) au 1er trimestre de l’exercice, contre un gain de 62 milliards de yens un an auparavant.

Tepco est forcé de mobiliser des moyens exceptionnels et de prendre en compte de massives dépréciations d’actifs résultant de l’arrêt brutal et définitif d’au moins quatre des six réacteurs du site Fukushima Daiichi, sans compter la suspension pour une durée indéterminée des quatre tranches d’une deuxième centrale, Fukushima Daini.

(Source et crédit photo : AFP)

 

À lire aussi :

Le Japon crée un fonds public pour indemniser les victimes de Fukushima

Niveau record de radiations à Fukushima

Fuskushima : des répercussions mondiales, en silence

Catastrophe de Fukushima : la décontamination reprend

L’AIEA se montre sévère face à la catastrophe de Fukushima

À Fukushima, la catastrophe continue

De l’eau sous forme liquide sur Mars ?

Les clichés commentés par la NASA en fin de semaine dernière laissent peu de place au doute, selon de nombreux scientifiques et experts : les traces sombres et ondulantes apparaissant sur les clichés de la surface de la planète Mars pris par la sonde spatiale américaine « Mars Reconnaissance Orbiter » (MRO), pourraient bien être le signe de la présence d’eau à l’état liquide sur la planète rouge, relançant d’ores et déjà le débat et les spéculations concernant l’éventuelle présence d’organismes microbiens sur le sol martien. De l’eau sous forme liquide, du carbone et une source d’énergie : la vie…

Eau sous forme liquide

On avait déjà la certitude de la présence d’eau sous forme de glace sur Mars, et tout laisse à penser que les divers canyons et autres curiosités géologiques ont bien été sculptés par la présence (passée) d’eau liquide. Et c’est bien de cette eau liquide dont la chimie a besoin pour donner la vie. Les photos haute résolution de la sonde spatiale MRO, entrée en orbite autour de la planète rouge en 2006, montrent bien des trainées de plusieurs mètres de large, apparaissant lors du printemps martien sur des pentes raides, et s’élargissant jusqu’à plusieurs centaines de mètre lors de l’été martien. Un cratère en particulier contiendrait près d’un millier de ces trainées.

De l’eau salée ?

Trouver des sillons n’est évidemment pas la même chose que trouver de l’eau, un instrument à bord de la sonde n’en ayant pour le moment pas détecté, peut-être à cause d’une quantité trop faible selon les experts. Dans un article publié vendredi dans le magazine Science, le professeur Alfred S. McEwen de l’université d’Arizona, rappelle qu’il n’y a pour le moment pas de détection directe de la présence d’eau sur Mars. Il avance que l’eau potentiellement découverte pourrait être de l’eau salée, expliquant qu’elle peut demeurer liquide malgré les basses températures régnant sur la planète – la présence de sel étant avérée sur Mars.

Analogie avec le « pergélisol »?

Pour le moment, les scientifiques ne parviennent pas à expliquer la raison pour laquelle les écoulements, aperçus à sept emplacements différents, auraient assombri le sol, pour ensuite disparaître lors de l’hiver martien. Certains avancent une possible analogie avec le pergélisol (le « permafrost » sibérien), désignant un sous-sol gelé en permanence pendant au moins deux ans. Le pergélisol possède une zone dite « active » qui dégèle en été, provoquant des écoulements et laissant apparaître un sol plus foncé captant la chaleur. Mais de leurs aveux, il reste très difficile d’avancer quelques explications en raison du manque de données.

Mars Science Laboratory fin 2011

L’astromobile du Mars Science Laboratory (MSL), mission d’exploration de Mars qui devrait être lancée en novembre et arriver en août 2012, ne permettra sans doute pas de donner d’indications supplémentaires car elle devrait atterrir beaucoup trop loin des traces. Il est peut-être encore temps d’y penser, car le projet accuse déjà plus de deux ans de retard et de nombreux dépassements budgétaires…

Par Rahman Moonzur

Tu seras ingénieure ma fille !

Pourquoi lorsque les filles se jugent très bonnes en mathématiques, seules 6 sur 10 choisissent de préparer un bac S, alors que dans le même cas, 8 garçons sur 10 optent pour cette même filière (source : Ministère de l’Education nationale, 2010) ? Pourquoi alors que 40 % des élèves dans les lycées sont des jeunes filles, seul 20 % d’entre elles s’orientent vers les métiers scientifiques et techniques (source : Mutationnelle 2010) ? « La faute aux stéréotypes ! », dénonce Jean-Louis Bernaudin, délégué général de l’association Pasc@line qui vise à promouvoir le métier d’ingénieur dans le domaine des technologies numériques.

À bas les stéréotypes

« Soi-disant que l’ingénieur est un métier plutôt masculin, que les études sont longues, que le rythme de travail est plus difficile qu’ailleurs…, sans oublier que les filles auraient des aptitudes et des intérêts différents de ceux des garçons. Tout cela est faux ! » Ces stéréotypes véhiculés notamment par la presse où domine le sexe fort, conditionnent aussi inconsciemment les prescripteurs tels que les enseignants et les parents. Les premiers allant jusqu’à consacrer plus de temps aux garçons (étude de l’OFCE sur la mixité à l’école, 2010). Les seconds ayant bien du mal à ne pas influencer le choix professionnel de leurs enfants.

Devenir ingénieure : allez les filles

Face à cette réalité, l’association Pasc@line et le réseau Elles bougent qui multiplie les initiatives pour inciter les jeunes filles à s’orienter vers les métiers de l’industrie ont lancé une campagne nationale d’information et de lutte contre les stéréotypes intitulée Tu seras ingénieure, ma fille. Ne laissons pas les stéréotypes prendre notre place. Au programme : des rencontres avec des professionnelles en région (Lyon, Nantes et Toulouse),  un site ressources Tu seras ingénieure contenant des vidéos, des dépliants d’information, un quizz, la diffusion de plaquettes métiers sur le numérique, l’énergie, les transports.

Moins de femmes ingénieures

« Nous souhaitons montrer aux jeunes étudiantes la multiplicité des parcours et la richesse des métiers d’ingénieurs (…) qui ne sont pas l’apanage des garçons », souligne Marie-Sophie Pawlak, présidente de Elles bougent . « Les entreprises ont besoin d’elles car l’apport des compétences féminines est une richesse et une plus-value pour l’environnement professionnel », précise Nelly Rouyrès de Pasc@line. La tâche est d’autant plus urgente que pour la première fois depuis plus de 20 ans, la proportion de femmes ingénieurs diminue : elles étaient  118 740 en 2008, elles sont 117 400 en 2009 et ne représentent plus que 17 % de l’ensemble des ingénieurs (source : Mutationnelle 2010). Ce recul se retrouve en particulier dans les STIC (Sciences et Technologies de l’Information et de la Communication) alors même que ce secteur d’activité est fortement créateur d’emplois.

Par Corinne Dillenseger / Maviepro.fr

À lire aussi :

Femmes ingénieurs : la bataille n’est pas encore gagnée !

Elles bougent pour faire connaître les métiers d’ingénieurs

Sciences : aider les filles exposées aux discriminations

Claudie Haigneré : « Toute société s’enrichit de sa diversité »

Revue du Web #5 : les vidéos de la semaine

Cette semaine : les éléments se déchaînent suffisamment en Australie pour « inverser » le cours d’une chute d’eau ; des joujoux high-tech ; des quadricoptères effectuant un vol en formation groupée ; un effet surprenant obtenu sur Smartphone à partir des oscillations des cordes d’une guitare ; et enfin le premier chien affublé de pas moins de… quatre prothèses.

Forces de la nature : le cours d’une chute « inversé »

Les intempéries qui ont frappé le sud de l’Australie vers la mi-juillet ont eu une conséquence des plus surprenantes : outre ses torrents de pluie déversés sur la région (plus d’un mois de précipitations en moins de 24 heures) et ses vents violents, la tempête a réussi à « inverser » le cours d’une chute d’eau. La force « modérée » du vent (près de 130 km/h), a ainsi entraîné une partie de la chute d’eau, balayée par les rafales, du côté de la rivière plutôt qu’au bas de la chute. D’aucuns s’interrogent encore sur l’hélicoptère ayant pris les images…

Joujoux high-tech : les quadricoptères

L’université de Pennsylvanie (États-Unis) est à la pointe de la recherche high-tech, notamment en ce qui concerne les drones. Des collaborations entre robots, auxquels on assigne des missions toujours plus complexes et évoluées, sont actuellement à l’étude. Ayant pris du galon depuis le lancement du projet, les quadricoptères ont réussi la prouesse de voler à travers des cerceaux en mouvement, et ce en étant totalement autonome, et de construire une structure de manière collaborative. De même, ils peuvent désormais voler en formation groupée, les quadricoptères d’un « escadron » calquant leurs mouvements sur le leader. Une anomalie est même simulée, ce qui ne perturbe en rien le vol de l’escadron, comme vous pouvez le voir dans la vidéo qui suit :

La vidéo suivante montre un quadricoptère se rétablir en plein vol, malgré un lancement délibérément raté, puis passer à travers des cerceaux immobiles, puis un cerceau en mouvement :

Cordes de guitare + iPhone = effet rolling shutter

Le rolling shutter effect est un effet visuel bien connu des utilisateurs de smartphones. On retrouve le plus souvent cet effet lorsqu’une caméra est dotée d’un capteur CMOS (Complementary Metal Oxide Semiconductor), comme par exemple un célèbre Smartphone d’une non moins célèbre marque à la pomme. Cet effet est dû à la méthode employée lors de l’acquisition de l’image par l’appareil. En effet, contrairement au global shutter, méthode permettant de capturer une image à un seul et même instant, le rolling shutter ne capte pas tous les points de la même image à un instant t. Il effectue l’équivalent d’un scan vertical ou horizontal, ce qui contribue à la déformation d’une image lorsque l’objet est filmé a une certaine vitesse.

La première vidéo, très récente, présente la déformation des cordes d’une guitare, dûe à leurs oscillations, et vue de l’intérieur de l’instrument. La seconde vidéo présente le même effet, mais filmé sous un autre angle. Enfin, la dernière vidéo, une hélice d’avion, déformée elle aussi…

Le chien bionique

Pour conclure cette revue du Web#5, voici Naki’o, un jeune chien abandonné à l’âge de 5 semaines, en compagnie de ses frères et sœurs. L’hiver au Nebraska est si rude qu’il a eu raison des pattes de Naki’o. Christie Tomlinson, vétérinaire, a organisé une levée de fonds pour payer au jeune chien les prothèses que vous pouvez voir dans la vidéo qui suit. Naki’o peut maintenant gambader dans les vertes prairies tel un jeune chien fou :

Par Rahman Moonzur

REACH : les news du mois d’août (1/2)

Mise à jour du registre d’intention

(27/07/2011)
L’ECHA a mis à jour le registre d’intention concernant la soumission de dossiers pour l’identification de nouvelles SVHC. Ce registre d’intention est disponible à l’adresse :
http://echa.europa.eu/chem_data/reg_int_tables/reg_int_en.asp?substance_type=SVHC&substance_state=current

Informations pour éviter les essais inutiles sur les animaux – 25 nouvelles substances concernées

(29/07/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • diéthylméthylbenzènediamine (N° CAS : 68479-98-1 et N° CE : 270-877-4)
  • produits de réaction des amides, huile de colza, N-(hydroxyéthyl), éthoxylés et du glycérol, éthoxylés (N° CE : 932-164-2)
  • produits de réaction du 2,2 ‘-oxydibutane, du 2-méthylpropane-2-ol, du butan-2-ol et du 2,2’-oxydipropane (N° CE : 903-919-3)
  • furannedione-2,5, dihydro-, dérivés mono-alcényles en C15-20 (N° CAS : 68784-12-3 et N° CE : 272-221-2)
  • alcènes, C13-14, produits d’hydroformylation, ébullition basse (test proposé avec un solvant aliphatique C9-C14 solvant, 2-25% d’aromatiques)
  • chlorure de N-benzyl-N-C16-18 (numéros pairs)-alkyl-N-méthyl-C16-18 (numéros pairs)-alkyl-1-aminium (test proposé avec les composés de l’ion ammonium quaternaire, dialkyl en C16-18 diméthyles, chlorures – N° CAS : 92129-33-4)
  • Nonylphenol, ramifié, éthoxylé (N° CAS : 68412-54-4 et N° CE : 500-209-1)
  • goudron de lignite à basse température (N° CAS : 101316-84-1 et N° CE : 309-886-6)
  • extraits au solvant (pétrole), résidu sous vide désasphalté (N° CAS : 91995-70-9 et N° CE : 295-332-8)
  • 3,3,5-triméthylcyclohexane-1-one (N° CAS : 873-94-9 et N° CE : 212-855-9)
  • phénol isopropylé, phosphate (3:1) (N° CAS : 68937-41-7 et N° CE : 273-066-3 )
  • phénols comportant des groupements méthylstyrène (N° CAS : 68512-30-1 et N° CE : 270-966-8)
  • dihydrogénoéthylenediaminetétraacétate de diammonium (N° CAS : 20824-56-0 et N° CE : 244-063-4)
  • Alcènes en C6-8, pair et impair, linéaires et ramifies (test proposé avec l’oct-1-ene – N° CAS 111-66-0
  • Alcènes en C13-14 (test proposé avec l’oct-1-ene – N° CAS 111-66-0)
  • Alcènes en C8-10, riches en C9 (test proposé avec l’oct-1-ene – N° CAS 111-66-0) (N° CAS : 68526-55-6 et N° CE : 271-212-0)
  • acide benzènetricarboxylique-1,2,4, mélange de triesters de décyle et d’octyle (N° CAS : 90218-76-1 et N° CE : 290-754-9)
  • Produits de réaction du 2-méthylpent-2-ène et du diisopropyl éther (N° CE : 906-484-8)
  • Produits de réaction du 2-éthylpropane-1,3-diol, du 5-ethyl-1,3-dioxane-5-méthanol et du propylidynetriméthanol (test proposé avec le 5-éthyl-1,3-dioxanne-5-méthanol – N° CE 225-967-8) (N° CE : 904-153-2)
  • N-(3-aminopropyl)-N’-C16-18 (numéros pairs), C18 insaturé alkyle-propane-1,3-diamine (test proposé avec dipropylènetriamine suif (N° CE : 628-863-4)
  • éthanol, imino-2,2′ bis-, dérivés N-(alkyl ramifié et droit en C13-15) (N° CAS : 97925-95-6 et N° CE : 308-208-6)
  • alcanes en C10-13, chloro- (N° CAS : 85535-84-8 et N° CE : 287-476-5)
  • acides gras de tallol, produits de réaction avec la triéthanolamine (N° CAS : 67784-78-5 et N° CE : 267-053-1)
  • Disodium hydroxy-substituted alkanoate (test proposé avec les produits de réaction du Disodium hydroxy-substituted alkanoate et du Disodium hydroxy-substituted alkanoate
  • tris(2-méthoxyéthoxy)vinylsilane (N° CAS : 1067-53-4 et N° CE : 213-934-0)

Les informations sur ces substances sont à soumettre pour le 12 septembre 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Informations pour éviter les essais inutiles sur les animaux – 1 nouvelle substance concernée

(01/08/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. La substance concernée est  :

  • alcènes en C7-9, produits d’hydroformylation, résidus de distillation, fraction lourde de craquage (N° CAS : 98072-31-2 et N° CE : 308-482-7)

Les informations sur ces substances sont à soumettre pour le 15 septembre 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Mise à jour de la base de données des substances enregistrées dans le cadre de REACH

La base de données de l’ECHA contenant des informations sur les substances enregistrées est mise à jour régulièrement et contient, en date du 2 août 2011, 4263 enregistrements. 3242 substances phase-in publiables sont répertoriées sur un total de 3523 substances phase-in enregistrées..
Retrouvez toutes les informations sur :
http://apps.echa.europa.eu/registered/registered-sub.aspx

Par Céline Nectoux, ingénieur environnement CNRI

Les dernières NEWS REACH :

Et aussi :

 

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur :

 

Rio-Paris: les familles jugent l’enquête « définitivement » discréditée

Réagissant au fait que le Bureau d’enquêtes et d’analyses (BEA) a retiré de son dernier rapport une recommandation concernant les alarmes de décrochage, Robert Soulas, président de l’association, a jugé dans un communiqué que « ce triste épisode jette définitivement le discrédit sur l’investigation technique » et « génère une crise de confiance sans précédent envers les autorités d’enquêtes ».

« La précipitation avec laquelle ces autorités et ces responsables ont accusé les pilotes sans aucune réflexion préalable avait alerté notre suspicion », a-t-il ajouté. « Nous avons maintenant confirmation que les affirmations émanant de la tutelle du BEA étaient non seulement prématurées, dépourvues d’objectivité, partiales et très orientées vers la défense d’Airbus ».

Le BEA a confirmé mardi qu’il envisageait de publier une recommandation sur le fonctionnement des alarmes de décrochage, mais a expliqué l’avoir retirée de son dernier rapport, publié le 29 juillet, afin de la compléter par les travaux du groupe de travail « facteur humain ».

Selon Robert Soulas, « pour des raisons de sécurité évidentes des actions immédiates doivent être entreprises ». « Il n’est nul besoin d’attendre les hypothétiques conclusions d’un groupe « facteurs humains » pour réagir uniquement sur des critères de bon sens ».

Le président de l’association a également regretté que les recommandations publiées par le BEA dans son rapport « ne soient affectées d’aucun délai de réalisation, ce qui semble incompatible avec la notion de réactivité inhérente à la sécurité aérienne ».

Pour rappel, la catastrophe avait fait 228 victimes le 1er juin 2009. Dans son dernier rapport, le BEA a notamment mis en cause la formation et les réactions de l’équipage après le décrochage de l’avion.

(Source : AFP)

 

À lire aussi :

Crash Rio-Paris: les enquêteurs identifient une série de défaillances des pilotes

Boîtes noires du vol Rio-Paris : conclusions hâtives ?

[Vidéo] Crash Rio-Paris : les deux boîtes noires repêchées

Vol AF447 : un navire d’Alcatel-Lucent choisi pour remonter l’épave

Épaves d’avions en mer : optimiser leur localisation et la récupération des données en vol

Mesurez avec Endress+Hauser et réduisez votre facture énergétique

Mesurez, économisez !

L’optimisation des postes énergivores comme le gaz naturel, la vapeur, l’électricité, l’air, l’eau (…) passe par une mesure précise des consommations. Les gisements d’économies sont tels que l’installation de capteurs industriels fiables et précis est un impératif. La mise en œuvre de ces mesures permet une économie immédiate de 6 à 8 % par une modification des habitudes et des comportements et vont révéler d’autres gisements d’économies par un suivi efficace des consommations.

Visualisez, économisez !

La visualisation et l’enregistrement des mesures débouchent sur une analyse précise des consommations et le calcul de rendement des installations. Les outils de visualisation peuvent être des calculateurs d’énergie ou des enregistreurs à écran graphique installés à proximité des points de consommation. Un autre moyen est la centralisation des informations sur un seul logiciel dédié à surveiller l’efficacité énergétique de l’ensemble du site ou d’un bâtiment.

Ce logiciel permet :

  • d’apposer des indicateurs de performance,
  • d’effectuer des ciblages précis,
  • d’anticiper des déviations et pics de consommation,
  • d’enregistrer des consommations annuelles,
  • de réaliser des rapports sur l’ensemble des utilités.

La mise en œuvre de moyens de contrôle débouche sur une économie immédiate de 10 à 15 %.

Suivez, économisez !

Des capteurs industriels et un outil de visualisation ne suffisent pas à pérenniser les gains en énergie. La garantie d’économie durable passe par la justesse et la reproductibilité des valeurs de mesure. L’installation, la mise en route et un plan de maintenance et métrologie assurent l’efficacité de l’outil de mesure. Endress+Hauser est votre partenaire pour la mise en œuvre des procédures de mesure, la collecte des données, l’affichage et le suivi des installations.

Quelques économies vite réalisées   

  • Diminution des consommations de gaz naturel par la prise en compte des variations de température et de pression ;
  • Optimisation des retours de condensat par l’installation de débitmètres ;
  • Bilan de l’efficacité de la distribution de vapeur par la correction des variations de pression, la réduction des fuites ;
  • Suivi du rendement énergétique de la chaudière ;
  • Détection de fuite des réseaux d’air comprimé, détection de bouchage et d’encrassage des filtres, mesure des pressions sur chaque admission.

 

Par Raphaël Brie, Responsable marketing services – solutions

Découvrez les solutions « surveillance efficacité énergétique » Endress+Hauser

Le Japon crée un fonds public pour indemniser les victimes de Fukushima

Le gouvernement injectera dans un premier temps 2 000 milliards de yens (18 milliards d’euros) sous forme d’obligations spéciales, a indiqué l’agence de presse Kyodo, mais le montant final devrait être beaucoup plus élevé. Aux termes de la loi, votée par le Sénat, après avoir été approuvée par les députés, l’opérateur de la centrale nucléaire Fukushima Daiichi, Tepco, et d’autres compagnies productrices d’électricité d’origine nucléaire contribueront également à ce fonds de compensation en faveur des victimes.

Tepco devra rembourser

Pour rappel, l’accident survenu le 11 mars à la centrale, à la suite d’un tsunami géant, a contraint plus de 80 000 personnes à évacuer les environs dans un rayon de 20 kilomètres et dans d’autres zones soumises à de trop fortes radiations. La catastrophe, la plus grave depuis celle de Tchernobyl il y a 25 ans, a également eu des conséquences désastreuses sur l’agriculture, la pêche et le secteur du tourisme.

La loi ne précise pas le montant dont sera doté le fonds, mais souligne que Tepco, dont l’action a perdu plus de 80 % de sa valeur, devra ensuite rembourser toutes les sommes versées aux victimes par cet organisme. Le gouvernement et l’opérateur de la centrale ont été l’objet de vives critiques pour la lenteur avec laquelle les aides et les compensations ont été jusqu’ici distribuées aux personnes déplacées, aux agriculteurs et aux commerçants qui ont tout perdu dans l’accident.

Environ 300 agriculteurs ont manifesté bruyamment devant le siège de Tepco à Tokyo, aux cris de « rendez-nous notre vie, rendez-nous un Fukushima vert », en brandissant des pancartes sur lesquelles on pouvait lire : « pas d’excuses, montrez votre sincérité et indemnisez-nous ». Beaucoup de manifestants étaient des éleveurs dont le bétail a été contaminé après avoir consommé de la paille de riz ou du foin radioactifs. Un embargo sur la viande de boeuf a été décrété dans la préfecture de Fukushima et dans trois provinces voisines.

(Source et crédit photo : AFP)

Crash Rio-Paris: les enquêteurs identifient une série de défaillances des pilotes

Le document relève que les pilotes n’ont pas apporté les bonnes réponses aux deux principaux incidents survenus dans les dernières minutes du vol : la perte des indicateurs de vitesse, à laquelle ils n’étaient pas entraînés à faire face, et le décrochage de l’appareil. Les pilotes n’ont notamment pas « formellement identifié la situation de décrochage », détaille le Bureau d’enquêtes et d’analyses (BEA), alors que l’alarme de décrochage a sonné de façon continue pendant 54 secondes. Ils n’ont pas non plus appliqué la procédure requise après le givrage des sondes Pitot qui a conduit à une perte des indications de vitesse, ajoute le BEA notant toutefois qu’ils n’avaient « pas reçu d’entraînement à haute altitude à la procédure » de réponse à une telle situation.

Le pilote en fonction, âgé d’une trentaine d’années, assurait une conduite manuelle de l’avion à ce moment-là, le pilotage automatique s’étant justement désactivé après les pertes d’indications de vitesse. Les enquêteurs soulignent également que les tâches n’étaient pas réparties « de façon explicite » dans le cockpit, après que le commandant de bord se fut retiré pour un moment de repos. Ils notent par ailleurs qu’aucune annonce n’a été faite par l’équipage aux passagers dans les dernières minutes du vol.

Dans un communiqué à l’AFP, Air France a immédiatement réagi en défendant le « professionnalisme » des pilotes et en mettant en cause la fiabilité de l’alarme de décrochage de l’avion, dont « les multiples activations et arrêts » ont « fortement contribué à la difficulté pour l’équipage d’analyser la situation ».

Le rapport du BEA, le troisième depuis l’accident qui a coûté la vie à 228 personnes le 1er juin 2009 au large du Brésil, s’appuie sur l’analyse des données des boîtes noires de l’avion, repêchées fin mai après un séjour record de 23 mois au fond de l’Atlantique. Il est accompagné d’une série de recommandations visant à améliorer la sécurité aérienne. Il faudra en revanche attendre le rapport final et la décision de la justice pour déterminer les responsabilités, alors qu’Air France et Airbus sont mis en examen pour homicide involontaire dans ce dossier aux enjeux énormes. « La responsabilité des uns et des autres, c’est un sujet judiciaire, ce n’est pas le rôle des enquêteurs du BEA », a réaffirmé vendredi sur RTL la ministre de l’Ecologie et des Transports, Nathalie Kosciusko-Morizet.

Plus de deux ans après le crash, la catastrophe du Rio-Paris n’a toujours pas été élucidée précisément. Jusqu’à présent, le givrage des sondes Pitot était la seule défaillance établie, mais les enquêteurs ont toujours estimé qu’elle ne pouvait expliquer à elle seule l’accident.

(Source et crédit photo : AFP)

 

À lire aussi :

Boîtes noires du vol Rio-Paris : conclusions hâtives ?

[Vidéo] Crash Rio-Paris : les deux boîtes noires repêchées

Vol AF447 : un navire d’Alcatel-Lucent choisi pour remonter l’épave

Épaves d’avions en mer : optimiser leur localisation et la récupération des données en vol

Distinguer le vrai whisky d’une contrefaçon

Dans ce qui apparaît comme un problème crucial, les chercheurs écossais (évidemment) de l’Université de Strathclyde, affiliés au département de Chimie Pure et Appliquée, ont trouvé de nouveaux moyens pour démasquer un whisky contrefait. Ou pour reconnaître un vrai.

À travers une série de blind tests, ce système pourrait améliorer et faciliter la traque des whiskies de contrebande, responsable d’une baisse de revenus significatives, et représentant une menace pour la réputation d’une marque.

Le professeur David Littlejohn, responsable de cette étude, explique : « Bien que l’industrie du whisky dispose déjà de moyens permettant de séparer le vrai whisky d’un faux, ils impliquent souvent une analyse en laboratoire, ce qui n’est pas le plus pratique lorsqu’on a besoin d’identifier un échantillon rapidement ». « Ces nouveaux moyens pourraient être adaptés à cette industrie », renchérit-il.

L’analyse de 17 échantillons de la boisson ambrée se fait en contrôlant le niveau d’éthanol sans dilution, ainsi que les résidus après évaporation. Une spectroscopie infrarouge utilisant de nouvelles fibres optiques développées pour l’occasion par une entreprise écossaise complète la batterie de tests. Les niveaux d’éthanol et de colorants permettent ainsi l’identification des échantillons contrefaits.

Par Rahman Moonzur

 

À lire aussi :

L’alcool au service de la supraconductivité !

Un oxyde métallique multiferroïque

Les chercheurs américains du Brookhaven National Laboratory, en collaboration avec les chercheurs allemands de l’Institut Leibniz de recherche sur l’état solide et les matériaux, ont publié un article sur leurs récentes découvertes dans le journal Physical Review Letters, concernant un oxyde métallique à base d’yttrium, de manganèse et d’oxygène, aux propriétés multiferroïques.

Un matériau multiferroïque est un matériau qui est à la fois ferroélectrique, c’est-à-dire possédant une polarisation spontanée, et ferromagnétique, possédant un magnétisme spontané. Il peut aussi « souffrir » d’une troisième qualité, la ferroélasticité. Le défi du couplage entre magnétisme et ferroélectricité est un enjeu de taille, car il peut devenir extrêmement intéressant d’utiliser les deux propriétés du matériau, l’induction de l’aimantation par un champ électrique ou a contrario la polarisation par un champ magnétique. La difficulté de combiner ces deux propriétés rend les matériaux multiferroïques relativement rares.

« En principe, le couplage d’un matériau magnétique régulier avec un matériau électrique régulier pourrait nous amener vers des appareils extrêmement utiles », explique Stuart Wilkins, l’un des chercheurs. « Par exemple, on imagine très bien un appareil dans lequel l’information est écrite par application d’un champ électrique, et lue en détectant son état magnétique », ajoute-t-il, ce qui révolutionnerait le stockage de données, le rendant plus rapide et moins énergivore.

C’est en se servant de rayons X particulièrement brillants, que les scientifiques ont réalisé leur découverte. Ils ont pu déterminer que le couplage magnétique-électrique est le résultat d’un nuage d’électrons entourant l’atome. Les électrons de l’oxygène et du manganèse se combinent de telle manière qu’ils créent des liens atomiques conservant les éléments ensemble. Ce processus serait dépendant de la structure magnétique du matériau, le rendant ici ferroélectrique. Chaque changement dans la structure magnétique de l’ensemble a une incidence sur l’état ferroélectrique, le rendant de fait multiferroïque.

Par Rahman Moonzur

AGENDA – Wine Track 2011

Organisée sous  le haut patronage de l’Organisation Internationale de la Vigne et du Vin (OIV), l’objectif de cette journée est de positionner les enjeux de la traçabilité des vins et spiritueux, de dresser un état actuel des méthodes d’analyse et des référentiels utilisés dans la traçabilité, tant du point de vue de l’origine et de l’authenticité, que de la chaîne de conditionnement et de transport.

Cette journée s’adresse ainsi à tous les acteurs de la filière viti-vinicole (vignerons du secteur privé ou coopératif, oenologues, maîtres de chai, négociants, conditionneurs, transporteurs, distributeurs…) à qui les organisateurs espèrent donner non seulement une vision claire et réaliste de la situation et des moyens pour garantir l’authenticité des produits, mais aussi un aperçu sur les nouvelles solutions que proposent la Science et la Technique pour mieux se protéger des fraudes et contrefaçons.

Cette journée, à laquelle sera associé un espace où des entreprises présenteront des dispositifs de marquage/détection, doit être un lieu privilégié d’échanges entre scientifiques, professionnels de la filière et fournisseurs de nouveaux équipements.

Le programme :

Session 1 : Les Enjeux de la Traçabilité

  • 8h30 – Accueil des Participants
  • 9h30 – Allocutions de bienvenue
  • 10h00 – Le rôle de l’OIV dans l’établissement des normes internationales et pour le contrôle de la traçabilité des produits viti-vinicoles. Jean-Claude RUF – Coordinateur Scientifique à l’OIV
  • 10h30 – Traçabilité de l’origine des vins français, de la production à la circulation. Actions de la Douane. Frédéric BOUY – Direction Générale des Douanes et des Droits Indirects
  • 11h00 – Parole aux exposants et leur savoir faire
  • 11h30 – Pause café – visite des stands des professionnels
  • 12h00 – La traçabilité source de protection du patrimoine vitivinicole. Aziz ALLAM – Expert auprès de l’OIV, Consultant en droit vitivinicole

Session 2 : Les solutions de la traçabilité

  • 12h30 – Vingt ans de la banque de données européenne des vins. Claude GUILLOU – Responsable du laboratoire Metabonomics et du BEVABS – Centre Communautaire de Recherche de la Communauté Européenne – Institut pour la santé et la protection des consommateurs
  • 13h00 – Déjeuner – visite des stands des professionnels
  • 14h30 – Le contrôle de l’authenticité des vins au SCL33. Isotopie : François GUYON – Autres techniques : Bernard MEDINA, Directeur du SCL Bordeaux
  • 15h00 – Emballages et Traçabilité. Annette FREIDINGER – Expert International en Emballage et Conditionnement
  • 15h30 – Comment protéger, assurer et défendre : L’Appellation d’Origine, La Marque et ses produits. Alain FOUCOU – Vice Président Advanced Track & Trace
  • 16h00 – Les marqueurs biologiques « intrinsèques » et/ou les étiquettes « extrinsèque » pour les besoins d’authentification. Christian JAY- ALLEMAND Pr UM2–Didier TOUSCH, MCF UM2, cofondateur de la Société Gingko Sfere
  • 16h30 – Marquage et traçabilité dans les emballages en verre. Jean-Denis BORRAS – Président de la société Athéor
  • 17h00 – Clôture de la journée. Jean-Michel LOUBRY Directeur Général Pôle National de Traçabilité

En savoir plus :

Niveau record de radiations à Fukushima

Selon Tepco, le niveau de rayonnement atteint au moins 10 sieverts par heure à proximité de débris accumulés entre les réacteurs 1 et 2 de cette centrale nucléaire endommagée par le violent tremblement de terre et le tsunami géant qui ont dévasté le nord-est du Japon il y a près de cinq mois.

Le précédent niveau le plus élevé de radiations dans l’enceinte de la centrale Fukushima Daiichi avait été relevé le 3 Juin. Il était de 3 à 4 sieverts par heure, à l’intérieur du réacteur numéro un.

« Nous sommes toujours en train de vérifier la cause de tels niveaux élevés de radioactivité », a expliqué une porte-parole de Tepco.

Le gouvernement et Tepco prévoient toujours de stabiliser la situation à Fukushima en conduisant les réacteurs vers un état dit d’« arrêt à froid » d’ici au mois de janvier. Diverses actions se poursuivent depuis l’accident pour faire progressivement baisser la température du combustible, notamment grâce à la mise en place d’un système de circulation d’eau de refroidissement.

Le site de Fukushima a été victime après le 11 mars d’une série d’avaries, dont des explosions d’hydrogène qui ont détruit une partie des bâtiments et engendré d’importants rejets radioactifs dans l’environnement.

Le gouvernement a cependant affirmé récemment que les niveaux de radiations aux alentours de la centrale avaient chuté à un niveau identique à deux millionièmes du pic enregistré le 15 mars.

Environ 80 000 personnes, résidant précédemment à moins de 20 kilomètres de la centrale ou dans des localités ayant été particulièrement contaminées, ont été forcées de quitter leur domicile en raison de risques pour la santé.

(Source : AFP / Crédit photo : TEPCO/AFP/Archives)

 

À lire aussi :

Fuskushima : des répercussions mondiales, en silence

Catastrophe de Fukushima : la décontamination reprend

L’AIEA se montre sévère face à la catastrophe de Fukushima

À Fukushima, la catastrophe continue

Fukushima : de « graves dysfonctionnements » dans l’évaluation de l’impact en France ?

Fukushima : des robots dans les réacteurs, et en vidéo

Centrale de Fukushima : 11 500 tonnes d’eau polluée rejetée dans l’océan

Comment se prémunir contre les failles de sécurité ?

Récemment, une attaque de pirates a mis à terre toutes les barrières de protection, libérant un flot de pas moins de 77 millions de dossiers personnels sur Internet, où ils furent rapidement happés dans les antres de l’économie souterraine.

Le vol de données, notamment de fichiers liés à la sécurité, nuit non seulement à la réputation des victimes, mais implique également la responsabilité pénale de l’entreprise en question. Peter Schaar, coordinateur de la CNIL Européenne, déclare : « L’entreprise doit être tenue responsable de tout dommage engendré ». La culture d’indemnisation est par tradition encore plus vivace aux États-Unis qu’en Europe.

Les principales faiblesses

Les fuites de données qui ont fait la une de l’actualité étaient évitables et sont dues à des règles de sécurité trop laxistes : les données personnelles des clients, telles que le mot de passe, continuent d’être enregistrées sans cryptage, et l’accès de nombreux clients et employés reste protégé par des systèmes obsolètes. Les entreprises s’efforcent toujours d’élever les niveaux de sécurité sur la base de principes sujets à caution. Toutefois, d’autres lacunes fondamentales continuent de régner.

Les plates-formes de jeux restent la cible privilégiée des hackers car c’est un secteur qui génère beaucoup de capitaux. En effet, selon la dernière étude de PricewaterhouseCoopers sur les perspectives 2008-2012 du marché mondial du divertissement et des médias, nous pouvons prévoir une croissance annuelle moyenne de 10,5 % d’ici 2012, pour atteindre un chiffre d’affaires d’environ 68 milliards de dollars. Dans le domaine du jeu en ligne (les paris et jeux de toutes sortes), les prévisions 2012 devraient même dépasser la barre des 630 milliards. Toutefois, le risque existe que ces prévisions optimistes doivent être revues à la baisse alors que les fuites de données qui se produisent régulièrement sont susceptibles de freiner l’enthousiasme des joueurs.

Prenons l’exemple du compte client. En cas d’accès depuis un PC, il existe un danger d’attaques par des programmes enregistreurs de frappe ou renifleurs. Leur origine est souvent un cheval de Troie. Ils consignent furtivement toutes les saisies de mot de passe et les transfèrent au serveur du hacker, baptisé « drop zone ». Même si un antivirus est installé, même si l’utilisateur se montre prudent, les risques restent immenses face aux stratagèmes sophistiqués des hackers.

Les experts en conviennent : les ordinateurs grand public sont rarement équipés de système de sécurité professionnel. Ils doivent donc être considérés comme non-sécurisés. Ce n’est pas surprenant. En outre, il est reconnu que cela n’aurait aucun sens de confier la responsabilité de la sécurité à l’utilisateur. Peut-on s’attendre à ce qu’il invente chaque semaine un nouveau mot de passe béton contenant des chiffres et des caractères spéciaux… et le mémorise de surcroît ?

Une meilleure prévention passe par l’authentification forte

Il n’existe aucune fatalité, comme l’illustre l’exemple de l’entreprise japonaise Square-Enix. Elle protège sa plate-forme de jeux en ligne avec une double-authentification de pointe. Tous les participants à son jeu de rôle Final Fantasy XI reçoivent un authentifieur en forme de porte-clés. D’un clic sur un bouton, il génère un mot de passe unique qui n’est valable que 32 secondes. À chaque connexion de l’utilisateur, il calcule une nouvelle valeur. Les mots de passe glanés par les hackers sont ainsi inutilisables. L’accès est également possible via une console PlayStation ou Xbox 360 et des PC Windows, le mot de passe unique concernant chacun de ces appareils. Dans le cas de Square Enix, le serveur d’authentification gère l’identification.

Cet investissement a porté ses fruits, comme le prouvent les chiffres officiels des ministères japonais : en 2009, 2289 cas d’accès non autorisés aux services en ligne ont été constatés, soit une hausse d’environ 25% par rapport à l’année précédente.

Le site de jeu en ligne PartyGaming protège de longue date ses joueurs par une authentification forte. Après tout, beaucoup d’argent est en jeu, argent que les hackers souhaitent aussi subtiliser. Les utilisateurs de PartyPoker, PartyCasino, PartyBingo et PartyGammon s’inscrivent en téléchargeant le logiciel client PartyGaming. Une fois inscrits, ils peuvent obtenir un authentifieur dénommé PartySecure sur la boutique en ligne. De nouveau, un serveur gère l’authentification. Un porte-parole de PartyGaming affirme : « La solution est très évolutive. Elle peut suivre notre croissance et accueillir aisément le nombre grandissant de joueurs en ligne sur notre plate-forme. »

Vous pouvez aussi jouer au poker et enchérir en toute sécurité sur la plate-forme en ligne BetClic. De nouveau, un authentifieur est utilisé avec un serveur d’authentification. Sargon Petros, directeur Exploitation et infrastructure IT de BetClic, se félicite : « Cela nous a permis d’accroître le revenu par joueur et de réduire le taux de rotation de nos joueurs VIP. La mise en place de la nouvelle solution de sécurité a dopé nos bénéfices. »

Logiquement, une sécurité efficace présente un coût, comme Square Enix, PartyGaming ou BetClic en étaient conscients. Toutefois, les dommages récurrents dus aux hackers montrent que ces entreprises, et bien d’autres de ce secteur, ont agi avec prévoyance. En parallèle, la solution matérielle leur permet de prévenir un partage de compte prohibé et de renforcer la confiance du client, d’où une utilisation plus fréquente qui se traduit en revenus. L’authentification forte offre des avantages économiques, car elle sécurise le trafic.

Concernant les attaques de hackers, la question n’est pas de savoir si l’évènement va se produire, mais l’instant et la gravité de sa frappe. Et l’expérience passée montre qu’il faut ériger des barrières au moment opportun, des barrières avec des réserves suffisantes pour faire face aussi à de graves incidents d’ampleur inconnue à ce jour. Les attaques ciblées sur les entreprises, notamment dans le secteur du divertissement, sont déjà courantes. L’authentification forte protège contre les pertes engendrées par des demandes d’indemnisation et la confiance envolée. D’où l’impératif d’un déploiement généralisé, avant que le barrage ne rompe.

Par Jan Valcke, President de VASCO Data Security / Experts IT

L’ITME de Varsovie dépose un important brevet pour l’obtention du graphène

Le graphène, élément constituant du graphite, a été isolé en 2004 par le néerlandais AndreGeim, du département de physique de l’université de Manchester. Cette découverte a été récompensée en 2010 par le prix Nobel de physique. Le graphène est toujours au coeur de nombreuses recherches et ses propriétés physiques hors du commun promettent de nombreux champs d’application.

Le principal problème rencontré à ce jour est sa production : en effet, le graphène est un cristal monoplan (de maille hexagonale), c’est-à-dire dont l’épaisseur est celle de l’atome de carbone, son seul constituant, soit 70 picomètres. Cette contrainte dimensionnelle permet de comprendre le niveau de technicité de la production du graphène.

En Pologne, l’Institut de technologie des matériaux électroniques (ITME) de Varsovie participe à plusieurs projets de recherche d’envergure internationale, et collabore notamment dans leurs recherches sur l’obtention du graphène avec les récipiendaires du prix Nobel de physique 2010. Dans le cadre de leurs recherches, ils ont déposé au mois de mai 2010 un important brevet d’obtention du graphène par dépôt chimique en phase vapeur (ou CVD pour « chemical vapor deposition ») ainsi qu’une publication dans la revue scientifique à fort impact Nano Letters fin mars 2011.

Sur la base du procédé développé par Georgia Tech permettant l’obtention par épitaxie (croissance orientée de réseaux cristallins) par sublimation des atomes de silicium dans un cristal de SiC, les chercheurs polonais utilisent la méthode CVD sur des substrats de SiC. Cette méthode est moins sensible aux défauts de surface des substrats de SiC et permet la synthèse contrôlée d’un nombre déterminé de couches de graphène avec un niveau de dopage défini.

La principale avancée technologique concerne les moyens mis en oeuvre et la facilité d’obtention qui en ferait un processus « conventionnel » et abordable, adaptable à l’industrie et à une production à plus grande échelle sur des substrats -waffers- de dimension classiques. Cette méthode, qui suscite déjà l’intérêt de la communauté des chercheurs et d’industriels, pourrait permettre la création d’une entreprise spin-off de l’ITME.

Le graphène, de résistance à la rupture 200 fois supérieure à celle de l’acier et 6 fois plus léger permet le déplacement des électrons à 30 fois leur vitesse dans le silicium. Les applications qui découleraient de telles propriétés vont des composants électroniques (transistors de dimensions nanométriques, écrans plats) à l’industrie utilisant des systèmes mécaniques.

 

http://www.bulletins-electroniques.com/actualites/67273.htm

 

À lire aussi :

Les pères du graphène reviennent sur leur découverte

Le graphène peut polariser la lumière

Une méthode simple pour fabriquer du graphène ?

Les défauts fleuris du graphène, une chance ?

Une nouvelle propriété du graphène mise en évidence

Un composite céramique 200 % plus résistant

« Nanomat training » formera les futurs experts en nanomatériaux

La plus grande quantité d’eau jamais découverte se trouve à… plus de dix milliards d’années-lumière !

140 000 milliards de fois plus d’eau que la Terre n’en recèle, soit l’équivalent de 140 000 000 000 000 océans et mers terrestres. Ce n’est ni plus ni moins la quantité d’eau qui a été découverte par les astronomes de l’Institut de Technologie de Californie, dont la révélation a été faite vendredi 22 juillet. Cette masse d’eau gigantesque se trouve à plus de dix milliards d’années-lumière dans un quasar, appelé « APM 08279+5255 ».

Le rayonnement de ce quasar, une fois analysé par deux équipes indépendantes, – l’une située à Mauna Kea, à Hawaï, partie intégrante du « Very Long Baseline Array » (VLBA ou réseau américain de radiotélescopes astronomiques), l’autre se trouvant au niveau de l’interféromètre du plateau de Bure, dans les Hautes-Alpes –, a permis de confirmer les données.

Cette découverte d’eau, sous forme gazeuse, prouve que l’Univers contenait déjà de l’eau peu après sa naissance, à savoir 1,7 milliards d’années après. La lumière émise par le quasar aura mis près de 12 milliards d’années-lumière pour atteindre la Terre.

Un quasar (« quasi-stellar radio source » ou source de rayonnement quasi-stellaire) est une galaxie très lointaine dont le noyau actif constitue la région compacte entourant un trou noir supermassif au centre d’une galaxie massive. L’agrégation de matière autour des trous noirs permet aux quasars de gagner en masse et en puissance. Le trou-noir qui constitue le quasar en question serait 20 millions de fois plus massif que le soleil.

Par Rahman Moonzur

 

À lire aussi :

Du nouveau pour le plus grand radiotéléscope du monde

Un robot sphérique pour lutter contre les fuites radioactives

Alors que ceux que l’on appelle les « liquidateurs » s’ingénient au péril de leur vie, à rétablir le courant, remettre d’aplomb le circuit de refroidissement et remédier aux fuites d’eau radioactive de la centrale nucléaire de Fukushima-Daiichi, les normes de sécurité des centrales nucléaires vieillissantes font actuellement l’objet d’une révision, en vue de leur amélioration.

Une étude diligentée par l’Associated Press a mis le doigt récemment sur les fuites de l’un des isotopes radioactifs de l’hydrogène – le tritium –, supposées être fréquentes aux États-Unis (elles concernent les trois quarts des centrales américaines). Ces fuites auraient pour origine la corrosion et la dégradation des canalisations enfouies transportant l’eau permettant le refroidissement du réacteur nucléaire, et pourraient être responsable de la contamination des nappes d’eau souterraine.

Les moyens dont disposent les centrales pour contrôler ces fuites sont limités : pour détecter la corrosion éventuelle d’une canalisation souterraine, on peut générer un gradient de potentiel électrique pour localiser l’endroit où les tuyaux auraient été corrodés, ou des ultrasons pour repérer les cassures. L’unique moyen de contrôle direct reste le déterrement d’un conduit, solution coûteuse et extrême mais très efficace. 

Le professeur Harry Asada, professeur d’ingénierie au Département d’Ingénierie Mécanique et directeur du Laboratoire Arbeloff pour les Systèmes d’Information et la Technologie, rattaché au très prestigieux MIT (Massachusetts Institute of Technology), travaillerait avec son équipe sur un moyen de contrôle plus direct, plus pratique, et moins coûteux : un petit robot sphérique équipé de caméras, qui serait capable de plonger dans le réacteur nucléaire et de se déplacer à travers le réseau de canalisations souterraines à la recherche du moindre signe de corrosion ou de dégradation des tuyaux. Des détails du prototype ont été présentés lors de la dernière conférence de l’IEEE, sur la robotique et sur l’automatisation.

Ressemblant à un boulet de canon métallique, sans propulseurs à hélice ni gouvernail (les risques de le voir se coincer quelque part, et de devoir éteindre la centrale pour le récupérer sont jugés trop élevés), il utilise une valve pour atteindre le réseau de canalisations, coupant l’eau dans un tuyau ou non, créant ainsi un effet de « jet-stream ». Les images prises par le robot sont transmises en temps réel grâce à une connexion laser sans fil et sous-marine, sur un peu plus de 100 mètres. À l’aide d’un système ingénieux de cardan à deux axes, la caméra peut faire un panoramique alors même que le robot reste stationnaire.

Ce robot n’aurait qu’une durée de vie limitée, dûe aux dégradations extrêmes liées aux radiations supportées lors d’une descente, mais il reste tout de même très attractif. À l’heure actuelle, il est envisagé de l’utiliser dans un milieu moins corrosif, les égouts, pour accomplir le même genre de mission.

Par Rahman Monnzur

 

À lire aussi :

Catastrophe de Fukushima : la décontamination reprend

Fukushima : des robots dans les réacteurs, et en vidéo

Un robot chinois précieux dans la gestion des accidents nucléaires

Le largage de ravitaillement : une science, au mètre près

Mettons-nous un instant en situation : l’armée de la coalition, en Afghanistan, a besoin d’être ravitaillée sur ses bases les plus avancées. Un avion de transport militaire, le C-130 Hercules du constructeur américain Lockheed est diligenté pour accomplir cette mission. Il devra larguer un certain nombre de palettes de près d’une tonne, palettes contenant de la nourriture, de l’eau potable et des munitions. Plus l’endroit où atterriront les palettes sera proche de la cible initiale, et moins de risques seront pris pour les récupérer, tels qu’essuyer des tirs, tomber dans une embuscade ou voir le ravitaillement tombé dans les mains ennemies.

Pour que la récupération ait lieu dans les meilleures conditions, il faut choisir un terrain dégagé pour en faciliter l’accès, et bien évidemment que les palettes arrivent à l’endroit escompté, tout du moins dans un rayon acceptable. À bord du C-130, se trouve un ordinateur portable contrôlant la vitesse du vent ainsi que d’autres variables pour ajuster au mieux le trajet des palettes. Ce qui ne serait pas suffisant s’il n’était pas accompagné désormais par le système JPADS 2K (Joint Precision Airdrop System) qui, fort de ses nouveaux algorithmes, permet aux palettes de se diriger presque comme un parapente et d’atterrir avec une précision jusqu’ici inédite.

Le laboratoire de recherche à but non lucratif à l’origine de ce système, bien qu’il ne puisse pas fournir les chiffres exacts, garantit que la précision du largage est maintenant sans commune mesure avec les technologies précédentes. L’atterrissage se fait entre 1 et 100 mètres de la cible originale. Ce système serait si performant qu’il pourrait aussi donner lieu à des améliorations significatives dans le domaine du contrôle des drones.

« [Ce système] est similaire à celui d’un drone dans le sens qu’il devient plus ou moins un appareil téléguidé. Une fois largué par l’avion Cargo, il devient pleinement indépendant jusqu’au moment où il touche le sol », explique Andreas Kellas, responsable des systèmes de défense autonome pour le laboratoire Draper. « [Les palettes] peuvent tourner à gauche ou à droite, emprunter des trajectoires tortueuses et sinueuses constamment recalculées en temps réel, compenser les vents changeants… », ajoute-t-il.

Le système précédent avait une précision allant de 300 à 400 mètres, pouvant occasionner  des dégâts collatéraux (blesser un habitant, toucher une école ou une maison). Le nouvel algorithme tient compte de la vitesse, du vent et du terrain, se servant de cartes très détaillées et du GPS, lui permettant aussi d’éviter soigneusement les obstacles au sol. La nouvelle génération de palettes, déjà en préparation, serait à même de communiquer entre elles, partageant les données de vent et de météo aux palettes se trouvant à une plus haute altitude, corrigeant ainsi leur trajectoire et leur vol.

Par Rahman Moonzur

 

À lire aussi :

DIAPORAMA : le Phantom Ray, nouveau drone de combat de Boeing

Des robots quadripèdes tout terrain

Les pères du graphène reviennent sur leur découverte

De nombreux instituts de recherche et universités se sont déjà attelés à la tâche : élaborer des écrans tactiles, des transistors ultra-rapides, des photo-détecteurs, etc… Les désormais mythiques pères du graphène, lauréats du prix Nobel de Physique 2010, Andre Geim et Kostya Novoselov promettent dans un nouvel article publié dans Nature Physics que la recherche va à présent s’accélérer, ouvrant même potentiellement d’innombrables nouvelles opportunités dans le domaine de l’électronique.

Les deux chercheurs ont étudié en détail les effets des interactions entre électrons sur les propriétés électroniques du graphène, utilisant pour ce faire un graphène d’une très haute qualité, préparé sous vide. De cette façon, tous les mécanismes parasites concernant les électrons ont pu être éliminés, tout en accroissant l’effet de l’interaction électron-électron. Andre Geim et Kostya Novoselov ont pu constater qu’ils se comportaient de manière similaires aux photons (particule composant les ondes électromagnétiques). Ces travaux intéressent d’ailleurs grandement le CERN (Conseil Européen pour la Recherche Nucléaire).

Le Professeur Novoselov a conclu : « Bien qu’il y ait déjà de nombreuses applications excitantes dans le domaine de la physique et de l’appareillage électronique, plus loin nous irons dans la compréhension des propriétés électroniques du graphène, plus près nous serons d’un vrai graphène au service de l’électronique. ».

Par Rahman Moonzur

 

À lire aussi :

Le graphène peut polariser la lumière

Une méthode simple pour fabriquer du graphène ?

Les défauts fleuris du graphène, une chance ?

Une nouvelle propriété du graphène mise en évidence

Un composite céramique 200 % plus résistant

« Nanomat training » formera les futurs experts en nanomatériaux

Les rainettes au service des humains

Les pattes des rainettes, dotées de ventouses leur permettant d’adhérer à de nombreuses surfaces, pourraient dessiner quelques pistes pour améliorer les surfaces collantes et les rendre auto-nettoyantes, ou presque. L’utilité d’une telle qualité n’est plus à démontrer pour de nombreux produits, tout particulièrement dans des environnements à forte contamination, tels que pour les bandages médicaux, les pneus dont on pourrait améliorer les performances, ainsi que des adhésifs à durée de vie plus longue. C’est en tout cas dans cette direction que s’oriente le chercheur Niall Crawford de l’Université de Glasgow.

La faculté à rester propre, ou tout du moins à se prémunir des impuretés qu’ont les ventouses des pattes des rainettes restait jusqu’ici mystérieuse. « Il est intéressant de remarquer que ce sont les mêmes facteurs permettant aux rainettes d’adhérer aux surfaces qui leur assurent aussi l’auto-nettoyage. Elles sécrètent un mucus augmentant l’adhésion des pattes, qui sous l’effet de la friction causée par le mouvement de la rainette, leur permet aussi de nettoyer leur pattes », explique Niall Crawford.

Les chercheurs ont placé des rainettes sur une plateforme rotative afin d’observer et de mesurer l’angle à partir duquel elles perdent leur grip. En répétant l’opération avec des rainettes dont les pattes ont été préalablement contaminées, elles perdent toute adhérence bien plus rapidement, sauf si on les laisse avancer de quelques pas, leur redonnant alors tout leur grip. L’examen approfondi de ce mucus ainsi que son incorporation à un dispositif médical ou technologique pourrait bien être un défi intéressant à relever.

Par Rahman Moonzur

 

À lire aussi :

Les nano-ventouses des calmars

Un tatouage pour les diabétiques

Plutôt qu’un classique tatouage à l’encre potentiellement démodable, pourquoi ne pas opter pour un tatouage intemporel car… complètement invisible. Ce tatouage contiendrait des nano-capteurs étant à même de décoder le taux de glycémie de celui qui le porte, tout comme le niveau de sel dans le sang, ou encore le niveau d’alcoolémie. Tout cela à l’aide de l’appareil photo de l’iPhone 4.

Un capteur sous la peau

Le docteur Heather Clark, professeur associé en sciences pharmaceutiques à l’Université de Northeastern, dans le Massachusetts aux États-Unis, dirige la recherche sur ces capteurs se cachant sous l’épiderme et vient ainsi de publier un article dans la revue de langue anglaise Integrative Biology. C’est après avoir couru un marathon dans le Vermont, avec un système de surveillance de santé standard à temps réel et portable qu’elle aurait eu une intuition. Le spectre d’un système proposant au patient / utilisateur la médication nécessaire en fonction de ses besoins ne semble plus très loin.

Polymère et pigment fluorescent

En customisant légèrement un iPhone, il devient possible de lire et d’interpréter la lumière émise par les mini-capteurs, ce qui permettrait d’éviter l’ultra-classique piqûre quotidienne ou le test sanguin sur le bout des doigts, et d’avoir un outil de surveillance accrue. Des capteurs seraient rangés dans un agent huileux pour s’assurer qu’ils restent collés les uns aux autres, pour une taille n’excédant pas les 100 nanomètres. Ces capteurs seraient composés d’une solution à base d’un polymère réactif accompagné d’un pigment fluorescent, servant d’indicateur. À l’intérieur même de ce tatouage-implant, certaines nanoparticules s’uniraient exclusivement lorsqu’un certain taux de sel ou de sucre serait atteint. Une libération d’ions viendrait alors perturber les particules originellement neutres, perturbation se manifestant par la fluorescence.

LED bleue

Un accessoire a été dessiné spécialement pour permettre le fonctionnement de ce système, s’attachant sur l’iPhone. La lentille du téléphone est entourée d’un anneau de plastique afin de bloquer au maximum la lumière extérieure tandis qu’une LED bleue est utilisée pour déchiffrer les données. Par contre, un iPhone seul n’est toujours pas à même de décoder les données « brutes », il est nécessaire de passer par un ordinateur et un logiciel pour l’exploitation de celles-ci. L’application complète devrait voir le jour.

Vers une médecine plus personnalisée

Des applications telles que « Healthseeker » (aidant, entre autres, à mieux gérer son diabète) ont donc du souci à se faire, même si elles ont encore quelques beaux jours devant elles. Bien que la phase de test n’en soit encore qu’à ses débuts, et qu’elle n’ait été experimentée pour l’instant que sur des souris dont la peau est plus fine, les résultats semblent prometteurs et pourraient constituer une avancée décisive dans l’évolution de la médecine standard vers une médecine plus personnalisée et plus autonome. L’arrivée du nouvel iPhone 5 est surveillée de près par ces scientifiques, car ce smartphone devrait s’accompagner d’un appareil photo plus performant, ce qui rendrait la captation et le « diagnostic » encore plus précis.

Par Rahman Moonzur

 

À lire aussi :

Un biocapteur ultra-rapide détècte et quantifie les protéines

Images de synthèse : liaison d’une molécule avec sa protéine cible

Les travaux qui ont été publiés dans la revue Proceedings of the National Academy of Sciences (PNAS) le 6 juin dernier ouvrent la voie à une conception plus sûre et plus efficace de nouveaux médicaments.

L’observation et la compréhension de la liaison protéine-ligand est fondamentale pour la recherche biomédicale : elle permet de calculer l’affinité et le temps d’union de la molécule médicamenteuse avec sa protéine cible, connaître quelles sont leurs interactions et savoir ainsi comment agit le médicament. Seulement ce processus se déroule à des échelles qui rendent les observations difficiles : la taille des liaisons est de l’ordre de l’Angström (10-10 mètres, échelle d’un atome) sur des durées d’environ 100 nanosecondes.

Filmer ou capturer des déplacements si rapides de molécules avec une résolution spatiale si fine est aujourd’hui impossible. Pour contourner les problèmes liés à l’observation directe, les scientifiques ont donc développé des méthodes de simulation numérique qui permettent de représenter et  » voir  » les molécules et leurs mouvements à l’échelle atomique avec une grande précision. Sous la houlette de Gianni Fabritiis, coordinateur du Laboratoire de Biophysique Informatique et du Programme de Recherche en Informatique Biomédicale (GRIB) entre l’IMIM et l’UPF, ces travaux donnent ainsi l’accès à des processus biochimiques jusqu’ici invisibles et méconnus.

Concrètement, les chercheurs ont reconstruit le processus complet de la liaison d’un inhibiteur enzymatique, le complexe trypsine-benzamidine, grâce à près de 500 simulations moléculaires d’une durée de 100 nanosecondes chacune. Sur la vidéo on peut voir la protéine en arrière plan (en forme de pelote de laine), le complexe trypsine-benzamidine (en vert) et les molécules d’eau (rouge et blanc). Lors de la liaison, la reconnaissance de la molécule par la protéine ciblée provoque une réponse biologique : la compréhension de cette union est donc d’une importance vitale pour la conception de nouveaux médicaments.

À ce jour, c’est la première étude qui fournit une reconstruction complète d’un processus de liaison protéine-ligand. « La méthode nous donne non seulement l’affinité de liaison et la cinétique de la réaction, mais également des informations à l’échelle atomique durant le processus : les sites de liaison, les états de transition et les états métastables, qui sont potentiellement utiles pour augmenter la probabilité de succès dans la conception de médicaments. Cette méthodologie est directement applicable à d’autres systèmes moléculaires, et donc d’intérêt général en matière de recherche biomédicale et pharmaceutique » explique Gianni Fabritiis.

Les chercheurs travaillent maintenant à étendre l’application de cette méthodologie et à optimiser l’usage des capacités de calcul, car dans le cas où les ligands sont plus grands et plus flexibles et où les protéines ont des processus liant plus complexes, un effort de calcul toujours plus grand est exigé.

 

Source : http://www.bulletins-electroniques.com/actualites/67293.htm

«&nbsp.La chimie est le secteur industriel qui compte le plus de décès ces vingt dernières années&nbsp.» (2/2)

Techniques de l’ingénieur : Avec quels organismes français et étrangers travaillez-vous ?

En France, nos interlocuteurs principaux sont la DGPR, le Bureau des Risques Technologiques et des Industries Chimiques et Pétrolières (BRTICP), le Bureau de la Sécurité des Equipements Industriels, la Mission Transport de Matières Dangereuses, et les inspecteurs des installations classées au sein des DREAL (Direction Régionale de l’Environnement, de l’Aménagement et du Logement), avec qui nous dialoguons beaucoup. À côté de cela, nous nous appuyons aussi beaucoup sur les rapports des pompiers, très détaillés sur la chronologie des accidents.

Nous sommes régulièrement en contact avec les industriels, mais de manière indirecte, par l’intermédiaire des syndicats professionnels. L’Union des Industries Chimiques (UIC) représente ainsi l’une des filières industrielles les plus importantes en France. Mais il s’agit également du secteur industriel où il y a eu le plus de morts sur les vingt dernières années – avec toutefois des variations annuelles significatives, et notamment un pic avec l’accident d’AZF en 2001.

Nos autres partenaires industriels sont les pétroliers, UFIP (Union Française des Industries Pétrolières) et GESIP (Groupe d’Études de Sécurité des Industries Pétrolières et Chimiques), le SFEPA (Syndicat des Fabricants d’Explosifs, de Pyrotechnie et d’Artifices) , l’AFGC (Association Française des Gaz Comprimés) et le SHD (Syndicat des Halogènes et Dérivés).

Quant à l’international, nous travaillons en étroite relation avec l’Allemagne, la Grande-Bretagne, et les Pays-Bas. De même qu’avec l’organe chargé du recueil de l’accidentologie à l’échelle européenne, le MAHB (Major Accident Hazards Bureau). C’est un organe assez récent, qui date d’il y a une quinzaine d’années, et qui prévoit pour les états membres l’obligation de notifier à la Commission Européenne les accidents majeurs. Le MAHB dispose d’ailleurs aussi d’une base de données, la base MARS (Major Accident Reporting System).

Que peut-on souhaiter pour améliorer la prévention des risques industriels ?

La prise en compte du retour d’expérience est un chantier plus que jamais d’actualité. Aujourd’hui encore, trop d’accidents surviennent parce que le retour d’expérience d’évènements similaires, parfois même au sein du même groupe industriel, n’a pas été intégré.

Il nous faut poursuivre notre réflexion sur différentes problématiques, celle notamment des états « non standard », c’est-à-dire quand les installations ne fonctionnent pas en régime nominal. Ainsi, nous avons constaté, et de manière très nette, que parmi les accidents survenus récemment, et notamment en 2010, beaucoup s’étaient produits durant des phases de travaux (présence de sous-traitants ne connaissant pas les lieux et les installations, risques engendrés par la co-activité, etc.)

De même, nous observons que les « travaux par points chauds » et les phases de démantèlement sont particulièrement accidentogènes.

Depuis 2008-2009, le ministère du Développement Durable s’intéresse également à la problématique du vieillissement des installations, suite à des pollutions survenues en raison de ruptures de canalisation. Sachant que la plupart des sites industriels ne sont pas neufs, il reste encore beaucoup de travail à faire.

Un dernier axe de réflexion concerne enfin l’intégration de la société civile à la problématique de la prévention des risques. Je le disais tout à l’heure, toute la démarche du BARPI depuis une dizaine d’années consiste à s’ouvrir plus largement au public. Nos résumés d’accident sont accessibles à tous, et depuis quelques temps, suite à une refonte du site Internet, la base ARIA a gagné encore en ergonomie et en attractivité.

Il y a de la part de la société actuelle un besoin réel d’une plus grande transparence de la part des industriels. C’est pourquoi nous développons actuellement une démarche de « communication à chaud » en cas d’accident. Les sites Seveso dialoguent avec les riverains, notamment au sein des CLIC (Comités Locaux d’Information et de Concertation) qui sont mis en place autour de chaque site Seveso et qui échangent sur le plan de prévention des risques technologiques. Mais cela reste une démarche de communication « à froid », qui doit être complétée ensuite par une démarche de communication « à chaud ». Lorsqu’il survient un évènement sur un site, l’exploitant doit, de notre point de vue, aller spontanément en informer les riverains et les associations, en plus de l’État et des collectivités. Même s’il s’agit d’un évènement sans conséquence corporelle par exemple, mais avec un retentissement à l’intérieur du site, l’exploitant se doit de tenir au courant la population locale. Cela peut passer par un rapide communiqué de presse auprès des médias locaux, l’essentiel étant que les riverains aient l’information et ne soient pas obligés d’aller la chercher.

Cela nous semble primordial pour instaurer un climat de confiance entre les industriels et la population alentour. Les industriels ont, du reste, tout à y gagner en termes d’image et de crédibilité. Le public doit prendre conscience que nous sommes, dans ce domaine-là comme dans d’autres, dans une démarche d’amélioration continue.

Propos recueillis par Carole Hamon

Participez aux formations Techniques de l’ingénieur :

Évaluer et prévenir le risque chimique

ICPE: piloter et suivre l’évolution de ses installations classées

POSTULEZ À UN EMPLOI VERT ET/OU REJOIGNEZ LE GROUPE ENVIRONNEMENT