10 façons dont votre esprit vous manipule

L’effet Forer

Également connu sous le nom d’effet « Barnum », célèbre homme de cirque américain qui disait qu’« à chaque minute naît un gogo », l’effet Forer désigne l’impression qu’une description vague s’applique spécifiquement à notre personnalité. Ce phénomène fut découvert en 1948 par le psychologue Bertram Forer, lorsqu’il fit passer un test de personnalité à ses étudiants. En guise de résultat, Forer rendit à chacun le même assemblage de phrases types qu’il avait recueilli dans divers horoscopes : « Vous avez besoin d’être aimé, mais pourtant vous êtes critique avec vous-même. Vous avez certains points faibles, mais vous savez généralement les compenser. Vous pouvez être bavard et sociable, mais à certains moments vous êtes plutôt réservé… ». Quand Forer demanda à ses étudiants d’évaluer l’exactitude des analyses qu’ils avaient reçues sur une échelle de 1 à 5, la moyenne des notes fut de 4,26 ! La puissance de l’effet, jamais démentie, s’explique notamment par la tendance que nous avons à écarter les descriptions inexactes pour nous concentrer sur celles qui nous conviennent. Sans l’effet Forer, l’astrologie, la voyance, la numérologie et la plupart des pseudo-sciences n’auraient sans doute pas le même succès…

La dissonance cognitive

Lorsque nos croyances sur le monde entrent en contradiction avec les faits, ou quand la vision que nous avons de nous-même est en décalage avec nos actes, nous éprouvons une tension mentale qu’il nous faut réduire à tout prix, quitte à réinterpréter la réalité. Ce phénomène s’appelle la « dissonance cognitive ». Le psychologue Léon Festinger développa ce concept en 1956, après avoir étudié le cas d’une secte dirigée par une certaine Marian Keech. Cette dernière prétendait recevoir des messages d’extraterrestres, qui lui annoncèrent la fin du monde pour le 21 décembre 1954. Seuls les adeptes de la secte seraient secourus à bord de soucoupes volantes. Quand le jour de la prophétie arriva, mais qu’aucune soucoupe ne manifesta le bout de ses hublots, Marian ne se démonta pas : elle expliqua à ses adeptes que grâce à leur ferveur, l’apocalypse avait été reportée. Fait surprenant, seules deux personnes quittèrent le mouvement suite à ce flop cosmique, les autres virent leur foi redoublée. Ils préférèrent « adapter » la réalité à travers le filtre de leur croyance plutôt que de remettre cette dernière en question. Cette façon de sélectionner les informations qui confirment notre vision du monde fait partie de notre arsenal de défense face aux dissonances…

Le conformisme

Imaginez que vous soyez convié à un test de vision. On vous assoit dans une pièce en compagnie de 6 autres volontaires, et un expérimentateur fait son entrée pour vous expliquer la marche à suivre : l’exercice consistera à dire si des lignes présentées sur une série d’affiches sont plus petites ou plus grandes qu’une ligne de référence tracée sur un tableau. Les participants devront donner leur réponse à l’oral, chacun à leur tour. Au début, l’expérience se déroule normalement ; les réponses semblent évidentes, et tous les participants sont d’accord. Mais au bout d’un moment, alors que l’expérimentateur présente une ligne manifestement plus longue que la ligne de référence, tout le groupe la désigne comme étant plus courte. C’est à votre tour d’exprimer votre opinion : allez-vous suivre la majorité, ou dire ce que vous pensez ? Ce qu’a découvert le psychologue Solomon Asch lorsqu’il a mené cette expérience en 1951, c’est que sur une série de questions où le groupe a manifestement tort, 37 % des questionnés se rallient systématiquement à la majorité, reniant leurs propres perceptions. Bien sûr, il n’y a qu’un seul véritable cobaye, les autres participants étant des complices de l’expérimentateur. 75 % des sujets suivent le groupe au moins une fois, et seuls 25 % ne se laissent jamais influencer. Notre tendance au conformisme s’explique par la pression sociale : nous craignons d’être rejetés par nos semblables, et si le plus grand nombre n’est pas d’accord avec nous, on se persuade qu’il a probablement raison…

La paréidolie

La paréidolie est un effet psychologique très puissant qui nous pousse à percevoir des formes précises à partir de stimuli vagues et indéterminés. Elle témoigne d’un besoin très humain qui consiste à donner du sens au chaos. Les exemples au quotidien sont nombreux : voir un visage dans les motifs d’une tapisserie ou distinguer des animaux dans les nuages sont des cas de pareidolie que nous connaissons tous. Le phénomène est particulièrement présent dans le contexte religieux : on ne compte plus les visages du Christ identifiés sur des chips, des taches d’humidité ou encore des écorces d’arbres. Dans certains cas, les apparitions présumées déclenchent un engouement colossal, comme à Clearwater en Floride où plus d’un million de personnes se déplacèrent pour voir la Vierge sur les vitres d’un bâtiment, ou encore à Singapour en 2007 lorsque des milliers de pèlerins crurent voir un dieu-singe sur un tronc d’arbre. Le célèbre test de Rorschach pendant lequel des patients doivent dire ce qu’ils perçoivent dans une série de taches est un exemple de paréidolie utilisée à des fins psychothérapeutiques. Enfin, le « visage de mars » est un des cas de pareidolie les plus connus. Mais le phénomène ne se limite pas aux stimuli visuels, et il peut notamment expliquer les hallucinations auditives qui nous font percevoir des paroles de chansons qui n’existent pas, ou encore des « messages sataniques » dans certains morceaux passés à l’envers…

Les corrélations illusoires

C’est toujours quand on est en retard que les feux sont rouges, il se met toujours à pleuvoir quand on vient de laver sa voiture, et c’est toujours quand on est sous la douche que le téléphone sonne. Si vous vous retrouvez dans ce genre d’affirmations, popularisées par la célèbre loi de Murphy, c’est que vous êtes victimes des corrélations illusoires. Cette tendance à créer des relations entre des événements qui n’en ont pas s’explique notamment par le besoin que nous avons de donner du sens à ce qui nous arrive. En réalité, les feux ne sont pas plus rouges quand on est pressé, mais nous préférons nous focaliser sur les cas qui confirment notre théorie, en oubliant les autres. C’est le « biais de confirmation ». Les corrélations illusoires sont la source de nombreuses croyances populaires : vous avez sans doute entendu dire que le nombre de suicides augmentait les nuits de pleine lune, ou que certaines personnes sentaient leurs rhumatismes se réveiller en fonction de la météo. Dans les deux cas, les recherches ont montré qu’il n’y avait aucun lien statistique entre ces événements, mais les personnes qui y croient se concentrent sur les fois où leur théorie fonctionne. Les corrélations illusoires expliquent aussi la persistance de certains préjugés raciaux ou sexistes : il est plus simple de se cramponner à des stéréotypes préétablis plutôt que d’analyser chaque cas rationnellement…

Les faux souvenirs

En 2003, le Dr Elizabeth Loftus confronta des étudiants qui avaient tous visité Disneyland dans leur enfance à un prospectus vantant les mérites du célèbre parc d’attractions. On pouvait y voir Bugs Bunny serrant la main d’un enfant. Quand on leur demanda d’évoquer leurs souvenirs du parc, 35 % des étudiants se rappelèrent de leur rencontre avec Bugs Bunny, allant parfois jusqu’à préciser qu’il tenait une énorme carotte. Évidemment, Bugs Bunny étant un personnage de la Warner, il n’a jamais foulé le sol de Disneyland. La publicité était fausse, tout comme les souvenirs des participants. Cette expérience fait partie des nombreuses recherches qui mettent en avant le syndrome des « faux souvenirs », cette tendance que nous avons à nous rappeler de choses que nous n’avons pas vécu. Si les conséquences de ce phénomène semblent anodines dans l’exemple mentionné, elles peuvent être bien plus graves lorsqu’elles s’appliquent à des témoignages de crimes, ou encore dans le cadre de la psychothérapie : certains praticiens peuvent influencer les patients à se souvenir de traumatismes imaginaires, qui permettent ensuite d’expliquer leurs troubles. Dans d’autres cas, des souvenirs réellement vécus peuvent être altérés, voire transformés, par l’environnement socio-culturel, ou par l’influence de personnes persuasives. Ainsi, on pense que les témoignages d’ordre surnaturel tels que les enlèvements d’extraterrestres peuvent en partie découler du phénomène.

La cécité d’inattention

Dans une expérience célèbre, les psychologues Simons et Chabris demandèrent à des étudiants de regarder un petit film dans lequel deux équipes jouaient au basket. Leur tâche consistait à compter le nombre de passes que se faisaient les joueurs. À la fin du film, les participants donnèrent pour la plupart un chiffre correct, mais lorsqu’on leur demanda s’ils avaient remarqué quelque chose de bizarre dans la vidéo, quasiment personne ne mentionna le comédien déguisé en gorille qui avait traversé l’écran en s’arrêtant à mi-parcours pour se frapper la poitrine des deux poings. La « cécité attentionnelle » définit cette tendance parfois spectaculaire que nous avons à ignorer ce qui se trouve sous nos yeux lorsque notre attention est concentrée sur autre chose. De la même manière, notre cerveau est très peu compétent lorsqu’il s’agit de repérer des changements dans une scène après une coupure, comme lorsqu’on détourne le regard quelques instants : dans une expérience de Simons et Levin, l’expérimentateur demande son chemin à des inconnus dans la rue. Pendant qu’ils parlent, deux ouvriers passent entre l’expérimentateur et son cobaye avec un grand panneau. Un deuxième expérimentateur caché derrière le panneau en profite pour prendre la place du premier, qui s’en va discrètement avec les deux complices. Une fois le panneau passé, la plupart des passants testés continuent à renseigner leur interlocuteur comme si ce dernier n’avait pas changé. On parle alors de « cécité au changement ». Ces deux phénomènes impressionnants témoignent de la façon dont le cerveau n’enregistre qu’un petit nombre de détails pour fabriquer notre perception de la réalité, en privilégiant des blocs d’informations, sans quoi nous serions submergés. C’est aussi pour ça que vuos arrievz à lrie cette prhase fcailenmet, bein que les lerttes soeint dans le désrdore : vrote cevraeu lit cahque mot cmmoe un tout.

La croyance en la justice du monde

Face aux malheurs d’autrui, nous préférons parfois penser que rien n’arrive par hasard, et que ceux qui souffrent ont mérité leur sort. L’idée d’un monde injuste dans lequel nous pourrions souffrir sans raison est intolérable, et il est plus rassurant de croire que chacun est responsable de ce qu’il lui arrive. En psychologie, cette vision d’un destin prévisible en fonction de nos actes est appelé « croyance en la justice du monde ». En 1987, une expérience fut menée dans plusieurs hôpitaux : une infirmière demandait à différents patients s’ils voulaient bien prêter leur montre à d’autres malades qu’ils ne connaissaient pas. Les patients choisis étaient classés en 3 catégories distinctes : ceux qui allaient être opérés, ceux qui avaient déjà été opérés, et ceux qui ne savaient pas encore s’ils allaient être opérés ou non. Ce furent ces derniers, plongés dans l’incertitude, qui acceptèrent le plus largement de prêter leur montre, comme si l’altruisme pouvait influencer le sort en leur faveur. Ce concept de justice immanente nous rend le monde plus supportable, et nous donne une illusion de sécurité tant que nous agissons dans les règles. On le retrouve en religion à travers des idées telles que la punition divine, ou le karma. Malheureusement, c’est aussi cette croyance qui pousse certains à blâmer les victimes pour les malheurs qu’elles subissent, qu’il s’agisse de viols ou de maladies…

Les prophéties auto-réalisatrices

Imaginons que vous soupçonniez votre nouveau collègue de bureau d’être acariâtre et renfermé sur lui-même. Vous évitez alors de lui parler, lui disant à peine bonjour. En retour, votre collègue va se sentir indésirable et préférera rester à l’écart. Vous interprétez son attitude comme une confirmation de vos soupçons, sans réaliser que vous en êtes la cause. Lorsqu’une prédiction influence ainsi directement la réalisation de ce qu’elle prédit, on parle de « prophétie auto-réalisatrice ». On retrouve les effets pervers de ce phénomène dans de nombreux domaines, comme celui de la course aux armements : un pays redoute que son voisin prépare une attaque, et décide d’augmenter le nombre de ses missiles. En conséquence, le pays soupçonné va traduire cette attitude comme une menace, et va lui aussi accroître son armement. Les deux protagonistes vont ainsi alimenter un cycle d’hostilité où chacun verra ses doutes confirmés par la réaction de l’autre. Les prophéties auto-réalisatrices font partie des phénomènes qui, avec entre autres l’effet Forer, permettent d’expliquer l’efficacité apparente de l’astrologie ou de la voyance. Si vous lisez dans votre horoscope que la journée se passera mal, vous vous focaliserez probablement sur les événements négatifs, vous serez de mauvaise humeur, et la prédiction sera directement responsable de ce qu’elle annonçait. De la même façon, si une voyante vous prédit que vous rencontrerez l’âme sœur dans un délai de 3 semaines, vous aurez probablement une attitude beaucoup plus chaleureuse et engageante que d’habitude, facilitant par conséquent la réalisation de la prophétie. Le psychologue Richard Wiseman avance que le phénomène peut faire office d’effet placebo lorsqu’on se l’applique à soi-même : une personne qui est persuadée d’avoir de la chance saisira d’avantage d’opportunités et participera à plus de concours, augmentant ainsi nécessairement ses chances de réussite.

La connaissance rétrospective

Combien de fois avez-vous entendu des gens prétendre qu’ils connaissaient la bonne réponse après qu’elle ait été donnée ? « Je le savais déjà », « j’étais sûr que ça se passerait comme ça », « je savais qu’il serait élu », « la crise était prévisible », autant de déclarations auxquelles nous somme confrontés quotidiennement. Vous-même, en lisant cet article, vous vous êtes peut-être dit que vous connaissiez déjà tous les phénomènes mentionnés. Si c’est le cas, vous pourriez être victime du « biais de connaissance rétrospective ». Cette illusion psychologique, liée à l’organisation de la mémoire, nous donne l’impression que nous savions depuis longtemps une information que nous venons d’apprendre. Dans une expérience qu’il mena en 1975, le psychologue Baruch Fishhoff fit lire à plusieurs groupes d’étudiants un article concernant la guerre qui opposa les Anglais aux Gurkas du Népal en 1814. Il raconta ensuite à chacun des groupes comment s’était terminée la guerre, en donnant à chaque fois une fin différente. Il demanda ensuite aux participant s’ils auraient pu deviner l’issue de cette guerre avant qu’elle ne leur soit révélée. Tous les étudiants affirmèrent qu’ils en auraient été capables, aussi bien ceux qui avaient été trompés que les autres. La connaissance rétrospective explique pourquoi les événements semblent si prévisibles à certains analystes une fois qu’ils sont arrivés, qu’il s’agisse d’économie, de politique ou de société…

Source : Axolot

EADS: il n’y aura pas de procès pour délit d’initiés

Cette décision est tout sauf une surprise et la conséquence de la récente décision du Conseil constitutionnel qui a interdit la possibilité de poursuivre un délit d’initiés devant deux juridictions différentes. Or les prévenus avaient déjà été poursuivis par l’Autorité des marchés financiers (AMF), le gendarme de la Bourse, avant d’être blanchis.

Le dossier EADS (aujourd’hui Airbus Group) était le plus emblématique de cette évolution du fonctionnement de la justice, initié par la jurisprudence européenne.

Dans un arrêt du 4 mars 2014, la Cour européenne des droits de l’Homme (CEDH) avait, en effet, condamné l’Italie pour n’avoir pas respecté le principe du « non bis in idem » (pas deux fois pour la même chose) dans une affaire de délit boursier.

Dans le cas d’EADS, sept cadres ou anciens cadres dirigeants dont Noël Forgeard, l’ancien président, et John Leahy, l’actuel directeur commercial d’Airbus, étaient poursuivis aux côtés des sociétés Lagardère et Daimler, anciens actionnaires de référence du groupe.

La justice leur reprochait de s’être enrichis indûment, en 2005 et 2006, en vendant des titres alors qu’ils avaient connaissance d’informations confidentielles de nature à influer sur le cours de l’action EADS.

« Nous sommes particulièrement heureux de cette décision qui met un point final à des années de procédures. L’innocence de M. Forgeard est définitivement reconnue », a commenté Me Jean-Alain Michel, conseil de Noël Forgeard.

« Sur le plan juridique ce n’est pas une surprise, c’est une conséquence logique. Sur le fond, en revanche, c’est décevant. On aurait pu faire un réexamen plus détaillé du fond », a regretté Me Frédérik-Karel Canoy, avocat de parties civiles.

Au total, la décision du Conseil constitutionnel devrait avoir des conséquences pour une dizaine de dossiers en attente au tribunal correctionnel et treize autres en cours de traitement au parquet financier, selon une source proche du dossier.

S’il a prohibé immédiatement la possibilité de poursuivre deux fois, le Conseil constitutionnel a donné au législateur jusqu’au 1er septembre 2016 pour mettre les textes en conformité avec sa décision.

tu-est/ger/jag

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Au Canada, les sables bitumineux plombent la lutte contre le réchauffement

« A elle seule, l’Alberta est reponsable de 73 % de l’augmentation totale des GES entre 1990 et 2012 », assure cette nouvelle étude. Elle précise par ailleurs que le coupable principal est l’industrie des sables bitumineux. En effet, « le secteur du pétrole et du gaz est responsable de 67 % de l’augmentation de la pollution au Canada depuis 1990, et les émissions de tous les sous-secteurs du pétrole et du gaz […] sont demeurées stables ou ont diminué depuis l’an 2000, laissant la production des sables bitumineux assumer à elle seule la principale responsabilité de cette augmentation », note le rapport. Les sables bitumineux risquent donc de plomber tous les efforts entrepris au Canada pour lutter contre le réchauffement climatique.

L’Alberta, vilan petit canard des émissions de GES

La situation est déjà alarmante. L’Alberta est de loin la province canadienne la plus émettrice de gaz à effet de serre (249 millions de tonnes), soit près de 36 % des émissions du pays. Ses émissions dépassent celles de l’Ontario et du Québec combinées. La situation pourrait rapidement empirer. « Si l’exploitation des sables bitumineux poursuit sa croissance comme le prévoient l’industrie et le gouvernement canadien, les émissions de l’Alberta (une province qui compte seulement 11 % de la population du pays) approcheront en 2020 les niveaux combinés des trois plus grandes provinces du pays : l’Ontario, le Québec et la Colombie-Britannique (qui, ensemble, comptent 75 % de la population canadienne) », prévoit l’étude. 

Cette perpective bloquera toute avancée future dans le domaine de la lutte contre le réchauffement climatique. Après avoir dénoncé le protocole de Kyoto, le gouvernement Harper s’est fixé un objectif de réduction, certes plus modeste, de 17 % de ses émissions en 2020, par rapport au niveau de 2005, mais celui-ci est encore loin d’être atteint. Pour y parvenir, le reste du pays devrait réduire ses émissions de 30 % pour compenser les augmentations dues à la croissance de l’insutrie albertaine. Dans cette perspective, 11 % de la population canadienne représentant  2% du PIB canadien émettrait à elle seule l’équivalent de 93 % des émisisions du reste du pays. Pas sûr que les autres provinces jugent ce calcul très équitable.

Limiter l’extraction des sables bitumineux ?

Si l’industrie des sables bitumineux poursuit son développement comme prévu, l’étude identifie 3 options pour que le pays respecte ses objectifs de réduction de GES : l’ensemble des véhicules du pays doivent se mettre à l’électrique, produit à partir de sources renouvelables, tous les bâtiments et les fermes du pays ne doivent plus émettre de GES ou la Colombie-Britannique, les provinces de l’Atlantique, et les territoires deviennent carboneutres. « La réalisation de l’une ou de l’autre au cours des cinq prochaines années est évidemment illusoire », préviennent les auteurs. La seule conclusion qui s’impose est que pour atteindre ses objectifs, le gouvernement fédéral doit limiter la production des sables bitumineux. Il doit aussi assurer l’équité entre les provinces et ne pas favoriser un secteur au détriment de tous les autres. 

Avec 174 milliards de barils, le Canada possède les troisièmes plus importantes réserves de pétrole brut au monde, derrière l’Arabie Saoudite et le Venezuela. Selon les projections, la production quotidienne devrait atteindre 6,7 millions de barils d’ici 2030. Une étude scientifique publiée en janvier 2015 dans la revue Nature remarquait que le Canada devrait laisser plus de 85 % de ses ressources pétrolières connues dans le sol pour limiter la hausse des températures mondiales en dessous de 2°C d’ici la fin du siècle.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Peugeot revendique un record de consommation pour une voiture de série

Cette voiture, une 208 équipée d’un moteur diesel de 1.600 cm3, a parcouru 2.152 km avec 43 litres de gazole, « soit une consommation moyenne de carburant de seulement 2 litres/100 km », a affirmé Peugeot dans un communiqué.

Peugeot a précisé que ce record, qui s’est déroulé sur 38 heures, des conducteurs se relayant toutes les trois ou quatre heures, avait été réalisé fin avril sur le circuit d’essais de PSA à Belchamp (Doubs), « sous le contrôle de l’organisme d’homologation français UTAC ».

Cette voiture « établit ainsi le record absolu de consommation d’un véhicule de grande diffusion sur une longue distance », selon la marque au Lion.

En 2011, une Skoda (groupe Volkswagen) Fabia diesel avait consommé 2,21 litres aux 100 km sur un parcours autoroutier de 2006 km.

tq/fz/jag

 

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Powerwall, la nouvelle batterie pour maison de Tesla

Elon Musk, PDG de Tesla Motors vient d’annoncer en grandes pompes la commercialisation d’une toute nouvelle batterie révolutionnaire.

En effet, la Powerwall est une batterie lithium-ion capable de stocker jusqu’à 10kWh. Ses dimensions, 1.3m de haut pour 86cm de large et 18 cm de profondeur, permettent de l’accrocher au mur de sa maison. L’objectif est de stocker l’électricité, qu’elle soit délivrée par le réseau électrique aux heures les moins chères ou produite par des panneaux solaires ou même des éoliennes, puis de fournir l’électricité nécessaire à la demande. Les particuliers disposent ainsi d’un outil pour optimiser leurs dépenses énergétiques, mais aussi pallier aux éventuelles coupures réseaux, fréquentes aux Etats-Unis.

Une telle batterie pourrait ouvrir l’ère aux maisons totalement indépendantes du réseau électrique. Pas de quoi faire plaisir à EDF ! Mais le milliardaire Elon Musk assume : « Notre but est de transformer totalement l’infrastructure énergétique mondiale pour la rendre totalement durable et sans produire d’émissions de carbone ».

La Powerwall est la version pour les particuliers, mais Tesla n’oublie pas les entreprises. Les acteurs du privé ont droit à leur batterie Powerpack, aux capacités bien supérieures puisqu’elle pourra stocker 100 kWh. Cette solution va être testée auprès d’un data center d’Amazon et de supermarchés Target.

Les Powerwall et Powerpack seront fabriqué sur le site Gigafactory, la plus grande usine de batterie du monde basée au Nevada.

La Powerwall sera commercialisée sous deux versions, 7kWh et 10kWh, d’ici un an au prix de 3500$.

Par Audrey Loubens

L’ingénieur geek #6 : le bracelet sport de l’Apple Watch

Vendue à partir de 399€, la montre connectée d’Apple permet de faire la liaison entre le porteur et le terminal Apple. Si cette montre permet de recevoir des alertes directement sur son poignet, de répondre en dictant un SMS, elle sert également de coach sportif. Dotée d’un accéléromètre et d’un capteur de fréquence cardiaque, il est aussi possible de télécharger la Fitness App pour étendre la quantité de données (calories brûlées, nombre de pas, distance parcourue…) ou la Workout App pour se fixer des objectifs. 

L’Apple Watch devrait ainsi séduire les sportifs. Il fallait donc la doter d’un bracelet « sport ». La firme à la pomme a choisi un fluoropolymère. Plus précisément, pour profiter de propriétés élastiques, Apple a opté pour des fluoroélastomères. Résultats : une très bonne résistance à la chaleur, aux produits chimiques, aux acides/bases, à la lumière, à l’air ainsi qu’aux flammes. Pour assurer les meilleures performances, Apple a développé un fluoroélastomère exclusif, aux propriétés dopées, afin de proposer un bracelet « […] durable et résistant, mais aussi étonnamment doux ». 

Ce bracelet sport existe en 5 coloris : noir, blanc, rose, bleu et vert. Il est vendu 59€ à l’unité. Attention à un petit détail, le poids des bracelets, bien que composés de la même matière, diffère selon le coloris choisi. Ainsi, pour l’Apple Watch Sport 38 mm, le bracelet noir pèse 37g alors que le blanc en pèse 47.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Et aussi dans les
ressources documentaires :

Les radiations cosmiques menacent les voyages vers Mars

La mauvaise nouvelle est arrivée de Californie. Les chercheurs de l’Université à Irvine ont étudié l’influence des rayons cosmiques sur des souris. Les cobayes ont été soumis à des radiations de particules à haute énergie. Menées au Laboratoire national de Brookhaven à New York, ces expériences ont provoqué une inflammation du cerveau des souris. Les résultats publiés dans la revue Science Advances précisent grâce à des scanners comment la structure même des neurones est modifiée, de quoi perturber la transmission du signal nerveux. La conséquence directe est une diminution de la capacité d’apprentissage. 

Toutefois, ces symptômes ne surviennent qu’au bout de plusieurs mois, une exposition de courte durée reste donc acceptable. Sauf qu’un voyage vers Mars implique aux voyageurs de s’exposer un à deux ans. Trop long. Pour Charles Limoli, co-auteur de l’étude menée justement dans le cadre du programme de recherche de la Nasa sur les séjours spatiaux de longue durée, « Ces radiations cosmiques pourraient altérer les capacités cognitives des astronautes pendant toute leur vie ». De toute façon, l’efficacité des astronautes est de facto remise en cause. Comment être sûre qu’ils seront aptes à effectuer les manœuvres nécessaires s’ils souffrent de déficit de mémoire, de difficultés de concentration ou pire, de pertes de connaissance ?

Ces travaux, bien que menés sur des souris, alertent sur la dangerosité pour l’homme de s’exposer aux rayons cosmiques plusieurs mois. Faut-il abandonner les voyages vers la planète rouge pour autant ? Pas forcément. Il reste à réfléchir au renforcement de la protection des engins spatiaux qui pourraient suffire à limiter l’exposition aux radiations des voyageurs. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Au moins 1 Européen sur 3 est exposé à l’amiante

L’année 2015 verra-t-elle le risque amiante pris en charge dans tous les pays européens ? Rien n’est moins sûr, si l’on en croit un rapport publié jeudi 30 avril par la branche Europe de l’Organisation mondiale de la santé (OMS). Parmi les 53 pays européens, 16 continuent à l’autoriser, tandis que les autres disposent de réglementations plus ou moins exigeantes.

Encore une bonne résolution qui prend l’eau: en 2010, les 53 pays de la zone Europe de l’OMS s’étaient engagés, dans le cadre de la cinquième conférence ministérielle sur la santé et l’environnement organisée à Parme (Italie), à mettre en place, d’ici 2015, des législations en vue d’éliminer les maladies liées à l’amiante. Ce qui exigeait, au minimum, d’interdire l’usage de ce matériau.

Nous en sommes bien loin, comme le révèle le rapport de L’OMS Europe publié en marge d’une réunion organisée à Haïfa (Israël), qui s’est terminée jeudi. Sur les 53 pays de la zone Europe, 16 n’interdisent toujours pas l’amiante. Il s’agit pour la plupart d’anciennes républiques soviétiques, dont la Russie, la Géorgie, l’Ukraine, la Biélorussie, l’Ouzbékistan, le Kazakhstan, mais aussi l’Albanie et la Bosnie-Herzégovine. Pur l’OMS, «un Européen sur trois au moins peut être exposé à l’amiante dans son milieu de travail et dans l’environnement».

Même parmi les pays ayant interdit l’amiante, la situation est loin d’être idéale: seuls 62% de ceux l’ayant interdit disposent de plans pour mettre fin aux maladies liées à ce matériau, objectif principal de l’OMS pour 2015. Et 32% ont mis en place des mesures pour empêcher l’exposition du public lors du désamiantage des bâtiments, du transport et de la gestion des déchets.

Un risque professionnel encore ignoré

Aucun des pays continuant à autoriser l’amiante ne dispose de tableaux des maladies professionnelles: dès lors, le mésothéliome ne peut y être reconnu comme tel. Pire, aucun d’entre eux ne distingue cette maladie des autres cancers dans ses registres cancers. Mais même parmi les pays interdisant l’amiante, 23% ne reconnaissant pas officiellement le mésothéliome comme une maladie professionnelle.

Pour la directrice régionale de l’OMS pour l’Europe, Zsuzsanna Jakab, «nous ne pouvons pas nous permettre de perdre près de 15.000 vies chaque année en Europe, surtout des travailleurs, en raison des maladies causées par une exposition à l’amiante».

«Chaque décès de ce type est évitable (…) Nous exhortons tous les pays à remplir les engagements pris en 2010, et ce dès la fin de la réunion de Haïfa, et à élaborer pour la fin de l’année des politiques qui permettront d’éliminer les maladies liées à l’amiante en Europe. Il reste très peu de temps pour cela», ajoute Zsuzsanna Jakab.

Selon l’OMS, la moitié des 15.000 décès annuels liés à l’amiante dans les 53 pays européens seraient liés au mésothéliome, devant divers autres cancers (poumon, ovaire, larynx) et l’asbestose. Le mésothéliome constitue un réel fardeau économique pour les États: parmi les 15 plus pays les plus peuplés de l’Union européenne, l’OMS estime qu’il coûte à lui seul plus de 1,68 milliard d’euros par an.

Source : Euractiv

Et aussi dans les
ressources documentaires :

La prothèse rétinienne Argus II commence à être implantée en France

Il coûte 95897€. Le dispositif capable de compenser la dégénérescence de la rétine est hors de portée de nombreuses finances. Pourtant, l’Argus II fonctionne et les patients atteints de maladie dégénérative de la rétine peuvent retrouver la capacité de discerner des formes grâce à lui et ainsi retrouver une autonomie perdue. Grâce à l’arrêté du 14 août 2014 et la prise en charge à 100%, des malades français peuvent enfin profiter du cet œil bionique

Les trois premiers patients viennent tout juste d’être opérés. L’un a été pris en charge au centre hospitalier universitaire (CHU) de Strasbourg le 22 janvier, les deux autres, une femme de 70 ans et un homme de 72 ans ont été opérés au CHU de Bordeaux. Ces français sont atteints d’une rétinopathie pigmentaire, c’est-à -dire que l’œil et les bâtonnets rétiniens ne remplissent plus leur rôle du fait de leur dégénérescence. Or ce sont eux qui convertissent la lumière en impulsions, transmises au cerveau via le nerf optique. Les malades atteints par cette maladie commencent à perdre la vision nocturne puis voient leur champ de vision rétrécir. A terme, ils peuvent perdre la vue.

Suite à leur opération, alors que les patients du CHU de Bordeaux ne discernaient qu’un simple halo lumineux, ils sont désormais capables distinguer les ombres des personnes dans leur environnement proche, et ce en à peine deux semaines de convalescence.

L’implant rétinien développé par la société américaine Second Sight consiste en une petite caméra positionnée sur des lunettes portées par le patient. L’image est transmise par connexion sans-fil à l’implant, lui-même connecté au nerf optique par des électrodes. Ces dernières émettent des impulsions électrique et stimule les cellules encore fonctionnelles de la rétine en contournant celle déficientes.

En 2015, une trentaine d’autres patients français pourront bénéficier de la prise en charge à 100% de la pose de l’implant.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Revue du web #80 : les vidéos les plus étonnantes de mai 2015 (1/2)

Cette semaine dans la revue du Web

  • Le « FlexShapeGripper », le bras robotique capable de manipuler n’importe quel objet ;

  • Contrôler le bras d’une autre personne ? Un jeu d’enfant grâce à la neuroscience ;

  • Snuff movie high-tech : l’Apple Watch passe un très mauvais quart d’heure ;

  • Le gadget (inutile ?) de la semaine : l’impossible machine de Rube Goldberg, vue par Zach King ;

  • Et en bonus cette semaine, nos cousins les chimpanzés, espiègles et dégourdis.

Le « FlexShapeGripper », le bras robotique capable de manipuler n’importe quel objet

Pour débuter notre quatre-vingtième (!) Revue du Web, commençons par rendre une petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Dernier né de leur laboratoire de recherche, le bien-nommé « FlexShapeGripper » entend s’inspirer des propriétés de la langue du caméléon pour saisir et déplacer aisément des objets sans les abîmer, aussi fragile soient-ils, quelle que soit leur forme.

Similaire de prime abord au « coffee ground gripper », le bras robotique de Festo et son embout silicone ne nécessitent par contre pas de machine à vide pour attraper puis maintenir les objets en l’air, bien que le principe de succion reste le même. L’embout est ici rempli d’un fluide, épousant la forme des objets à manipuler, allant même jusqu’à permettre de saisir plusieurs objets en même temps, et de les déposer ensemble, sans la moindre intervention extérieure.

Les ingénieurs de Festo n’en sont pas à leur coup d’essai, le « FlexShapeGripper » vient en effet s’ajouter au bestiaire déjà fantastique de la compagnie allemande, composé d’un goéland robot plus vrai que nature dont nous vous parlions ici, d’une très élégante libellule robotique que vous pouvez retrouver là ainsi que d’un étonnant kangourou bionique.

  • Le « FlexShapeGripper » de Festo

  • Le « Coffee ground gripper »

Contrôler le bras d’une autre personne ? Un jeu d’enfant grâce à la neuroscience !

Greg Gage a le sens du spectacle. Lors d’une conférence TED (Technology, Entertainment and Design) à Vancouver, en mars dernier, le neuroscientifique américain a su captiver son auditoire tel un bateleur de haut niveau. Oui, mais comment ? En faisant monter deux volontaires sur scène pour une démonstration pour le moins impressionnante.

Greg Gage enregistre d’abord, à l’aide d’une électrode placée sur un nerf, l’information envoyée par le cerveau de la première cobaye à son bras, sous la forme d’une impulsion électrique, lorsqu’elle décide de relever son poing. Il attache ensuite un autre jeu d’électrodes sur le bras d’un deuxième cobaye, au niveau du même nerf, afin de connecter son bras au cerveau de la première cobaye. Lorsqu’elle reprend le même mouvement du poing, l’impulsion électrique envoyée par son cerveau serait en mesure de commander le bras de son compagnon d’infortune, à son grand dam.

Snuff movie high-tech : l’Apple Watch passe un très mauvais quart d’heure

La franchise « Will it blend ? » reprend du service ! La série de petites vidéos old-school faisant l’apologie de la destruction des objets de notre quotidien, campagne de pub virale assez réussie pour le compte du fabricant américain Blendtec, a tant et si bien marché que cette petite phrase est devenue le mantra de toute une génération d’internautes turbulents. Replongeons tout entier dans le plaisir jouissif et enfantin du saccage pur et dur avec cette vidéo, démontrant (si toutefois il en était besoin) que le nouveau joujou du géant à la pomme, l’Apple Watch, n’a aucune chance une fois placée dans le blender. Tom Dickson, fondateur de Blendtec, entame même une petite conversation avec l’application Siri, juste avant le chant du cygne de la montre connectée, qui finit sans surprise pulvérisée.

Tom Dickson n’a pourtant pas le monopole du snuff movie high-tech. D’autres se sont infiltrés dans la brèche, et si vous n’êtes pas encore convaincus qu’une Apple Watch, de l’azote liquide et une masse ne font pas bon ménage, vous allez être servis.

Le gadget (inutile ?) de la semaine : l’impossible machine de Rube Goldberg, vue par Zach King

Vous connaissez sûrement Zach King, le champion du monde toutes catégories confondues des vidéos sur Vine, l’application de Twitter hébergeant et permettant de créer des vidéos de six secondes. Redbull a fait appel aux multiples talents du jeune réalisateur américain pour venir réinventer la désormais classique machine de Goldberg, habituée de notre rubrique du gadget (inutile?) de la semaine. Zach King s’est fendu d’un petit clip venant dépoussiérer l’œuvre de Rube Goldberg, ajoutant volontiers une touche surréaliste à l’ensemble.

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de petites tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

Bonus : nos cousins les chimpanzés, espiègles et dégourdis

Pour venir conclure notre quatre-vingtième Revue du Web, direction la ville de Arnhem, aux Pays-Bas, petite agglomération qui abrite le zoo royal de Burgers, l’un des plus grands et l’un des plus visités du pays. Parmi les pensionnaires du zoo, on retrouve de nombreux animaux habitués de ce genre de structure, dont un gang de quatorze chimpanzés… très à cheval sur la notion de vie privée. Lorsque la direction du zoo décide d’observer au plus près la petite communauté en survolant leur enceinte à l’aide d’un drone, c’était sans compter sur l’éventuel désaccord des singes eux-mêmes.

A la tête de la rébellion, Tushi, une femelle de vingt-trois ans, s’est armée d’une branche d’arbre en guise de gourdin, et attend patiemment que le drone passe à portée de bâton. Il suffira de deux essais au chimpanzé pour que le bolide ne finisse sa course à terre. Fin de vie pour le drone, tandis que la GoPro s’en sort intacte. Tushi, elle, fière de son forfait, finit par se désintéresser du drone défait, tombé au champ d’honneur.

Mais nos amis les singes n’en restent pas là. Dans le parc national de Kibale, en Ouganda, un petit groupe de chimpanzés fait preuve d’une attention toute particulière lorsqu’il s’agit de traverser la route. Chaque singe regarde ostensiblement à droite et à gauche, presque plus prudents que bon nombre de nos congénères. Nul doute que les chimpanzés ont dû apprendre à s’adapter à ces installations « anti-naturelles », et ce avec brio. Prochaine étape : traverser sur un passage piéton, un peu moins près de la sortie d’un virage.

Par Rahman Moonzur

Et aussi dans les
ressources documentaires :

Carburants: les prix en France au plus haut depuis six mois

Le gazole, carburant le plus vendu dans le pays, valait en moyenne 1,2323 euro le litre, soit 0,76 centime de plus que la semaine précédente, et son niveau le plus élevé depuis la semaine du 14 novembre, d’après les relevés hebdomadaires du ministère de l’Ecologie et de l’Energie.

Le litre d’essence sans plomb 95 (SP 95) a augmenté de 1,03 centime, à 1,4367 euro, un sommet depuis la semaine du 17 octobre, tandis que celui du sans plomb 98 s’est affiché à 1,4954 euro, en hausse de 1,12 centime par rapport à la semaine précédente, un niveau qu’il n’avait plus atteint depuis la semaine du 24 octobre.

Les cours du pétrole brut ont globalement continué leur rebond la semaine dernière, soutenus par la progression moins importante que prévu des stocks de brut aux Etats-Unis et l’annonce d’une nouvelle réduction du nombre de puits en activité dans le pays. Ils ont toutefois marqué une pause vendredi, qui a limité leurs gains hebdomadaires.

Vendredi en fin d’échanges européens, le baril de Brent de la mer du Nord pour livraison en juin valait ainsi 65,94 dollars, contre 66,38 dollars la veille et 65,21 dollars le vendredi précédent.

Si depuis le début de l’année, les marges de raffinage en France sont plus élevées qu’en 2014, les marges de transport et de distribution restent relativement stables, selon le ministère de l’Ecologie et de l’Energie.

Selon les derniers chiffres disponibles, qui datent du 24 avril, la marge brute de raffinage était ainsi de 10 centimes par litre pour le gazole comm le super sans plomb 95. En mars, elle s’élevait en moyenne à 11 centimes pour le gazole et 10 centimes pour le SP 95, alors qu’en 2014, elle était de 8 centimes pour le gazole et 6 centimes pour le SP 95.

La marge brute de transport et de distribution était de 8,3 centimes par litre pour le gazole et de 10 centimes pour le SP 95 la semaine du 24 avril, contre 9 centimes et 10 centimes respectivement en mars, et 8 centimes et 10 centimes en moyenne en 2014.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Foire du pétrole en Iran, en quête d’investisseurs étrangers

Cette 20e foire se tient alors que les grandes compagnies internationales attendent la conclusion d’un accord sur le nucléaire pour revenir dans le pays, qui possède les quatrième plus importantes réserves de pétrole et les deuxièmes de gaz après la Russie.

Selon le ministère du Pétrole, quelque 1.200 sociétés iraniennes et 600 compagnies étrangères, notamment du Royaume-Uni, de France, de Chine, de Russie, de Singapour ou des Emirats arabe unis, se sont enregistrées pour cette foire de quatre jours. Mais aucun délégué américain ou saoudien ne sera présent, selon un porte-parole du ministère.

Le ministre du Pétrole Bijan Zanganeh, qui ouvrira la manifestation mercredi, cherche à attirer davantage d’investisseurs étrangers pour développer l’industrie des hydrocarbures afin d’augmenter les exportations du pays. Il veut notamment développer les champs pétroliers et gaziers de South Pars, situé dans le Golfe et commun avec le Qatar, et de West Karoun dans le sud-ouest.

Téhéran doit présenter dans les prochains mois un nouveau type de projet plus attractif pour faire revenir les compagnies internationales ayant quitté l’Iran en raison des sanctions occidentales à cause du programme nucléaire.

L’Iran et les grandes puissances du groupe 5+1 (Etats-Unis, France, Royaume-Uni, Russie, Chine et Allemagne) ont repris les négociations pour finaliser d’ici fin juin les détails d’un accord global sur le programme nucléaire iranien.

Les ventes iraniennes de pétrole sont actuellement d’environ 1,2 million de barils par jour (mbj) contre 2,5 avant l’entrée en vigueur des sanctions occidentales fin 2011. M. Zanganeh a récemment déclaré que l’Iran pourrait augmenter d’un million de barils ses exportations après un accord sur le nucléaire.

Mais il est difficile d’évaluer les perspectives pour l’Iran avec un baril de pétrole à moins de 60 dollars et un marché qui connaît une offre surabondante.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La matière noire à la traîne

La matière noire, qui composerait 85% de l’Univers, et dont on pense qu’elle pourrait expliquer la formation des grandes structures et maintenir les étoiles à l’intérieur des galaxies, demeure, en raison de son caractère hypothétique et invisible, bien mystérieuse. Depuis que l’astronome Fritz Zwicky, en cherchant la masse de l’amas de la Chevelure de Bérénice, a découvert un écart entre la masse dite dynamique et la masse dite lumineuse pouvant s’expliquer par la présence d’une matière invisible, les scientifiques n’en ont pas appris beaucoup à son sujet.

Aujourd’hui, un nouvel élément de connaissance va peut-être venir s’ajouter aux maigres informations que l’on a sur elle. Cela, grâce aux observations transmises par le Très Grand Télescope (VLT) de l’Observatoire européen austral ainsi que le télescope Hubble. Ces derniers ont détecté un retard de la matière noire estimé à 5 000 années-lumière par rapport à l’une des galaxies qu’elle englobait après une collision avec trois autres galaxies situées dans l’amas de galaxies Abell 3827 éloigné d’1,3 milliards d’années-lumière de la Terre.

Première explication possible d’après Richard Massey, astrophysicien à l’institut de Cosmologie Computationnelle de l’Université de Durham et co-auteur de l’étude, « la matière noire a été ralentie durant la collision ». Des forces, autres que la gravité, ont potentiellement interagi avec elle, ce qui prouverait qu’elle n’est pas insensible au monde qui l’entoure et pourrait avoir « une physique propre ». Ce qui est une première.

On en apprend donc peut-être un peu plus sur la nature de la matière noire bien qu’elle garde une grande part de mystère. Peut-être, car d’autres causes ne sont pas forcément exclues. Les chercheurs ont l’intention de découvrir et d’observer des phénomènes semblables sur d’autres galaxies. Ces études doivent donc être approfondies et qui sait si le travail des chercheurs avec le Grand Collisionneur de Hadrons (LHC) – l’accélérateur de particules le plus puissant du monde – remis en service très récemment, ne nous apportera pas de nouvelles pistes de réponse d’ici quelques années.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

  • Sciences fondamentales

Air France tarde à démocratiser le WIFI dans ses avions

Alors que de nombreuses compagnies proposent le wifi à bord de leurs appareils, la compagnie française reste à la traîne. Il y a quelques jours, Air France reconnaissait du retard dans la mise en route du projet et que le déploiement des connexions wifi ne serait pas effectif avant cet automne. Minimum. Retard technique, hésitations sur le modèle économique ? Les raisons du retard restent floues.

Les compagnies disposent de 2 solutions pour diffuser le signal: utiliser les satellites géostationnaires ou s’appuyer sur un réseau d’antennes au sol. Grâce aux satellites, le signal est diffusé partout, même au dessus des océans. Quand aux antennes, elles sont configurées pour envoyer le signal vers le ciel et couvrir l’espace aérien.

Retard technique, hésitations sur le modèle économique ?

Mais les investissements sont très coûteux. Quelle que soit la méthode choisie, terrestre ou par satellite, il faut compter 100 000$ au bas mot par avion, une dépense qui peut atteindre 500 000$ pour l’approche satellitaire. On comprend tout de suite que ce service est forcément payant. Or, la rentabilité survient à partir du moment où le  taux d’utilisation atteint 20%. Un seuil considérablement élevé, surtout que l’on sait qu’aux Etats-Unis où le wifi équipe 85% des avions seuls 8% des passagers y ont recours. Ce faible taux d’utilisation s’explique par une technologie moins performante que ce  dont ont l’habitude les usagers : débit bas, connexion parfois interrompue… En outre, dans l’inconscient des gens ce service est gratuit, les passagers sont donc peu enclins à débourser quelques dizaines d’euros selon la durée du vol. Pas de quoi motiver Air France ! 

Néanmoins, la compagnie française semble maintenir le cap avec le fournisseur d’accès Orange.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

8 erreurs à éviter lorsqu’on anime une réunion

  • 1) Ne pas fixer d’ordre du jour

En 2010, le cabinet Robert Half publiait une étude indiquant que près de 40% des salariés mettaient le manque d’efficacité d’une réunion sur le compte de l’absence d’ordre du jour. En effet, le minimum est d’indiquer aux participants les sujets qui vont être abordés. Cela permet à chacun de se préparer pour proposer des interventions pertinentes.

  • 2) Convier des personnes non concernées par le topic

Il est admis que pour permettre une prise de décision efficace, le nombre de participants ne doit pas excéder une dizaine de personnes. Au-delà, difficile de trouver un consensus. Inutile donc de rameuter tout l’étage. De plus, les personnes non concernées peuvent interférer dans le débat sans avoir les compétences pour le faire, de quoi agacer tout le monde.

  • 3) Minimiser l’intérêt de la réunion

Ne ratez pas votre intro. Evitez les phrases du genre « c’est une petite réunion », « cela ne durera pas longtemps », cela dévalorise la rencontre. Dans la même ligne, ne reculez pas devant la moindre objection. Si vous avancez une idée, c’est qu’elle mérite au moins d’être débattue. Faites-vous confiance, sinon vous perdrez en crédibilité et démotiverez vos troupes.

  • 4) Ne pas fournir de support visuel

Difficile de suivre le déroulé d’une réunion sans aucun support. Vous pouvez distribuer un ordre du jour en début de réunion, et/ou vous appuyer sur une présentation powerpoint qui illustrera vos propos et permettra de faire vivre la discussion de façon organisée.

  • 5) Ne pas stopper les débordements

Parfois, les discussions peuvent s’enflammer, ou s’éloigner du sujet principal. A vous d’intervenir pour temporiser et recentrer les débats. Attention aussi à ce que tout le monde s’exprime et que la discussion ne se limite pas à un ou deux intervenants qui dominent l’échange.

  • 6) S’éterniser des heures

D’après un sondage de l’Ifop publié fin mars, si une réunion dure plus de 52 mn, les cadres n’écoutent plus rien et préfèrent se consacrer à l’envoi de SMS ou aux échanges de mails. Or, toujours d’après cette étude, une réunion dure en moyenne 1 heure et 19 minutes, soit 27 minutes de trop ! Alors inutile de faire traîner les débats.

  • 7) Bâcler la conclusion

A la fin de la réunion résumez les points abordés, les décisions prises et celles en suspens. Ce bilan est essentiel pour valider la pertinence de la réunion, chacun ayant bien en tête les avancées réalisées. Comme quoi cette réunion était utile.

  • 8) Organiser réunion sur réunion

Les  cadres français passent en moyenne 23 jours par an en réunion. Cette réunionite est un mal bien français puisque 70% des entreprises françaises organisent 7 réunions/sem contre seulement 55% des entreprises européennes. Pourtant, de nombreux salariés jugent ces réunions au mieux inutiles, au pire nuisibles car elle les retarde dans leur travail. Mieux vaut donc limiter les réunions.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Cette caméra vidéo s’autoalimente en énergie

Certes, elle ne filme qu’une image par seconde et sa résolution n’excède pas 30 x 40 pixels. Pourtant, la caméra développée par les chercheurs américains est un modèle dernier cri. Sa force ? Elle n’a pas besoin de batterie !

En effet, la caméra dispose d’un capteur d’images dont les photodiodes convertissent la lumière incidente pour générer de l’électricité. Ainsi, lors de la prise de vue, les pixels enregistrent l’image puis ils convertissent la lumière en énergie. De quoi alimenter le capteur en temps réel. Cette double utilisation des diodes pour capter la lumière et s’en servir comme générateur d’énergie est innovante. Le capteur doit quand même être chargé initialement, mais une fois mis en route, plus besoin de le recharger. Les photodiodes sont reliées à deux transistors, un microcontrôleur et un circuit de récupération d’énergie. L’ensemble alimente un supercondensateur

Les équipes du Computer Vision Laboratory sont très enthousiastes car le prototype a été construit à partir de composants du commerce. Ceci signifie qu’en choisissant des éléments optimisés, les paramètres de la caméra doivent pouvoir être grandement améliorés, notamment en ce qui concerne la qualité d’image.

  • Regarder la vidéo de démonstration de la caméra autonome :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Combien de temps un être humain peut-il tenir sans dormir ?

Si la durée diffère selon les individus, le record en la matière (dans le livre Guinness des records) est détenu par Randy Gardner qui a passé 11 jours, soit 264 heures sans sommeil en 1965. À l’époque, Gardner, âgé de 17 ans, étudie en Californie et souhaite savoir ce qui se produit lorsque l’on reste éveillé volontairement. 

Il commence donc cette expérience, encouragé par quelques amis avant que des scientifiques, intéressés, ne prennent le relais, le surveillent et notent les effets de cette privation sur sa santé. Les conséquences n’ont pas été aussi graves qu’on pourrait le penser. Il n’a souffert d’aucun problème majeur bien que cette carence intentionnelle ait conduit à nombreux troubles : cognitifs et comportementaux. Il a notamment montré, au cours de l’expérience, des signes de paranoïa, d’irritabilité, de troubles de la mémoire et de difficultés à se concentrer. Les scientifiques lui ont par exemple demandé de soustraire sept continuellement, en partant de cent. Chose qu’il n’a pu finir parce qu’il avait oublié ce qu’il faisait.

L’importance de bien dormir

Trois paramètres sont à prendre en compte : la durée, l’heure du coucher et la qualité du sommeil

  • En ce qui concerne la durée du sommeil, elle évolue au cours de la vie et dépend bien sûr de chaque personne. Mais en moyenne, selon les études, un adulte a besoin de dormir 7 à 8 heures par nuit, un adolescent de 10 à 11 heures alors que ce besoin avoisine carrément les 14/15 heures pour les nourrissons. Les premières années de vie seraient cruciales, selon une étude de l’Institut national de la santé et de la recherche médicale (INSERM), car elles détermineraient la qualité du sommeil qu’un individu aurait par la suite. Peut-être est-ce pour cela que nous dormons tant au début de notre vie.

  • Quant à l’heure du coucher, elle aurait une importance sur le système immunitaire. Se coucher avant minuit et se lever tôt serait donc préférable. Les centenaires auraient tous adopté ce rythme de vie.

  • Avoir un rythme régulier et faire des cycles complets est primordial pour la santé. Lors d’une bonne nuit, le cerveau traverse trois à cinq cycles d’une durée moyenne de 90 minutes durant lesquels se suivent plusieurs phases : le sommeil léger, le sommeil profond et le sommeil paradoxal. Le sommeil profond est le plus important, il permet au corps de récupérer, de renforcer sa mémoire et de produire l’hormone de croissance nécessaire au développement de l’enfant.

Dormir est indispensable. C’est durant cette période que le cerveau fait le tri des informations acquises au cours de la journée. Le sommeil aide à consolider la mémoire sur le long terme en permettant le transfert des informations de l’hippocampe (connu pour son rôle central dans la mémoire) vers le cortex préfrontal où elles seront pérennisées. Un mauvais dormeur aura donc tendance à oublier plus rapidement.

Les répercussions du manque de sommeil

Comme pour la durée, les effets peuvent varier d’un individu sur l’autre. Mais les symptômes les plus courants sont les sautes d’humeur, la fatigue, du stress et des difficultés à mémoriser les choses apprises. Se priver de sommeil peut également conduire dans les cas les plus extrêmes à la mort. Ou plus exactement, ce sont les conséquences engendrées par le manque de sommeil, lorsque les facultés d’un individu ont diminué à un niveau si bas qu’elles mettent en péril la vie d’un individu.

Le manque de sommeil chronique peut aboutir à un déséquilibre difficilement rattrapable le weekend. S’il s’accumule de trop, une dette de sommeil se créer, favorisant les micro-sommeils et entraînant un risque plus important que pour les bons dormeurs, d’accidents de la route. Le système immunitaire peut en être affecté. Le danger, sur le long terme, est d’augmenter les troubles de la mémoire, surtout chez les personnes âgées.

Aujourd’hui, en France, nous ne dormons en moyenne pas assez : moins de sept heures en semaine. Les causes sont multiples mais il y a sûrement une corrélation avec notre mode de vie toujours plus connecté. Chez les adolescents et chez certains adultes, par exemple, l’apparition des smartphones et tablettes a fait naître de nouveaux comportements qui ont tendance à réduire encore plus notre temps de sommeil. L’utilisation de ces appareils dans le lit, avant de dormir, n’est pas une bonne affaire car ils cassent notre rite d’endormissement (la somnolence, le stade 1) qui est censé être un moment d’apaisement total. Or les écrans lumineux stimulent notre rétine et notre cerveau et nous maintiennent éveillés plus longtemps. Voilà qui peut expliquer pourquoi les lendemains matins se révèlent parfois aussi difficiles et pourquoi nous accumulons petit à petit une dette de sommeil que nous n’aurons pas nécessairement le temps de récupérer. 

Par Sébastien Tribot

Et aussi dans l’actualité :

Les grosses entreprises soupçonnées de fraude au Crédit Impôts Recherche (CIR)

L’association Sciences en marche s’est penchée sur l’impact du Crédit Impôt Recherche, un dispositif censé doper l’embauche des scientifiques et l’innovation française, sur l’emploi scientifique ainsi que la R&D privée. Autant dire tout de suite que leurs conclusions sont accablantes, pour le dispositif lui-même mais aussi pour les entreprises de plus de 500 salariés soupçonnées d’opportunisme malhonnête.

D’après les travaux menés par l’association et présentés devant la commission d’enquête parlementaire créée pour l’occasion, « Il n’existe aucune corrélation entre la création d’emplois en R&D et la créance de CIR », tant pour les chercheurs que pour le personnel de soutien. Pire, les entreprises de moins de 500 salariés, qui ne bénéficient que de 37% du CIR, sont à l’origine de la création de 82% des 30000 emplois en R&D créés entre 2007 et 2012. Les  grandes entreprises de plus de 500 employés (GE), bénéficiaires de plus des deux tiers des financements n’ont créé que 18% des emplois. Un déséquilibre regrettable, qui témoigne d’une différence de coût de l’emploi considérable. Ainsi, un emploi créé grâce au CIR dans une PME coûte 60 000€/an, contre 450 000€/an pour un emploi dans une GE !  Et les mauvaises nouvelles ne s’arrêtent pas là. En comparant l’évolution de l’emploi avec l’Allemagne les chercheurs ont constaté une évolution similaire, alors que l’Allemagne ne propose pas de dispositif équivalent au CIR. Autrement dit, les emplois créés l’auraient été de toute façon.

De quoi remettre sérieusement en cause le CIR

De quoi remettre sérieusement en cause le CIR. D’autant que certains secteurs, pourtant bénéficiaires du CIR, perdent des emplois. C’est le cas du secteur des industries pharmaceutiques qui comptabilise une perte de 700 emplois R&D par an. Est-il réellement opportun de financer un secteur qui diminue sa masse salariale ?

Il existe quand même des secteurs qui créent des emplois et pour qui les aides du CIR semblent utiles. Ainsi 80% des emplois créés sont concentrés dans les branches « Activités informatiques et services d’information » et « Activités spécialisées, scientifiques et techniques ». Mais là encore, l’intérêt du CIR est remis en question par des soupçons de fraude. La Cour des comptes a d’ailleurs remis un rapport lui aussi accablant estimant que 15% des dossiers traités sont potentiellement frauduleux, le secteur de l’informatique étant cité comme le plus touché par cette dérive. Sciences en marche a quand à elle constaté une explosion des recrutements de cadres de R&D en 2007, avec un pourcentage d’embauche de 24% alors qu’il stagnait autour de 5% les 5 années précédentes. Cette hausse brutale, stabilisée autour de 25% par an, pose questions. S’agit-il d’une modification de la définition du périmètre de la R&D dans la loi ou bien à une fraude fiscale massive ? Cette augmentation anormalement élevée ne trouve pas de justification logique puisque le pourcentage de postes de chercheurs créés ne dépasse pas 5% du nombre total de cadres recrutés.

Les conclusions du rapport ne laissent plus place au doute, le CIR est un dispositif inefficace et détourné par les GE. Il est donc urgent de cibler les entreprises qui en bénéficient réellement pour développer leur activité R&D.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de mai 2015

  • 30 avvril 2015

    Restrictions – Publication au journal officiel de la restriction concernant le plomb dans les articles grand public susceptibles d’être mis en bouche par les enfants. (règlement (UE) N°628/2015 du 22 avril 2015 mettant à jour l’annexe XVII de REACH). Cette restriction s’appliquera pour les articles mis sur le marché pour la première fois à compter du 1er juin 2016. Elle comporte également un certain nombre de dérogations (clés, serrures, instruments de musique, articles religieux, batteries et piles bouton, jouets, pierres précieuses…

Par Pierre Thouverez

Sources : 

Revue du Web : Japan Edition

Cette semaine, une revue du Web un peu particulière, venant célébrer le Japon, son excellence et sa culture parfois… délicieusement décalée : 

  • Tuttuki Bako, un jeu électronique sans arrière-pensées ; 
  • Hebocon, duel au sommet entre les pires robots de la planète ; 
  • « White Goat », le mastodonte du papier recyclé, du bureau aux toilettes ; 
  • La cuisine facile et rapide, avec le canon à crevettes ; 
  • Le gadget (inutile?) de la semaine : un (petit) coup de pouce pour tenir votre smartphone ;
  • Et en bonus cette semaine  : le long courrier camouflage, aux couleurs de R2D2.

Tuttuki Bako, un jeu électronique sans (aucune) arrière-pensées : 

Pas de chichi, débutons cette Revue du Web consacrée au Japon avec Tuttuki Bako, un petit boîtier coloré développé par le géant japonais du jouet Bandai. A première vue, Tuttuki Bako semble n’être rien de plus qu’une petite horloge flashy, sans grand intérêt. Erreur ! Si le boîtier fournit effectivement l’heure – et peut accessoirement servir de réveil matin – ce ne sont pas ces fonctionnalités sur lesquelles nous allons nous pencher. Le bouton en façade permet de changer de mode… un mode ô combien plus intéressant. Derrière le réveil se cache en fait… le meilleur jouet électronique du monde.

Car il n’y a ni manette, ni bouton de contrôle ou joystick, tout se concentre au niveau du trou situé sur le côté droit du boîtier, et c’est le doigt du joueur qui va servir de moyen de contrôle, jusqu’à apparaître grossièrement pixelisé sur l’écran à cristaux liquides ! Les six centimètres de profondeur du trou (pour 24 millimètres de diamètre) hébergent un petit contingent de capteurs de mouvement, permettant de détecter l’intrus et de le modéliser – presque – en temps réel sur l’écran, faisant de Tuttuki Bako un maillon tangible de la grande histoire de la réalité augmentée.

Le menu nous laisse le choix entre essayer de faire éternuer une fille, aider un panda à faire de la balançoire, faire rebondir une substance visqueuse ou encore se battre contre un petit personnage féru de karaté. On vous laisse maintenant admirer le clip de présentation, réalisé puis monté sans arrière-pensées.

Hebocon, duel au sommet entre les pires robots de la planète : 

Fin 2014, un événement sans commune mesure s’est tenu en marge de la 18ème édition du festival Japan Media Arts. Si vous ne jurez que par les robots dernier cri, passez votre chemin. Hebocon est un tournoi organisé pour tous les bras cassés de l’électronique ainsi que pour tous les derniers de la classe en robotique et en programmation, où trente-et-un des pires robots ayant jamais foulé le sol japonais ont pu s’affronter dans des combats à mort. Des duels au sommet où non seulement les participants furent encouragés à jouer la carte du low-tech pour leur poulain, mais où chaque fonctionnalité un tant soit peu high-tech entraînait une pénalité. Les trente-et-un participants se sont de fait creusés les méninges pour pallier leur manque évident de savoir-faire.

Sur le modèle des combats de sumotoris, les pires robots querelleurs ont donc fait parler la poudre dans des affrontements à l’issue plus ou moins hasardeuse. Difficile de miser tous ses jetons sur le robot Barbie karatéka hélicoptère plutôt que sur le robot cloporte, sur le robot « Amazing quick floor » (un morceau de carton posé sur deux mini jeeps téléguidées, favori du tournoi) plutôt que sur la boite de mouchoirs montée sur vibromasseurs. Sans oublier le fabuleux robot qui secoue de la soupe lyophilisée, ainsi que le robot… enregistreur. L’amusement prend vite le dessus sur la compétition, qui se transforme peu à peu en une célébration joyeuse de la nullité assumée.

« White Goat », le mastodonte du papier recyclé, du bureau aux toilettes : 

Recycler du papier de bureau en papier toilette : l’idée de départ de la société japonaise Oriental semblait plutôt bonne. Pourtant, leur poulain, « White Goat » de son petit nom, cumule les tares. La bête se nourrit donc de papier bureau standard (compter quarante feuilles) qu’elle digère pendant une demi-heure, puis qu’elle régurgite sous la forme d’un bon vieux rouleau de papier toilette tout frai, tout neuf. L’imposante machine broie d’abord les feuilles, puis les dissout dans l’eau avant d’affiner la pulpe obtenue, puis de la sécher et de l’enrouler autour d’un cylindre en carton. D’après Oriental, le coût de revient d’un rouleau serait d’environ 10 centimes d’euro, et le mastodonte permettrait même de sauver une soixantaine de cèdre par an.

Alors que les Français produisent chaque année au bureau près de 900 000 tonnes de déchets de papiers, plus de 50 % de ces déchets n’est toujours pas collectée ni recyclée. Mais est-ce un mastodonte de presque deux mètres de haut, au rendement d’un rouleau par demi-heure, consommant son lot d’électricité et d’eau, et coûtant la bagatelle de 100 000 dollars qui pourra changer la donne ?

La cuisine facile et rapide, avec le canon à crevettes : 

Puisque rien ne semble vouloir arrêter la douce folie nippone, jetons un œil amusé sur les spots publicitaires que nous a concocté le leader japonais des opérateurs mobiles, NTT Docomo. N’espérez pas quelque chose de sobre : l’opérateur a voulu marquer les esprits avec un premier clip flashy, vantant la qualité de son offre de téléphonie 4G… à l’aide d’une installation expérimentale faisant la part belle à un splendide canon à crustacés, permettant de cuisiner de délicieuses crevettes grillées en à peine trois secondes, montre en main.

Méticuleuses et munies de lunettes de protection, les deux présentatrices semblent ne pas bien savoir sur quel pied danser, entre vraie fausse vidéo de cuisine, fausse vraie vidéo d’expérimentation scientifique et publicité parodique à la réalisation nerveuse.

Si vous n’êtes pas encore rassasiés, l’opérateur mobile japonais a récidivé avec un spot publicitaire alternatif présentant une autre installation et une autre recette de cuisine expéditive sauce nippone. Le canon ne martyrise cette fois-ci aucune crevette, mais se concentre sur la chair des gyozas, ces délicieux raviolis japonais. Propulsion, assemblage, assaisonnement et cuisson des petits raviolis en moins de trois secondes. Idéal si vous êtes pressés.

Le gadget (inutile?) de la semaine : un (petit) coup de pouce pour tenir votre smartphone

La tendinite du pouce, vous connaissez ? Également appelée « textonite », cette nouvelle pathologie toucherait les adeptes chevronnés de l’envoi de SMS, ainsi que les utilisateurs de smartphones en général. Autre problème de taille rencontré par les possesseurs de téléphones intelligents, la fameuse crampe de l’avant-bras, à force de tenir le petit terminal devant soi, à bout de bras, afin de regarder quelques nouvelles inepties. Notre gadget (inutile?) de la semaine vient apporter une solution tout en nuances – et à la japonaise – à ce problème, rencontré par les générations connectées, solution qui nous rappelle notre tout premier gadget inutile de la semaine.

Dans la plus pure lignée du « chindōgu », cette fâcheuse manie élevée au rang d’art qu’ont certains inventeurs à créer des objets « utiles mais inutilisables », répondant efficacement mais de manière inappropriée ou ridicule aux menus problèmes de notre quotidien, cette prothèse en forme de tête de cygne permet de garder son smartphone à vue, tout en vous laissant la possibilité de vous la couler douce, vos deux mains complètement libres de ne rien faire. Perçus comme « de véritables manifestes de résistance politique, économique et poétique », les chindōgus sont autant de petits bijoux dont la fonction est aussi évidente qu’elle insulte le sens pratique.

Poisson d’avril ou vrai gadget ? Peu importe, la vidéo est tout simplement magique.

Bonus : le long courrier camouflage, aux couleurs de R2D2

En bonus de cette Revue du Web un peu spéciale, penchons-nous sur l’art et la manière de célébrer l’expansion d’une compagnie aérienne vers de nouveaux marchés internationaux. La société de transport aérien All Nippon Airways (ANA, pour les intimes) a décidé de voir les choses en grand, en présentant sa nouvelle flottille de 787 Dreamliner, l’avion long-courrier du géant américain Boeing. Mais qu’ont-ils de si spécial ?

Rien à signaler niveau mécanique, puisque c’est du côté du design qu’il faut chercher la nouveauté. Et elle saute aux yeux, puisque les long-courriers ont été totalement relookés en R2-D2, le célèbre robot bruitiste de la franchise à succès Stars Wars. La saga de George Lucas et la compagnie aérienne japonaise se retrouvent liées autour de ce « Projet Star Wars », une collaboration sur cinq ans qui devrait probablement donner naissance à d’autres appareils grimés selon une thématique « Guerre des Étoiles ». Pour rappel, ce n’est pas la première fois que All Nippon Airways décide de relooker certains de ses long-courriers, avec ses « Pokémon Jets » ultra-colorés.

Par Moonzur Rahman

Comment prendre le contrôle d’un bracelet connecté

Un jour, par hasard, après avoir installé Android Wear (le système d’exploitation de Google destiné aux appareils intelligents) sur son nouveau bracelet connecté, Roman Unuchek, chercheur chez Kaspersky Lab, réussit à se connecter… au bracelet d’un collègue. 

Décidé à “réaliser une petite expérience”, le spécialiste en sécurité part du principe que la majorité des bracelets connectés fonctionnant sous Android 4.3 (ou une version ultérieure) communiquent avec d’autres appareils, comme un smartphone, via la technologie Bluetooth LE, ou “Bluetooth Smart”. “Cela signifie que la connexion entre les appareils ne s’opère pas de la même manière que dans une connexion Bluetooth classique. Il n’y a pas de mot de passe de jumelage. En effet, ces bracelets possèdent rarement un écran et/ou un clavier”, écrit-il sur le blog de Kaspersky Lab.

Une méthode d’authentification fragile

Selon Roman Unuchek, la méthode d’authentification employée dans plusieurs modèles courants permet à un tiers de se connecter de manière invisible au bracelet.

“Ces bracelets utilisent le profil d’attribut générique GATT (Generic Attribute Profile). Autrement dit, le bracelet contient une certaine sélection de services et chaque service possède un ensemble de caractéristiques. Chacune des caractéristiques contient un tampon d’octets et une liste de descripteurs. Chaque descripteur contient une valeur, le tampon de données”, explique le chercheur. Partant de ces observations, le chercheur a développé une application, qui cherchait automatiquement les appareils Bluetooth LE, et tentait de s’y connecter “pour obtenir la liste des services”.

A partir de son application, Roman Unuchek a réalisé des “balayages”. Il a ainsi passé deux heures dans le métro de Moscou – où il a réussi à se connecter à 19 appareils (11 FitBit et 8 Jawbone). “Pendant une heure dans une salle de sport de Bellevue, dans l’État de Washington aux Etats-Unis, ce sont 25 appareils qui ont été détectés : 20 Fitbit et un exemplaire de chacune des marques suivantes : Nike, Jawbone, Microsoft et Polar”, indique le chercheur.

Pour se connecter aux bracelets, Roman Unuchek a donc détourné la méthode d’authentification de ces appareils. Pour que la connexion s’établisse, l’utilisateur du bracelet doit la confirmer en appuyant sur son bouton d’appairement. ”Des pirates peuvent facilement contourner cette protection car la plupart des bracelets connectés récents sont dépourvus d’écran. Lorsque le bracelet vibre pour demander à son propriétaire de valider l’appairement, celui-ci n’a aucun moyen de savoir s’il s’agit d’une connexion avec son propre smartphone ou avec un autre”, explique-t-il.

Commandes éxécutées, données extraites et actions malveillantes

Ensuite, remarque Roman Unuchek, “il est facile d’exécuter des commandes sur l’appareil après l’authentification”. Il était par exemple capable de changer l’heure du bracelet. Il serait aussi possible d’extraire des données de l’appareil.

“Il semblerait que les fabricants de ces appareils ne se soucient pas beaucoup de la sécurité. Imaginez le cas d’un bracelet doté d’un capteur de fréquence cardiaque : si le propriétaire d’un magasin parvient à accéder aux données du bracelet, il pourra analyser les variations de la fréquence cardiaque de l’acheteur lorsque celui-ci voit une offre spéciale dans le magasin. Ceci est un bon moyen pour connaître la réaction du public par rapport à une publicité”, lance l’expert de Kasperky. Et d’ajouter : “un bracelet connecté doté d’un capteur de fréquence cardiaque qui a été compromis peut également servir de détecteur de mensonge.”

L’expert indique également que l’utilisateur d’un bracelet connecté est aussi susceptible d’être victime d’actions “plus malveillantes”, comme l’utilisation d’un malware permettant à un pirate de “prendre les commandes du bracelet et de le faire vibrer en permanence – le seul moyen d’interrompre ce comportement étant le versement d’une somme d’argent.”

Par Fabien Soyez

     

Et aussi dans les
ressources documentaires :

Quand les cellules jouent les funambules

Le monde bouge beaucoup à l’échelle des cellules. Même dans les tissus épithéliaux, où les cellules ont plutôt la réputation d’être collées les unes aux autres et d’être bien « rangées », elles migrent et se déplacent lorsque le contexte s’y prête, que ce soit pour fermer une blessure ou du fait d’un environnement tumoral. Elles se déplacent alors collectivement en restant attachées les unes aux autres et empruntent le chemin le plus facile pour elles, ce qui les conduit souvent à s’enrouler autour d’un vaisseau, d’une fibre ou d’un nerf. « Cette configuration est en fait assez commune in vivo. Lorsque des cellules partent d’une tumeur collectivement, elles empruntent fréquemment un chemin le long et autour des vaisseaux sanguins, nerfs ou fibres musculaires », rappelle Pascal Silberzan, directeur de recherche CNRS, chef de l’équipe Physicobiologie aux méso échelles. Son équipe développe des systèmes modèles pour reproduire et étudier in vitro les comportements cellulaires. Intrigués par ces mouvements collectifs des cellules, ils ont donc fabriqué des fibres en verre dont le diamètre varie depuis moins de 1 μm jusqu’à 100 μm et sur lesquelles les cellules peuvent migrer en masse.

Lorsqu’elles migrent le long de ces fibres, les cellules changent drastiquement leur architecture interne et développent des anneaux protéiques perpendiculaires à la direction principale. En outre leur vitesse dépend fortement du rayon avec un maximum pour un diamètre de quelques microns, ce qui reproduit une des caractéristiques marquantes de la migration collective in vivo.

Mais un autre phénomène se produit dans ces conditions: en effet, les chercheurs ont observé que, à ces faibles diamètres, les cellules du front de migration ont tendance à se détacher des autres. De tels « détachements » sont également observés lors de la progression tumorale. « En perdant cette capacité d’adhésion entre elles, les cellules changent de phénotype et se déplacent à très haute vitesse », décrit Hannah Yevick, doctorante dans l’équipe et premier auteur de ce travail. La transition épithélio-mésenchymateuse représente pour les cellules tumorales le premier pas vers la dissémination. Est-ce que les courbures extrêmes rencontrées par les cellules lors de cette « migration funambule » pourraient induire cette transition épithélio-mésenchymateuse ? Histoire à suivre.

Par Céline Giustranti

Crédit photo : H. G. Yevick/Institut Curie

Source : cnrs

Et aussi dans les
ressources documentaires :

Les chercheurs français négligent les blogs scientifiques

Il existe plus de 200 millions de blogs dans le monde, et chaque mois 3 millions de nouveaux blogs apparaissent sur la toile. Pourtant, un village gaulois résiste encore et toujours à l’envahisseur numérique. Un village ? Non, c’est toute la science gauloise ! En effet, alors que les chercheurs américains et britanniques se sont très vite emparés du phénomène pour communiquer avec le grand public dès 2008, la communauté française persiste à dédaigner la blogosphère. Pourquoi ? Tenir un blog serait chronophage et sans intérêt…financier.

Autrement dit, les chercheurs français n’ont pas besoin d’utiliser un tel outil de communication. Autre différence majeure avec les anglosaxons, la perception qu’ont les gens de la science. « Aux Etats-Unis, on constate une grande curiosité du public pour les sciences, d’où un plus grand engouement pour la recherche perçue comme fun et cool.» explique Antoine Bonvoisin, journaliste scientifique et ex-coordinateur du projet d’édition du livre « Les meilleurs blogues de science ». Ce qui n’est pas du tout le cas en France, comme le rappelle le Centre de recherche pour l’étude et l’observation des conditions de vie (CREDOC) dans son rapport sur la curiosité scientifique des français et leur désir de développer leurs connaissances : seuls 10% des habitants de l’hexagone considèrent la science comme un centre d’intérêt. Mais les scientifiques n’ont pourtant pas de quoi se vexer. Au contraire, selon un rapport de l’Eurobaromètre, 52% des européens préfèrent  quand l’information scientifique provient du chercheur directement plutôt que par le journaliste.

Justement, le blog rempli parfaitement cette fonction et permettrait de renouer le lien entre la communauté scientifique et le grand public. Car tenir blog présente de nombreux avantages, comme en témoignent les blogs anglosaxons. Certains chercheurs se servent de leur blog comme un outil de communication avec leurs étudiants, rajoutant du contenu en ligne en complément des cours magistraux. Si certains se lancent dans le blogging par amour de la vulgarisation, d’autres ont vite saisi la puissance d’un tel outil pour réaliser leur veille et communiquer avec leurs pairs. En publiant une partie de leurs travaux, les chercheurs peuvent interagir en temps réel avec leurs confrères, l’idéal pour faire progresser les travaux. Alors qu’attendent les frenchies pour se mettre à bloguer ?

Devant le désert de blogs scientifiques français, certains initient des initiatives qui pourraient bien  bousculer l’inertie des chercheurs français. Jusqu’à 2013, il n’existait qu’un seul portail de  blogs de sciences, le Café des sciences, ouvert en 2006.  Puis Pour la Science a ouvert son propre portail réservé aux chercheurs bloggeurs, scilogs.fr qui rassemble une vingtaine de blogs. De quoi susciter des vocations ?

Par Audrey Loubens

De nouveaux pneus pour les véhicules de demain

Afin de réduire la consommation, les pneus doivent diminuer leur résistance au roulement tout en assurant une emprise au sol suffisante pour assurer la sécurité.

Bridgestone s’est associé à l’entreprise japonaise Kao pour développer un nouvel agent dispersant combinant de la silice et du caoutchouc et permettant de réduire la résistance au roulement tout en aidant le pneu à adhérer à la route.

De son côté, Yokohama Rubber a conçu une méthode mélangeant de l’huile d’écorce d’orange avec le caoutchouc augmentant ainsi la flexibilité du caoutchouc et son adhérence. L’entreprise assure pouvoir créer des pneus faiblement consommateur et de forte adhérence en ajoutant cette huile à des pneus ayant une faible résistance au roulement.

Sumitomo Rubber s’attaque directement au caoutchouc. L’entreprise a utilisé, dans les pneus équipant son dernier mini van, sorti le 1er février, un nouveau polymère constitué de styrène. Ce matériau évitant de chauffer permettrait selon l’entreprise de réduire la résistance au roulement de 13 % par rapport aux pneus conventionnels.

D’autres entreprises sont également actives dans ce secteur, telles que JSR qui a prévu de doubler sa production de caoutchouc d’ici 2017 ou encore Asahi Kasei et Sumitomo Chemical augmentant également leurs productions, notamment de S-SBR (caoutchouc styrène-butadiène polymérisé par solution) réclamé par les fabricants de pneus. Ce matériau a la particularité de pouvoir facilement s’associer à la silice, réduisant ainsi la résistance au roulement et améliorant la tenue de route.

Les fabricants essaient d’accroître la vente de leurs produits plus respectueux de l’environnement et les régulations environnementales sont de plus en plus exigeantes. Ainsi, les labels sont d’autres moyens d’inciter leur percée sur le marché.

Pour en savoir plus, consultez les sites de Bridgestone, KaoYokohama Rubber, Sumitomo Rubber, JSR, Kasei et Sumitomo Chemical.

Article original : Kazuya Hiruta, « Manufacturers get a grip on green standards », Nikkei Asian Review, 2 février 2015. 

Source : www.bulletins-electroniques.com

Et aussi dans les
ressources documentaires :

Le pari des éoliennes offshore en Allemagne du Nord

En Allemagne, les parcs éoliens sont majoritairement situés très au large, jusqu’à plusieurs dizaines de kilomètres. En plus de la complexité technique et logistique de la mise en œuvre des éoliennes à de telles distances, s’ajoute la complexité du raccordement. Les retards observés au niveau du raccordement au réseau électrique des parcs éoliens en mer en mer du Nord sont notamment dus « à des travaux de nettoyage des fonds de mer, en partie parsemés de munitions issues de la Seconde Guerre Mondiale », précise Sarah Florence Gaebler, chargée de mission à l’Office franco-allemand pour les énergies renouvelables (OFAEnR). 

4 parcs éoliens offshore en service en mer du Nord

Les 60 MW du parc Alpha Ventus ont été les premiers à être raccordés au réseau en avril 2010 et sont depuis en exploitation. De leur côté, les 400 MW du parc Bard 1 ont été raccordés en septembre 2013, une première tranche de 200 MW étant raccordée depuis mars 2013. Mais, l’exploitation du parc a dû être arrêtée immédiatement en raison de problèmes techniques. En mars 2014, un nouveau raccordement a été testé, mais un court-circuit a grillé les filtres d’un transformateur électrique au large après juste quelques heures. Après ces longs retards, les éoliennes sont finalement connectées et l’exploitation commerciale est en cours de démarrage.

Un autre parc de 108 MW est raccordé depuis février 2014.Il s’agit du parc Riffgat. « Le parc Riffgat aurait dû être raccordé dès 2013, mais les travaux d’évacuation de plusieurs tonnes de munition sur le fond de la mer, que TenneT a été obligé de réaliser, a retardé l’installation du raccordement », rappelle Florence Gaebler. Malgré des retards dus à la complexité des installations, les experts ont su rebondir et les raccordements s’enchaînent désormais. Le parc Meerwind Süd/Ost de 288 MW est en service depuis novembre 2014. 

8 nouveaux parcs éoliens offshore en service d’ici fin 2015

Trois autres parcs éoliens sont entièrement installés depuis mi-2014. Il s’agit des parcs Trianel Borkum (200 MW), Global Tech I (400 MW) et Dan Tysk (288 MW). Les travaux d’installation des éoliennes du parc Trianel Borkumont été finalisés début juin 2014. Les travaux d’installation du parc Global Tech I et du parc Dan Tysk ont été finalisés quant à eux fin août 2014. 

La phase de raccordement au réseau des parcs éoliens devient alors l’enjeu principal. Après quelques retards et défaillances durant la phase de raccordement à la terre, ces 3 parcs ont réalisé leur première production d’électricité dans le cadre de phases de test entre la fin de 2014 et le début de cette année. Ils devraient entrer en opération complète entre le printemps et l’été 2015. 

Le par Nordsee Ost (295,2 MW) est installé depuis décembre 2014. Une première éolienne a injecté sur le réseau en essai dès fin décembre. Il devrait également être mis en service d’ici l’été 2015. 

« L’éolien offshore en Allemagne est en train de passer d’une phase pionnière à une phase industrielle », reconnaît Florence Gaebler. En revanche, « plus l’on installera de parcs, plus les connaissances seront poussées et plus les réponses et solutions seront rapides à trouver », prévient-elle. Le secteur s’enrichit des expériences passées pour les prochaines constructions. Les expériences passées devraient permettre de réduire les temps de raccordement au réseau à terre.Et il est important de retenir les leçons de ces premières installations, car plusieurs autres parcs sont encore en construction et devraient être mis en service d’ici fin 2015 : Butendiek (288 MW), Amrumbank West (288 MW), Borkum Riffgrund 1 (312MW) et Baltic 2 (288 MW). 

La puissance éolienne offshore installée et en service en Allemagne devrait passer de 916 MW fin décembre 2014 à 3275 MW fin 2015, soit une augmentation de 150 %. 

Quels nouveaux parcs d’ici 2020 ? 

L’avenir est déjà planifié. La construction de deux autres parcs devrait commencer dans le courant de l’année : Gode Wind 1 (330 MW) et Gode Wind 2 (252 MW). 

Le lancement de travaux a été annoncé en 2016 pour 5 parcs en mer du Nord et 1 en mer Baltique pour une puissance totale de 1985 MW à 2143 MW. D’autres parcs ont déjà obtenu les autorisations en Mer du Nord ou en Mer baltique pour un total de 9050 MW. En revanche, en raison de la révision des objectifs de développement de l’éolien offshore, il n’existe pas de calendrier précis pour le lancement des travaux.

Car l’éolien offshore coûte encore cher. Il est aujourd’hui au moins deux fois plus cher que l’éolien terrestre : 60 à 90 euros par MWh pour l’éolien terrestre, 120 à 150 euros par MWh pour l’éolien en mer, auquel il faut ajouter les coûts de connexion vers le rivage, estimé à 30 euros par MWh. « D’un point de vue purement de politique énergétique, et dans une optique d’efficience économique, il est donc préférable de développer aujourd’hui davantage l’éolien terrestre (technologie largement mature), que l’éolien en mer », estime Dimitri Pescia, du think-thank Agora Energiewende. 

Le gouvernement allemand a suivi cette réflexion et a revu ses objectifs en matière d’éolien offshore dans le cadre de la loi sur les énergies renouvelables de 2014 (loi EEG 2014), afin de ne pas faire exploser la note de l’Energiewende. Néanmoins, la filière allemande s’étant structurée grâce aux premiers parcs, le Gouvernement n’a pas souhaité porter un coup d’arrêt à son développement. « Le développement de l’éolien en mer peut être légitimé par d’autres enjeux, notamment en matière d’acceptation, en général meilleure que pour l’éolien terrestre, et pour des objectifs de politique industrielle – développement d’un savoir-faire national et d’un tissu industriel local porteur d’emploi, comme nous le voyons largement dans le nord de l’Allemagne-, pour une technologie qui a également un potentiel à l’export », analyse Dimitri Pescia.  Les objectifs se portent aujourd’hui à 6,5 GW de capacité installée d’ici 2020 et 15 GW d’ici 2030, contre respectivement 10 et 25 GW dans la version antérieure de la loi. La filière espère que cela suffira pour réduire les coûts et assurer sa compétitivité au niveau mondiale.

Ci-dessus : Parcs éoliens installés, déjà construits ou en construction dont la mise en service est prévue d’ici fin 2015

 

Ci-dessusParcs éoliens autorisés dont le lancement des travaux de construction est prévu pour 2015 et 2016

 

Pour aller plus loin :

Par Matthieu Combe, journaliste scientifique

Les réactions chimiques à l’origine de la vie (peut-être)

Aujourd’hui, au travers de récentes découvertes, quelques hypothèses permettent peut-être de comprendre l’apparition de la vie. En voici deux : de la goutte d’eau agissant comme un accélérateur de réactions aux molécules venues de l’espace qui pourraient être à l’origine des briques du vivant.

La goutte d’eau, le terreau de la vie ?

Des chercheurs du laboratoire de l’université de Strasbourg, experts en microfluidique, « la science et la technologie des systèmes qui manipulent des petits volumes de fluides », se sont aperçus lors d’une étude sur la production de molécules qu’une goutte d’eau agissait comme un accélérateur de réactions chimiques, quelles qu’elles soient.

Dans le cas présent, l’équipe menée par le professeur Andrew Griffiths a introduit deux micro-molécules dans des micro-gouttes : de l’amine ainsi que de l’aldéhyde, connues pour leur réaction fluorescente. Ce qui s’est produit ensuite a beaucoup étonné les chercheurs. En effet, les gouttelettes se sont mises à briller intensément, et de façon anormale, montrant que l’expérience était un succès et allait même au-delà de toutes espérances. Des imines fluorescentes, des composés organiques, ont ainsi été obtenu… En quantité 45 fois plus importante que ne laissait l’entendre les pronostics.

C’est en cherchant à découvrir pourquoi une telle réaction avait eu lieu, que les scientifiques ont considéré plus sérieusement l’architecture de la goutte d’eau ainsi que les phénomènes ayant cours à l’intérieur. Il s’est révélé que les molécules se sont retrouvées collées à la paroi des gouttes d’eau sous l’action de la tension superficielle, « un phénomène d’augmentation de l’énergie à la surface d’un fluide et qui en augmente localement la cohésion », engendrant une coalescence. Les molécules n’ont pu réagir comme elles le font en temps normal. Leurs déplacements en ont été limités, favorisant les interactions.

Comme l’explique Jean-Christophe Baret, l’un des membres de l’équipe de recherche, «dans une goutte, les molécules sont naturellement attirées vers les parois et vont momentanément s’y accrocher ». La gouttelette s’est donc révélé être un terreau propice aux réactions chimiques, agissant comme un site de Dating, c’est-à-dire en facilitant la mise en relation des molécules; ou plutôt, en augmentant les chances pour que celles-ci « se retrouvent dans la même pièce » et établissent des liaisons.

Les chercheurs ont conclu que la goutte d’eau favorisait la complexification des molécules. Et, bien que cette étude ne suffise pas à donner une explication à l’émergence des premières molécules organiques complexes, elle offre tout de même une hypothèse séduisante sur l’origine du vivant. Les exobiologistes ont décroché peut-être la timbale.

Les briques du vivant viendraient-elles d’ailleurs ?

Des chercheurs de l’Institut d’astrophysique spatiale (IAS) de l’université Paris Sud en collaboration avec l’Institut de chimie de Nice de l’université de Nice-Sophia Antipolis ont voulu savoir ce qui arrivait lorsque l’on soumettait de la glace présente dans un nuage de gaz interstellaire aux UV émis par les étoiles environnantes (même lointaines). Ils ont ainsi refroidi un mélange d’eau, de méthanol et d’ammoniaque, trois composants dont on a déjà trouvé des traces au sein de ces nuages de gaz, puis ils l’ont astreint à un rayonnement UV pendant une période allant d’une semaine à un mois.

Les échantillons de glace exposés sont ensuite passés par le laboratoire de Nice pour y être analysés par l’équipe de Uwe Meierhenrich. Là, deux petites molécules organiques ont été détecté : le glycolaldéhyde et le glycéraldéhyde; des sucres élémentaires, composés d’atomes de carbone. Or, ces deux molécules sont des constituants de structures plus complexes telles que les acides nucléiques. On les retrouve dans l’acide ribonucléique (ARN), « une molécule biologique présente chez pratiquement tous les êtres vivants ».

L’expérience leur a donc permis de comprendre et de donner une explication plausible aux mécanismes chimiques à l’origine de la création de certaines molécules pouvant, par association, produire des «molécules organiques simples comme les acides aminés ». Dans le cas présent, du glycolaldéhyde et du glycéraldéhyde; des composants des briques du vivant.

Sachant que les astronomes ont déjà perçu du glycolaldéhyde dans l’espace, l’hypothèse est donc la suivante. Les molécules créées dans l’espace ont fort bien pu voyager à dos d’astéroïde jusqu’à la Terre, où elles se seraient multipliées, développées et complexifiées par différents processus chimiques jusqu’à devenir organiques et former les premières briques du vivant. Étant donné le nombre impressionnant de micro météorites qui bombardent chaque jour la Terre, et tenant compte du fait qu’il était 1 000 fois plus élevé il y a de ça 4 milliards d’année, celles-ci ont très bien pu servir de vaisseaux aux molécules responsables des briques du vivant.

Et cela pose bien sûr une autre question… Si à l’intérieur des nuages de gaz interstellaire peuvent se produire des réactions chimiques capables d’engendrer des molécules, y compris des acides aminés, pourquoi la vie ne se serait-elle pas développée sur une autre planète ? Une étude récente a d’ailleurs montré que le nombre de planète habitable, c’est-à-dire cumulant ces trois qualités : de l’eau, de l’atmosphère et du carbone, se comptait en milliards.

Ce n’est qu’un scénario mais cela laisse songeur.

Par Sébastien Tribot

8 réactions chimiques incroyables

Le césium explose dans l’eau

Extrêmement réactif, le césium explose au contact de l’eau. Il s’agit d’un métal alcalin : dissous dans l’eau, il produit une solution d’hydroxyde de césium et entraîne un dégagement de chaleur et d’hydrogène qui explose au contact de l’oxygène dissous. La solution devient alors basique (pH > 7). Pour sublimer l’expérience, les auteurs ont rajouté de la phénolphtaléine dans l’eau, un indicateur de pH qui devient rose dans des solutions basiques.

Le sodium crée une explosion dans l’eau

Le césium n’est pas le seul métal alcalin à exploser au contact de l’eau. Vous avez sûrement déjà fait cette expérience en cours de chimie : au contact de l’eau, un petit bout de sodium s’enflamme. Mais des étudiants ont tenté une expérience plus conséquente : en jetant un bloc de sodium dans un lac, l’explosion ne se fait pas longtemps attendre. Au contact de l’eau, le sodium (Na) décompose les molécules d’eau (H2O) et libère du dihydrogène (H2), des ions hydroxyde (OH-) et des ions sodium (Na+). Cette réaction engendre un grand dégagement de chaleur. Combiné à l’oxgène, le dihydrogrène libéré s’enflamme rapidement et crée une explosion. Mieux vaut donc éviter de faire cette expérience dans un lac naturel…

Le sucre se carbonise en présence d’eau

Lorsque l’on mélange du sucre (saccharose) avec de l’acide sulfurique concentré (H2SO4) , le sucre se déshydrate et se carbonise. Il est donc transformé en carbone et en eau. La réaction de dissolution est la suivante : C12H22O11 -> 12 C + 11 (H2O). On assiste à une forte augmentation de température (due à la dissolution exothermique de l’acide dans l’eau) qui vaporise une partie de l’eau. La transformation est impressionnante et semble donner naissance à un serpent noir qui sort du bécher, d’où son surnom de «Black Snake Experiment».

Créer un serpent du pharaon

Cette expérience est encore plus impressionnante. En enflammant une poudre blanche de thiocyanate de mercure Hg(SCN)2, vous obtenez une grande masse de cendres enroulées ressemblant à des serpents. Ces cendres grandissent peu à peu au milieu d’une petite flamme bleue qui entretient la combustion. Cette expérience dégage des vapeurs toxiques de mercure et ne doit donc pas être testée chez soi.

Plonger sa main dans l’azote liquide !

On vous l’a appris : plongez un corps dans l’azote liquide et il en ressortira cassant comme du verre ! Mais le youtubeur NurdRage a décidé de ne pas se limiter à ces mises en garde. Dans cette vidéo, il plonge sa main dans l’azote liquide et la retire rapidement. Bien que rafraîchie, celle-ci reste entièrement opérationnelle. Cela s’explique par l’effet dit de «Leidenfrost». La surface de la main, ayant une différence de température de plus de 200°C par rapport à l’azote liquide, entraîne l’évaporation instantanée de l’azote. Le gaz ainsi libéré forme une barrière isolante temporaire suffisante pour éviter que sa main ne se transforme en un gigantesque glaçon. Mais attention, cet effet n’est que très limité : laisser la main plus longtemps vous assurerait de la perdre !  A ne pas tester non plus.

La chimie sublimée

Beautifull chemistry dévoile la beauté des réactions chimiques. Grâce à des équipements innovants et filmé en caméra ultra-haute définition, découvrez des réactions chimiques vues au plus près  : déplacement de métal, précipitation, cristallisation, changement de couleur, formation et dégagements de bulles, dégagement de fumée… Plus de vidéos : http://beautifulchemistry.net/

Le zeste d’orange dissout les ballons de baudruche

Avez-vous déjà manipulé un ballon en mangeant une orange ? Si tel est le cas, vous avez peut-être déjà fait cette douloureuse expérience. Le limonène contenu dans le zeste du fruit dissout sur le champs le caoutchouc, entraînant son explosion immédiate.


Zeste d’orange vs Ballons de baudruche par BuzzVid

Le lait précipite le Coca-cola

La réaction explosive entre le coca-cola et un menthos est bien connue. Mais avez-vous  déjà pensé à mélanger le célèbre breuvage avec du lait ? En quelques heures, l’acide phosphorique du Coca-Cola provoque la précipitation des protéines (albumines) présentes dans le lait et entraîne le colorant avec elles. Résultat : le cola devient « café-crème », puis laisse place à un liquide doré et un précipité brunâtre.

Par Matthieu Combe, journaliste scientifique

Les abeilles, accros aux pesticides qui les déciment en Europe

Des abeilles moins nombreuses, qui nidifient moins, des bourdons qui se reproduisent difficilement… Deux nouvelles études, publiées mercredi 22 avril dans Nature, sonnent à nouveau l’alerte sur les effets des néonicotinoïdes, ces pesticides contenant des substances proches de la nicotine. Celles-ci sont d’autant plus dangereuses que les précieux pollinisateurs semblent attirés par ces substances.

Les abeilles sont frappées depuis des années par un effondrement de leurs colonies, notamment en Europe et en Amérique du nord. Ce phénomène est souvent attribué aux pesticides, mais aussi à un virus, ou à des champignons, ou à un ensemble de facteurs.

Les abeilles, qui représentent 80 % des insectes pollinisateurs, sont essentielles à la sécurité alimentaire mondiale. À l’échelle planétaire, leur travail a été évalué à au moins 142 milliards d’euros.

« Les grandes cultures en fleurs sont des sources de nourriture importantes pour les abeilles sauvages, mais elles peuvent se transformer en pièges écologiques si les butineuses sont exposées à des pesticides tels que les néonicotinoïdes », relèvent les auteurs d’une étude menée en Suède, issus de l’université de Lund.

Les chercheurs ont étudié 16 champs de colza, dont la moitié ont été traitées au clothianidine, et analysé les collectes de pollen et le comportement des insectes.

« Le résultat le plus spectaculaire est que les colonies de bourdons n’ont quasiment pas grossi dans les sites traités », explique Maj Rundlof, malgré des fleurs plus abondantes. À la fin de l’expérience, on y dénombrait moins de cocons que dans les champs non traités.

Les chercheurs ont également fait une autre découverte : les abeilles solitaires ne sont pas retournées dans les nids placés aux abords des champs traités au pesticide. Elles ont en revanche regagné, dans six cas sur huit, ceux disposés près des parcelles non traitées, commençant à édifier des cellules de couvain.

Pourquoi ? « Cela reste à éclaircir, mais une capacité réduite à naviguer est une explication possible ». D’autres études ont en effet montré que des abeilles exposées aux néonicotinoïdes avaient du mal à reconnaître les caractéristiques des fleurs, à s’orienter, à butiner, conduisant à la disparition de colonies entières.

Le débat sur ces produits fait rage entre scientifiques, environnementalistes, apiculteurs, et fabricants de pesticides.

En décembre 2013, l’Union européenne a imposé un moratoire partiel sur trois types de néonicotinoïdes pour deux ans.

Une drogue

Ce rapport trouve une résonance particulière avec la publication d’une autre étude. Selon cette dernière, non seulement les abeilles n’évitent pas les fleurs traitées aux néonicotinoïdes, mais il se pourrait bien qu’elles les préfèrent.

Certains ont en effet suggéré que soient plantées, à côté des parcelles traitées, d’autres non traitées pour les abeilles. Or ce rapport montre qu’elles n’ont pas vraiment le choix : quand on leur propose une solution de sucrose à côté d’une autre de sucrose associé à un néonicotinoïde, les abeilles mellifères comme les bourdons ne sont non seulement pas repoussés par le second nectar, mais préfèrent se tourner vers lui.

« Nous avons une preuve que les abeilles préfèrent manger la nourriture contaminée par des pesticides », souligne Geraldine Wright, de l’université de Newcastle.

Les chercheurs ont utilisé des centaines de bourdons et des milliers d’abeilles à miel qui, en laboratoire, ont pu aller librement sur les deux types de solutions.

« Les abeilles n’ont évité aucune des concentrations des trois néonicotinoïdes » proposés, souligne Geraldine Wright. « Au contraire, elles ont choisi les tubes contenant l’imidaclopride ou le thiamethoxame ». Les abeilles sont également allées vers le clothianidine, sans pour autant lui montrer de préférence particulière.

Ce n’est pas une question de sensation, mais « il se peut que les néonicotinoïdes agissent comme une drogue, rendant la nourriture plus gratifiante », comme la nicotine pour les fumeurs. « Je crois que cette expérience montre que ces composants ont un effet pharmacologique sur le cerveau de l’abeille », estime la chercheuse.

PROCHAINES ÉTAPES : 

1er décembre : La Commission européenne réexaminera le moratoire sur trois pesticides néonicotinoïdes (la clothianidine, l’imidaclopride et le thiaméthoxame).

LIENS EXTERNES : 

European Union

Source : EurActiv France avec l’AFP

A quoi ressemblera l’Afrique en 3015 ?

Un article alarmant paru sur le journal sud-africain The Mail & Guardian puis relayé par le Courrier International dévoile un continent africain en très mauvaise posture dans mille ans, souffrant à la fois de la montée des eaux et de la désertification d’une grande partie de son territoire. On y découvre une carte de l’Afrique émaciée, très diminuée sur son flanc gauche. Des villes telles que Lagos (Nigeria), Banjul (Gambie), Abidjan (Côte d’Ivoire), et des îles basses comme l’Île Maurice ou encore le Cap-Vert et bien d’autres… pourraient ne plus exister, complètement noyés des suites de l’augmentation du niveau de la mer, estimé à un à deux mètres de haut.

La chose est d’autant plus grave et effrayante selon l’article, que pas moins de 25% de la population africaine vivraient à moins de 100 kilomètres des côtes. Ce qui n’a rien d’étonnant puisque trente-trois des 48 pays de l’Afrique continentale comptent un littoral. La côte Atlantique de l’Afrique de l’Ouest serait davantage touchée. Et le tableau se noircit encore avec la menace de la désertification d’un quart du continent 

Que peut-on faire ? Apparemment mettre la main à la poche et allonger les billets ! Car « selon le Programme des Nations unies pour l’environnement (PNUE), l’investissement nécessaire pour que le continent puisse s’adapter aux changements à venir est de l’ordre de 50 milliards de dollars par an d’ici à 2050, même si l’on parvient à maintenir la hausse des températures sous la barre des 2 °C. »

Le dernier siècle a vu ses eaux montées de 10 à 20 centimètres, et il semblerait que cette tendance s’accentue encore, avec le réchauffement climatique et la fonte des glaciers. Mais faut-il réellement craindre un recouvrement si important ? On peut en effet se demander si l’article n’est pas exagérément effrayant afin de faire réagir les consciences, politiques et plus largement de tous les êtres humains, sur la maltraitance que nous exerçons à chaque instant sur notre planète et ce, depuis de nombreuses décennies ? En revanche, ce qui est certain, c’est que la Terre est vulnérable et l’éco-système bâti en plusieurs milliards d’années est fragile. À nous de le respecter si nous ne voulons pas qu’un tel scénario se produise. D’autant que l’échelle de temps est courte, et la catastrophe paraît imminente. Imaginez dans mille ans, des pays entiers recouverts d’eau entraînant des mouvements de populations massifs, des conflits inhérents…

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Les STEP peuvent-elles traiter les micropolluants ?

« Jusqu’à présent, les stations d’épuration étaient conçues pour traiter les matières en suspension, le carbone, l’azote, le phosphore. Il y a désormais d’autres aspects qualité qui définissent la qualité d’un cours d’eau, notamment sur les micropolluants », prévient Samuel Martin, Responsable du département R&D Assainissement et Environnement au CIRSEE-Suez Environnement. La Directive Cadre sur l’Eau européenne a redéfini les critères de qualité des cours d’eau pour plusieurs substances. « On n’est plus au niveau de paramètres globaux comme la DBO, les matières en suspension ou l’azote total, mais on est au niveau des molécules elle-même, à des concentrations assez faibles, du ng/L au µg/L ».

Pour les stations les plus répandues, les résultats du projet AMPERES ( 2006-2009), porté par Irstea en collaboration avec Suez Environnement et l’Université de Bordeaux, par financement de l’Onema, montrent qu’environ 85 % des substances quantifiées en entrée de station sont éliminées à plus de 70 % au cours du processus. Mais un certain nombre de substances sont éliminées à moins de 30 %. Il s’agit de pesticides polaires (glyphosate, AMPA, diuron) et de quelques produits pharmaceutiques. Au final, environ 15 % des substances prioritaires sélectionnées au niveau européen, 30 % des molécules organiques et 90 % des substances pharmaceutiques quantifiées dans les eaux brutes se retrouvent en sortie des procédés biologiques à des concentrations supérieures à 0,1 µg/L.

Armistiq : améliorer l’élimination des micropolluants

Le projet ARMISTIQ (2010-2013), porté par les mêmes partenaires que le projet AMPERES, montre qu’il est possible d’améliorer l’élimination des différentes familles de micropolluants en sortie de stations d’épuration en adaptant le procédé classique de boues activées et en ajoutant des traitements complémentaires.

La réalisation de simulations numériques a permis de montrer que cela est possible en augmentant la concentration des boues ou la durée d’aération dans les bassins. Cette amélioration des performances n’est néanmoins pas efficace pour un grand nombre de polluants présents en sortie de station d’épuration.

Le projet s’est donc aussi intéressé à l’optimisation de la dégradation des micropolluants par l’utilisation seule ou en combination de traitements complémentaires : l’ozonation, l’oxydation avancée (combinaisons UV/H2O2, O3/UV, O3/H2O2) et le traitement par charbon actif.

Ci-dessus : Efficacité des 3 traitements complémentaires testés pour l’élimination de différentes familles de micropolluants. Représentation du rendement d’élimination entre la sortie de traitement secondaire et la sortie du traitement complémentaire testé : R<30 % (rouge), 30 %<R<70 % (orange), 70 %<R<90 % (vert clair), R>90v% (vert foncé)

« L’ozone, combiné ou pas à peroxyde d’hydrogène, est efficace pour une grande majorité de substances. C’est le cas aussi pour le charbon actif, avec quelques différences sur certaines molécules », assure Samuel Martin. Une bonne nouvelle est à noter : si le projet AMPERES a montré que les médicaments étaient présents à plus de 90 % à des concentrations supérieures à 1 µg/L en sortie de station, les 3 traitements complémentaires testés ici les éliminent à plus de 70 %.

L’ozone combiné au peroxyde d’hydrogène présente les meilleurs rendements, mais c’est aussi la solution la plus chère. Pour les grosses collectivités, l’ozone semble être le meilleur rapport performances/coût. Pour ces dernières, l’installation de ce procédé conduirait à une augmentation du prix de l’eau de deux centimes d’euros par m3, soit une facture additionnelle d’environ 2 € HT par habitant et par an, contre 20 € HT par habitant et par an pour le procédé peroxyde/UV.

En France, la politique s’oriente vers la réduction de la pollution à la source. Mais cela n’est pas toujours suffisant. « Si l’on veut appliquer ces solutions sur les stations actuelles, techniquement, ce n’est pas trop compliqué. On peut installer une étape de traitement tertiaire s’il y a de la place sur le site et si le traitement en amont est de qualité suffisante », assure Samuel Martin. Le choix d’investissement revient aux collectivités qui doivent arbitrer entre prix de l’eau et diminution de la pollution des cours d’eau

De nouveaux projets pour mieux traiter les micropolluants

Le projet Armistiq s’est également intéressé à l’évolution des micropolluants accumulés dans les boues, suite au séchage ou à la méthanisation. Quel que soit le procédé testé, les micropolluants sont peu affectés par les procédés actuellement utilisés. Le nouveau projet RISO-PRO (2013-2015) , financé par l’Onema et coordoné par l’Inra étudie donc leur devenir après épandage.

Une question demeure : après dégradation des micropolluants par les procédés avancés, les sous-produits sont-ils toxiques pour le milieu récepteur ? Qu’en est-il de la toxicité des micropolluants non éliminés ? C’est l’enjeu du projet EchiBioTEB (2011-2014) dont les conclusions seront prochainement communiquées par Irstea.

Le projet Micropolis (2014-2017) a été lancé à Sophia Antipolis avec Irstea, l’Agence de l’eau et d’autres partenaires en écotoxicologie. Sur le site existant, l’objectif est d’évaluer les performances de traitement par ozonation et traitement biologique complémentaire, l’impact sur le milieu et l’énergie consommée. L’idée est également de coupler des outils chimiques et écotoxicologiques (avec des gammares) pour évaluer la toxicité en sortie de station.

Le site SIPIBEL, site pilote de Belcombe, a pour objectif de réaliser l’étude de la caractérisation, de la traitabilité et des impacts des effluents hospitaliers en station d’épuration urbaine.  Deux projets y sont menés : le projet Interreg franco-suisse IRMISE Arve aval (2013 -> juin 2015) qui porte sur l’impact des rejets de micropolluants (dont des résidus de médicaments) issus de STEP sur l’aval du bassin versant de l’Arve et la nappe du genevois et le projet RILACT (nov. 2014 -> mai 2018), portant sur les risques et leviers d’action relatifs aux rejets de médicaments, datergents et biocides dans les effluents hospitaliers et urbains.

Avec le SIAAP, Suez Environnement teste enfin un procédé d’oxydation catalytique pour aller plus loin dans la dégradation des micropolluants tout en réduisant la dose d’ozone utilisée.

Par Matthieu Combe, journaliste scientifique