Des chercheurs sibériens mettent au point un nouveau matériau

Cette nouvelle structure présente des propriétés particulières. Les nanodiamants émettent de la lumière lorsqu’on leur applique un champ magnétique fort. Les nanotubes de carbone permettent de renforcer le champ magnétique appliqué et donc l’intensité de la lumière émise. Ce nouveau matériau sera utile pour un large éventail de technologies, par exemple d’affichage ou de diagnostic médical.

Pour créer ce nouveau matériau, les chercheurs ont déposé sur des nanotubes de carbone alignés une couche de nanodiamants. Du fait des liaisons carbone des deux structures, il a été difficile de les lier de manière permanente. Cette découverte a fait l’objet d’une publication dans la revue scientifique Nature. Les images ci-dessous y ont été publiées. Sur les images du haut, on peut observer l’alignement des nanotubes de carbone avant d’y déposer une couche de nanodiamants. Ces photos ont été prises grâce à un microscope électronique à balayage. Sur les photos du bas, on peut observer la lumière émise par la structure hybride en fonction du champ électrique appliqué de 0 à 15 V/micro-m.

Source : bulletins électroniques

Et aussi dans les
ressources documentaires :

Une première mondiale pour le stockage de données sur polymères

Avec ses 3,4 milliards de paires de bases, l’ADN humain compile une gigantesque masse d’informations dans un volume infime. Toute l’information qui y est stockée s’exprime grâce à quatre bases azotées : A, T, G et C. Des chercheurs avaient déjà réussi à utiliser l’alternance de ces véritables briques moléculaires pour reproduire un code binaire. Mais face aux limites techniques que pose l’ADN, il fallait encore développer le premier polymère synthétique, plus maniable et moins onéreux, apte à conserver des données binaires. Cette première mondiale vient d’être accomplie par une équipe de scientifiques français du CNRS et d’Aix-Marseille université.

Dans cette étude, plutôt que de se servir des quatre bases azotées de l’ADN, les chercheurs ont utilisé trois monomères. Deux de ces monomères représentent les chiffres 0 et 1 du langage binaire et peuvent être utilisés de manière interchangeable au cours de la synthèse. Un troisième monomère de type nitroxide est intercalé entre les bits afin de faciliter l’écriture et la lecture de la séquence codée.

Un court message binaire est synthétisé à la main, monomère par monomère, sur une chaîne en croissance. L’opération prend environ une journée, mais devrait se réduire une fois robotisée. La lecture fonctionne par séquençage, de la même manière que l’ADN est décodé depuis des dizaines d’années. Un spectromètre de masse met ainsi moins de cinq minutes à déchiffrer les données, une durée elle aussi vouée à diminuer à court terme.

Il est aussi possible d’effacer le code à tout moment en l’exposant à une température supérieure à 60 degrés Celsius ou à un laser alors que le séquençage détruit le polymère. Les chercheurs ont montré qu’à température ambiante, le polymère se conserve plusieurs mois, même s’il pourrait en fait tenir plusieurs années tant la molécule est stable.

L’équipe souhaite stocker des messages de quelques kilooctets, voire mégaoctets, d’ici trois à cinq ans. Cette technique, brevetée par le CNRS, permet aussi le développement à court terme de codes-barres moléculaires. Les séquences fourniraient un étiquetage extrêmement complexe à falsifier, idéal pour des denrées à forte valeur ajoutée comme les produits de luxe et les médicaments. L’utilisation de monomères et de codes secrets, connus seulement par le laboratoire et l’industriel, rendrait les contrefaçons extrêmement difficiles.

Source : CNRS

Et aussi dans les
ressources documentaires :

DMLA : Light Vision développe une paire de lunettes « intelligente »

Environ 12% de la population entre 65 et 75 ans présente cette pathologie dont la prévalence pourrait augmenter de près de 50% d’ici 2020 du fait du vieillissement de la population. Face à ce fléau qui représente la première cause de déficience visuelle après 50 ans, et pour laquelle il n’existe aucun traitement curatif mais uniquement des dispositifs d’aide à la vision encore peu satisfaisants, la paire de lunettes dite « intelligente » mise au point par Light Vision, une jeune entreprise de l’incubateur de l’Institut de la Vision à Paris, constitue une solution extrêmement intéressante et prometteuse. Une centaine de ces lunettes pourrait être mise à disposition des premiers patients dès la fin de cette année.

« La DMLA, nous y travaillons depuis déjà plusieurs années », a rappelé Daniel Aït-Yahiatène, président de Light Vision, lors du Congrès Vision Innovation, intitulé « Mieux voir ensemble pour mieux voir demain », qui s’est tenu le 10 février dernier à la Maison de l’Unesco à Paris. Dès les années 2000, alors qu’il travaillait dans le domaine des lasers médicaux, celui-ci a eu l’idée en effet de projeter une image directement dans l’oeil d’une personne atteinte de DMLA et s’est rendu compte que l’on pouvait ainsi accroître son acuité visuelle. Quelques années plus tard, les technologies ayant progressé, il a repris cette idée pour la développer en collaboration avec un membre de sa famille, Olivier Aït, qui terminait alors sa formation d’ingénieur en informatique au sein de l’Epitech. « Il s’agissait de voir l’état de l’art et si nous pouvions parvenir à développer un produit efficace commercialisable », résume celui qui occupe aujourd’hui le poste de responsable technique au sein de Light Vision. Et au fil des mois, l’idée de créer une entreprise autour de cette thématique a germé. Lauréat, deux années successives, en « émergence » puis en « création », à l’occasion du Concours national d’aide à la création d’entreprises de technologies innovantes, leur projet les a conduit en novembre 2011 à créer Light Vision, une entreprise localisée à Paris, au sein de l’incubateur de l’Institut de la Vision.

Après avoir validé leur concept sur des personnes atteintes de DMLA courant 2012, Daniel et Olivier ont donc conçu un démonstrateur de ces lunettes, nécessaire à la validation de l’ensemble de ses parties actives, qu’ils ont finalisé à la mi-2013, pour déboucher enfin sur la réalisation d’un premier prototype, de type fil de fer, en 2014. Celui-ci est équipé d’une caméra permettant de filmer le champ extérieur, l’image obtenue étant traitée ensuite par un logiciel informatique développé par cette jeune entreprise. « Ce dernier va notamment augmenter les contrastes, voire inverser les couleurs, l’objectif étant d’adapter automatiquement ces lunettes à la vision de celui qui les porte », précise le président de Light Vision. L’image traitée est alors envoyée sur la partie encore utilisable de la rétine du patient. D’où la nécessaire incorporation dans ces lunettes d’un système dit de « Eye-tracking » qui permet de suivre le mouvement de la pupille. Aujourd’hui, l’équipe de Light Vision est entrée dans une nouvelle étape, celle de la miniaturisation qui devrait se poursuivre tout au long de cette année, avec l’objectif de produire une centaine de lunettes, « celles-ci devant être mises à disposition des premiers patients ». Autant de travaux, menés en particulier avec l’Université de Haute Alsace, qui ont donné lieu au dépôt de deux brevets et dont la réalisation auraient été impossible sans la présence et l’appui de l’Institut de la Vision, « essentiel notamment pour effectuer nos tests, prévoir nos protocoles et, plus généralement, valider l’ensemble du concept », tient à souligner Daniel Aït-Yahiatène.

Ces lunettes dont les premiers exemplaires pourraient être commercialisés en 2016, le président de Light Vision les compare tout simplement aux prothèses auditives qui, de leur côté, ont su progressivement s’imposer auprès d’un public sans cesse grandissant dont la particularité est d’entendre moins bien en vieillissant. « Dans le futur, nous souhaiterions nous intéresser à d’autres pathologies de la vision », indique Olivier Aït qui ajoute en guise de conclusion : « il faut nécessairement innover si nous voulons franchir de nouvelles étapes et réussir à occuper une place significative sur ce marché où sont présents de sérieux concurrents ».

Source : bulletins électroniques

Et aussi dans les
ressources documentaires :

L’audit énergétique devient obligatoire pour les grands entreprises

Cet audit énergétique réglementaire permettra aux entreprises de mettre en évidence des gisements d’économies d’énergie et de déterminer les actions et les investissements à réaliser pour diminuer leurs coûts énergétiques. Il les incitera ainsi à mettre en place une stratégie d’efficacité énergétique de leurs activités en France et sera renouvelé par l’entreprise tous les 4 ans. Cet audit concerne notamment les bâtiments, les procédés industriels et les activités de transport et couvre au moins 80 % du montant des factures énergétiques acquittées par l’entreprise. Pour les audits réalisés avant le 5 décembre 2015, ce taux de couverture peut toutefois être ramené à 65 %.

La loi prévoit néanmoins quelques dérogations. Par exemple, si les activités de l’entreprise sont couvertes par un système de management de l’énergie certifié ISO 14001, l’entreprise est exemptée de l’obligation de réalisation de l’audit énergétique. De même si elle est certifiée ISO 50001, car cette norme impose déjà une amélioration continue de la performance énergétique.

D’où vient cette loi ?

Le principe de l’audit énergétique obligatoire est prévu par la directive européenne 2012/27/UE relative à l’efficacité énergétique. Cette directive a été élaborée afin de déployer les efforts nécessaires à l’atteinte de l’objectif de réduction de 20 % de la consommation énergétique de l’Union Européenne à l’horizon 2020. Transposée en droit français par la loi n° 2013-619 du 16 juillet 2013, l’article 40 de la loi insère dans le titre III du livre II du code de l’énergie un nouveau chapitre consacré à la performance énergétique des entreprises. Les 4 articles L233-1 à L233-4 constituent la base législative de l’audit énergétique obligatoire et fixent le régime de sanctions.

A cette base, il faut ajouter le décret n°2013-1121 du 4 décembre 2013 relatif aux seuils au-delà desquels une personne morale réalise un audit énergétique, le décret n°2014-1393 du 24 novembre 2014 relatif aux modalités d’application de l’audit énergétique et son Arrêté d’application du 24 novembre 2014. Ces trois textes définissent les conditions et modalités de réalisation de cet audit et son périmètre. Ils prévoient notamment les modalités d’exemption en cas de système de management de l’énergie, le périmètre et la méthodologie de l’audit, les modalités de transmission des documents, les conditions de reconnaissance de l’indépendance et de la compétence des auditeurs.

Réaliser un audit ou se faire sanctionner

Les actions d’économies d’énergie préconisées dans le rapport d’audit sont classées de façon à prioriser les actions à mettre en place. Il hiérarchise ainsi les actions dont le temps de retour sur investissement est de moins d’un an, entre un et quatre ans ou au-delà. L’Article L233-4 de la loi n° 2013-619 du 16 juillet 2013 prévoit des sanctions en cas de non réalisation de l’audit ; l’autorité administrative peut alors mettre l’intéressé en demeure de se conformer à ces obligations. « Lorsque l’intéressé ne se conforme pas, dans le délai fixé, à cette mise en demeure, l’autorité administrative peut lui infliger une amende dont le montant est proportionné à la gravité du manquement, à sa situation, à l’ampleur du dommage et aux avantages qui en sont tirés, sans pouvoir excéder 2 % du chiffre d’affaires hors taxes du dernier exercice clos, porté à 4 % en cas de nouvelle violation de la même obligation », précise l’article en question.

A l’opposé, si les investissements préconisés par l’audit sont réalisés, le ministère de l’écologie estime que, selon la nature de l’activité, les économies peuvent atteindre jusqu’à 30 %, et dépasser 50 % pour la part de la consommation liée au bâtiment. Se conformer à la réglementation serait donc la meilleure solution pour éviter les sanctions et faire des économies, tout en améliorant la performance de son entreprise.

Qui peut réaliser ces audits?

Les audits énergétiques devront être établis selon la méthode décrite par les normes européennes EN 16247 Parties 1 à 4. La norme NF EN 16247-1, publiée en 2012, instaure la méthodologie générale et les actions à mener tout au long des étapes d’un audit énergétique. Les normes EN 16247-2 bâtiments, EN 16247-3 procédés industriels, EN 16247-4 transports, publiées en juillet 2014, exposent quant à elles les modalités spécifiques au secteur d’activité correspondant. Ces trois normes complètent la norme EN 16247-1, mais ne la remplacent pas. Pour une entreprise qui réalise ses activités de façon similaire dans différents bâtiments, l’arrêté prévoit la possibilité de réaliser l’audit sur un échantillon de ces bâtiments selon une procédure précisée dans son annexe I.

Cet audit peut être mené par un prestataire externe ou par du personnel interne à l’entreprise. Dans le premier cas, le prestataire doit être titulaire d’un signe de qualité dans chacun des domaines dans lequel il réalise l’audit énergétique (bâtiments, procédés industriels ou transport) conforme à un référentiel d’exigences défini par la norme NF X 50-091 et délivré par un organisme accrédité. Ces exigences sont complétées par des critères additionnels définis dans la partie 1 de l’annexe II de l’arrêté. Dans le second cas, le personnel interne ne doit pas participer directement à l’activité soumise à l’audit sur le site concerné et doit respecter les critères définis dans la partie 2 de l’annexe II de l’arrêté.

Par Matthieu Combe, journaliste scientifique

Audit énergétique : où en sont les entreprises ?

Sur les 90 entreprises interrogées, 65 % étaient concernées par la nouvelle réglementation sur l’audit énergétique. Parmi elles, 24 % l’avaient terminé, 60 % étaient en projet de réalisation et 16 % étaient en cours de réalisation. Parmi les entreprises concernées par l’audit énergétique, la majorité ne l’ont donc pas encore commencé à quelques mois de l’échéance du 5 décembre. Cela montre la récalcitrance de certaines entreprises à lancer cet audit.

Lancer son audit au plus vite !

 « La majorité des entreprises savent qu’elles vont être contraintes de le réaliser avant la fin de l’année mais n’ont pas commencé concrètement le travail », regrette Julien Adam, chargé de Mission Maitrise de l’Energie à l’Association Technique Energie Environnement (ATEE). Et il y a pourtant urgence à se mettre au travail, puisque ces audits requièrent plusieurs visites. Outre les bâtiments, ils intègrent le process industriel et jusqu’aux flottes de véhicules pour les salariés ou le transport des marchandises. « Il faut compter au moins une semaine pour l’instrumentation pour avoir une courbe de charge représentative », assure Julien Adam. Il faut ajouter à cela le temps de mise en contact, la définition du périmètre, la rédaction du rapport…

Au final, si le cabinet ne facture qu’entre 10 et 30 jours de travail effectif d’ingénieur, il s’écoule généralement entre 2 et 8 mois entre la prise de contact et la remise du rapport final, selon le retour d’expérience de la société de conseil Optinergie. Car il faut rappeler qu’un auditeur ne travaille généralement pas à plein temps sur un seul dossier. Cette durée dépend donc bien évidemment de la disponibilité de l’auditeur, mais aussi de nombreux autres critères, tels que la complexité des process et la taille de l’entreprise. Le coût de l’audit est également variable : entre 8 000 € et 35 000 € selon la complexité de l’entreprise et sa taille.

Mais l’audit peut coûter moins cher, car certains bureaux de conseil proposent des audits gratuits, en cherchant à se rémunérer sur des services associés : vente de matériel, ingénierie de projet ou identification de certificats d’économie d’énergie. Mais attention, car « l’entreprise va forcément avoir à faire à un auditeur qui va fortement orienter ses préconisations en fonction du service associé qu’il va y avoir derrière, et donc pas forcément de manière indépendante », prévient Julien Adam.

« Les auditeurs vont certainement être débordés par les demandes des entreprises qui se réveilleront en septembre et il sera très compliqué pour elles de finir l’audit pour le 5 décembre », prévoit l’expert. Les audits rendus avant le 5 décembre doivent couvrir 65% de la facture énergétique des entreprises, et 85% ensuite. « Le fait d’être en retard va forcément entraîner un audit plus cher puisque le périmètre est plus large. C’est une sorte d’incitation aussi à ce que les entreprises ne soient pas en retard », affirme-t-il. Notre conseil est donc simple : lancez votre audit énergétique au plus vite !

Il reste un dernier espoir pour les entreprises qui n’auront pas fini leur audit au 5 décembre  La parution des décrets et arrêtés a été assez tardive, ce qui a entraîné des retards dans la qualification des auditeurs. L’administration pourrait tenir compte de ces retards et ne pas appliquer les sanctions immédiatement. Les entreprises prendront-elles tout de même le risque de payer une amende s’élevant à 2 % de leur chiffre d’affaire? C’est à leurs risques et périls.

Par Matthieu Combe, journaliste scientifique

Audit énergétique : quels investissements selon les secteurs ?

« Les entreprises qui ont un minimum de maturité du point de vue maîtrise de l’énergie soit ont déjà fait leur audit énergétique soit savent exactement avec qui et quand elles vont le faire », prévient Julien Adam, chargé de Mission Maitrise de l’Energie à l’Association Technique Energie Environnement (ATEE). « Les autres entreprises qui ne voient pas l’intérêt vont essayer de s’y prendre au dernier moment avec la prestation la moins chère possible », note-t-il.

Il est effectivement possible de distinguer les entreprises qui considèrent l’audit énergétique comme un vrai levier de performance, qui améliore la rentabilité des usines, des entreprises récalcitrantes qui attendent le dernier moment. Cela dépend essentiellement du secteur d’activité et de la stratégie du groupe auquel l’entreprise appartient. Pour les plus motivées, l’énergie peut être ressentie comme un vecteur de communication, un levier de compétitivité et une amélioration de son image.

Quels secteurs sont les plus volontaristes ?

Globalement, les industries énergivores, telles que la chimie, la métallurgie ou la papeterie, pour qui l’énergie est le poste de dépense majoritaire, s’intéressent depuis longtemps à l’efficacité énergétique. « Pour elles, cette obligation ne change pas grand chose, elle demande juste de formaliser ce qu’ils ont déjà fait », remarque Julien Adam. Les entreprises avec des procédés énergivores sensibles devraient d’ailleurs décider de faire leur audit en interne.

En revanche, dans d’autres secteurs cela peut être très différent. C’est notamment le cas de l’industrie agroalimentaire où il reste beaucoup d’améliorations à faire. Les usines de production utilisent différents procédés et nécessitent un auditeurs aux compétences multiples. « Il y a de la production de vapeur, du froid, l’air comprimé, du séchage, du gaz, de l’électricité… cela nécessite d’avoir toutes les compétences», analyse Julien Adam. « L’agroalimentaire est moins mâture d’un point de vue efficacité énergétique qu’un producteur d’énergie ou un secteur de la chimie ou de la métallurgie», note-t-il. Elles auront donc davantage recours à des auditeurs externes. 

Dans le secteur de l’automobile et des transports, on trouve un peu de tout et les entreprises communiquent plus ou moins. Par exemple, Renault communique volontiers sur sa démarche et a centralisé la prise en compte de la directive européenne en confiant le pilotage de la démarche au responsable de la performance énergétique de ses usines véhicule. Le périmètre couvert par des audits internes ou avec des partenaires extérieures est l’Europe entière, aussi bien pour les usines, les stocks, les bureaux, les centres d’essai, que les succursales (réseau commercial). De son côté, PSA communique moins, car cela correspond moins à la stratégie de communication du groupe. 

Pour la grande distribution, l’amélioration de l’efficacité énergétique peut également améliorer la rentabilité des entreprises. Carrefour a anticipé la loi en amont et est le premier distributeur français certifié ISO 50001 depuis janvier 2014. « L’audit énergétique est souvent la première étape avant d’aller vers un système de management de l’énergie, relève Julien Adam. Pour les entreprises qui, aujourd’hui, n’ont jamais fait d’audit, c’est un non sens d’aller directement vers l’ISO50001 ». « Ce sont les entreprises qui ont une certaine maturité sur la performance énergétique, qui ont déjà fait des audits, qui connaissent déjà bien leur consommation d’énergie et leur potentiel d’amélioration qui vont en profiter pour mettre en place un système de management de l’énergie et le faire certifier », prévient l’expert. « Pour certaines entreprises qui ont un très grand nombre de sites, cela peut être moins cher d’être ISO 50001 que de faire des audits énergétiques pour chaque site », remarque-t-il également. Les grands distributeurs qui n’ont pas encore mis leur démarche en avant devront s’y mettre, ne serait-ce que pour se positionner face à leurs concurrents.

Enfin, s’il y a des petites entreprises de tous secteurs qui misent sur l’efficacité énergétique pour améliorer leur compétitivité, pour certaines, l’énergie n’a jusqu’ici pas joué un rôle important. « Certaines en profiteront pour faire un audit sérieux, d’autres feront un audit à la va vite pour pas cher », prévient Julien Adam. « Mais il est difficile de distinguer des secteurs particuliers, cette situation est diffuse dans tous les secteurs », garantit-il.

Par Matthieu Combe, journaliste scientifique

Revue du web #81 : les vidéos les plus étonnantes de mai 2015 (2/2)

Cette semaine dans la revue du Web

  • Ballet aérien des papillons bioniques de Festo ;
  • La longue valse d’une toupie dans une chambre à vide ;
  • Hasta la vista, baby : du métal liquide animé qui change de forme ;
  • Le gadget (inutile?) de la semaine : le karting à réaction de Colin Furze ;
  • Et en bonus cette semaine : assembler un immeuble de 57 étages en 19 jours.

Ballet aérien des papillons bioniques de Festo

Pour débuter notre quatre-vingt-unième Revue du Web, commençons par rendre une nouvelle petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Derniers nés de leur laboratoire de recherche, les papillons « eMotion » respirent la légèreté et se meuvent indépendamment mais en parfaite coordination, dans un ballet des plus aériens. Pour réaliser ce tour de force, pas moins de dix caméras infrarouges auront été nécessaires, quadrillant la zone test de leurs 160 images par secondes (avec une exposition de l’ordre de 250 microsecondes), et suivant la trace des papillons bioniques via leur marqueur infrarouge. Ce réseau offre à l’analyse plus de 3,7 milliards de pixels de données chaque seconde, permettant au superviseur central de contrôler de manière fluide le vol de ces drôles d’insectes.

Comme souvent chez Festo, le système de guidage et de monitorage ne semble pas souffrir de la miniaturisation à l’extrême. Les papillons « eMotion » impressionnent aussi dans leur mimétisme, produisant du haut de leurs 32 grammes un vol groupé étonnamment fidèle à celui de leurs alter ego naturels. Les ingénieurs de Festo n’en sont pas à leur coup d’essai, l’essaim de papillons « eMotion » vient en effet s’ajouter au bestiaire déjà fantastique de la compagnie allemande, composé entre autres d’un goéland robot plus vrai que nature dont nous vous parlions ici, d’une très élégante libellule robotique que vous pouvez retrouver là ainsi que d’un étonnant kangourou bionique.

La longue valse d’une toupie dans une chambre à vide

Faire tourner longtemps une toupie réclame un peu de doigté… mais quelle que soit la qualité de l’impulsion de départ, la toupie finira toujours par s’essouffler assez rapidement avant de se coucher. L’un des responsables, en dehors du support ? L’air ambiant, et la résistance qu’il offre à tout instant, ralentissant jusqu’au déséquilibre final le petit objet rotatif. Mais que se passe-t-il si l’on essaie de se débarrasser de ce dernier paramètre, ô combien encombrant ?

C’est ce qu’a voulu nous montrer un internaute éclairé sur sa chaîne Youtube, en comparant un premier lancer dans des conditions normales, puis un second lancer qui se déroulera en grande partie sous cloche, cloche faisant office de chambre à vide artisanale. Le résultat est édifiant : alors que la première impulsion fait seulement tourner la toupie dix petites secondes, le second lancer semble ne jamais vouloir s’arrêter, jusqu’à atteindre les 84 secondes. Le protocole expérimental n’est peut-être pas parfait, mais le résultat reste éloquent. On a beau être encore loin de la toupie qui tourne à l’infini du fabuleux film de Christophe Nolan, Inception, mais c’est toujours mieux que rien.

Hasta la vista, baby : du métal liquide animé qui change de forme

Le T-1000 était-il essentiellement constitué d’un alliage de gallium ? Difficile de ne pas penser au méchant androïde du film Terminator 2, réalisé en 1991 par James Cameron, lorsqu’on regarde évoluer la goutte métallique présentée dans la vidéo qui suit. Pour ceux d’entre vous qui ne seraient pas familiers avec le deuxième opus culte de la franchise américaine, le T-1000 aura autant fasciné que traumatisé toute une génération de cinéphiles, notamment grâce à ses capacités de régénération et de mimétisme, se liquéfiant puis se reformant rapidement et à l’envi.

Cette goutte d’un alliage essentiellement constitué de gallium (liquide aux alentours des 30°C), mais tout de même mâtiné d’un peu d’iridium et d’étain, se comporte de manière tout à fait particulière lorsqu’elle est plongée dans une solution d’hydroxyde de sodium (autrement dit, de la soude caustique). Lorsqu’elle est mise en contact avec une très petite quantité d’aluminium, la goutte peut bouger près d’une heure, que ce soit en parcourant une ligne droite ou en suivant une trajectoire plus complexe, voire en tournant sur elle-même, comme dans un roulement à bille. Une goutte de gallium stationnaire pourrait d’ailleurs faire office de pompe en tournant sur elle-même, une pompe charriant 50 millilitres d’eau par seconde et ne nécessitant pas d’être alimentée.

Une partie de cette poussée proviendrait du déséquilibre de charge à travers la goutte, créant un différentiel de pression entre les zones avant et arrière de l’alliage, poussant ainsi la goutte vers l’avant. L’aluminium réagirait également avec l’hydroxyde de sodium, une réaction relâchant des bulles d’hydrogène et accélérant les mouvements de la bulle. C’est par contre une fois soumis à un courant électrique que la parité avec Terminator se fait sentir. Jugez plutôt !

Le gadget (inutile?) de la semaine : le karting à réaction de Colin Furze

Vous vous souvenez de Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde ? Nous vous parlions déjà de son univers loufoque ici et , réalisant sur sa chaîne Youtube un grand écart inquiétant entre l’univers Marvel et le « Jet Bicyle », qu’il définit lui-même, non sans fierté, comme le vélo le plus dangereux au monde. La bonne nouvelle, c’est qu’il a survécu, envers et contre tout. La mauvaise nouvelle, c’est qu’il continue de faire des doigts d’honneur à sa bonne étoile, garantissant ainsi un bel avenir à notre rubrique du gadget (inutile?) de la semaine qui, vous l’aurez compris, lui est consacrée.

Le jeune inventeur s’est cette fois-ci mis en tête de créer un karting à réaction, propulsé de la plus belle manière qui soit. Pour démarrer son effrayant joujou, Colin a décidé de s’appuyer sur un couple bouteilles de gaz / souffleur de feuilles (!!!), plus simple à démarrer lorsque le moteur est froid, et ne nécessitant pas de système à injection complexe. C’est ensuite le diesel qui prend le relais, propulsant l’engin à toute vitesse. Notre petit génie britannique du DIY (« Do It Yourself », le fait-maison) n’a décidément pas froid aux yeux : peu importe que la route soit complètement défoncée, il emmène sa poubelle au moteur rougi par l’extrême chaleur à près de 97 kilomètres heure, sans ceinture ni protection. Mais en cravate.

Pour ceux d’entre vous qui voudraient le même chez eux, vous pouvez jeter un œil aux deux vidéos qui suivent, l’une expliquant comment créer le châssis, l’autre se consacrant à la partie propulsion. Vous pourrez alors vous assurer que, bien que timbré, Colin Furze sait tout de même ce qu’il fait.

Bonus : assembler un immeuble de 57 étages en 19 jours

Imaginez partir en vacances pendant trois semaines, loin de la maison… pour retrouver à votre retour un gigantesque et rutilant immeuble, flambant neuf, à quelques encablures de chez vous. Qui d’autre que l’Empire du Milieu peut se targuer d’être capable de construire un gratte-ciel en 19 jours ? Au rythme effréné de trois étages par jour, le promoteur immobilier chinois en charge du titanesque chantier et du projet « Mini Sky City », parvient à élever un immeuble de 57 étages, dans un délai record.

Situé à Changsha, capitale de la province du Hunan, à l’est du pays, le gratte-ciel aura évidemment réclamé un peu plus que les 19 jours annoncés, temps nécessaire à l’assemblage méticuleux des morceaux préfabriqués. Ce bonus de la semaine n’en reste pas moins un véritable tour de force.

Par Rahman Moonzur

Et aussi dans les
ressources documentaires :

Lutter contre le cancer en combinant magnétisme et lumière

Des nanomédicaments qui peuvent être activés à distance à l’aide de stimuli physiques externes comme la lumière ou le champ magnétique. On parle alors de thérapies dites « physiques ». C’est dans ce contexte que s’inscrivent les travaux des chercheurs des laboratoires Matière et Systèmes Complexes (CNRS/Université Paris Diderot) et Physicochimie des Electrolytes et Nanosystèmes Interfaciaux (CNRS/UPMC), menés en collaboration avec le PARCC, le Paris-Centre de Recherche Cardiovasculaire (Inserm/Université Paris Descartes), dont les résultats sont publiés dans le numéro de mars dernier de la revue ACS Nano.

Utilisant un liposome qui, rappelons-le, est une vésicule artificielle dotée d’un compartiment interne formé par des bicouches lipidiques, ces chercheurs y ont encapsulé des nanoparticules magnétiques en quantité suffisante pour le rendre ultra-magnétique, puis ont inséré des photosensibilisateurs dans sa biocouche lipidique. Ces liposomes ont ensuite été injectés directement dans la tumeur d’une souris, cette association originale de nanoparticules et de photosensibilisateurs permettant à ces chercheurs de combiner deux techniques, l’hyperthermie magnétique et la photothérapie dynamique, pour détruire intégralement les cellules cancéreuses. La première d’entre elles consiste à exciter les nanoparticules encapsulées à l’aide d’un champ magnétique afin d’augmenter la température de la tumeur et de la détruire. La seconde technique, elle, est rendue possible par la présence des photosensibilisateurs qui, lorsqu’ils sont éclairés, libèrent des espèces réactives de l’oxygène, toxiques pour les cellules tumorales.

L’association de ces deux techniques a permis ainsi d’obtenir une régression tumorale totale chez la souris, alors que l’utilisation d’une seule thérapie ne permet pas de stopper la croissance de cette tumeur. Reste désormais pour ces chercheurs a exploiter les autres propriétés magnétiques des liposomes afin d’améliorer le traitement. Visibles en IRM, ces nanopaticules peuvent être déplacées en effet à l’aide d’aimants. D’où la possibilité, suite à leur injection dans la circulation sanguine, de cibler, grâce à des aimants, les liposomes vers les tumeurs, tout en cartographiant leur destination finale par IRM. A suive…

Source : Bulletins électroniques

Et aussi dans les
ressources documentaires :

Ce problème de math a été posé à des élèves de niveau CE2

Tran Truong est professeur de mathématique au Viêtnam. Il a imaginé un exercice de calcul mis en forme de façon ludique.

Il s’agit d’un serpentin de 27 cases illustrant une série d’opérations simples aboutissant au résultat 66. Pour arriver à ce chiffre, le calcul comporte 4 additions, 3 soustractions, 3 multiplications, 2 divisions et met en jeu 13 nombres. Parmi eux, 4 sont connus (13, 12, 11 et 10). L’objectif est de retrouver la place des chiffres manquants compris entre 1 et 9, chacun n’étant utilisable qu’une seule fois.

Cet exercice a été proposé en classe de primaire, d’un niveau équivalent à celui du CE2 en France, mais aucun élève n’a réussit à le résoudre ! Intrigué, le professeur l’a donc montré à des adultes, des amis et même des confrères mathématiciens. Tous ont été incapables de le résoudre. Car l’exercice est en réalité très compliqué à solutionner si on se limite à une feuille et un crayon. Même avec une calculatrice, en tentant des combinaisons au hasard, ce véritable casse-tête vietnamien en tient en échec plus d’un.

Réalisant la difficulté de l’exercice qu’il avait créé, Tran Truong décide de mettre l’exercice en ligne. Depuis, les internautes s’arrachent les cheveux. Les amateurs d’énigmes, les amoureux des chiffres, les dingues de calcul, tous butent sur cet exercice. Pourtant, il n’existe pas une mais plusieurs solutions.

Pour ceux qui s’y connaissent un peu en programmation, une petite macro pourra en venir à bout rapidement et vous soulager les neurones. Mais c’est un peu de la triche. Alors, saurez-vous trouver une solution à ce serpentin arithmétique avec pour seules armes une feuille, un stylo et votre cerveau ?

 

 

Pour ceux qui craquent, nous vous révélons une des solutions existantes : 5,2,1,3,4,7,8,9,6 (5+(13*2/1)+3+12*4-7-11+(8*9/6)-10 = 66)

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Rapport de l’ADEME : l’analyse d’un ancien directeur de centrale nucléaire

Le texte ci-dessous est une réponse à l’article publié le 23 avril 2015 : Energies Renouvelables en France. Un ex-directeur de centrale nucléaire et un expert de l’Agence Internationale de l’Energie livrent leurs analyses.

 

Voici la réponse d’Alain Marcadé :

Le contexte : un rapport explosif de l’ADEME qui valide la faisabilité d’un mix électrique avec 100% d’énergies renouvelables (EnR) en France dès 2050, et qui est contesté par plusieurs scientifiques (dont l’auteur de ces lignes).

Ce rapport a été favorablement accueilli par plusieurs médias ; l’auteur de l’article « Energies Renouvelables en France. Un ex-directeur de centrale nucléaire et un expert de l’Agence Internationale de l’Energie livrent leurs analyses« , journaliste collaborant avec la rédaction des Techniques de l’Ingénieur en a fait la promotion, en soulignant  que le coût de ce mix était sensiblement le même que celui du mix comprenant 40% d’EnR et 50% de nucléaire, retenu comme cible par le gouvernement.

Dans les commentaires des lecteurs j’avais qualifié ces conclusions d’irréalistes, notamment en raison des moyens de stockage démesurés qu’il faudrait créer. J’affirmais que les EnR ne pouvaient que jouer un rôle d’appoint – mais néanmoins utile –  au nucléaire dans notre pays.

Sortant mes propos de leur anonymat (j’écrivais sous mon pseudo), la direction éditoriale des Techniques de l’Ingénieur a alors publié le 23 avril un article destiné à  corriger mes propos « erronés » car  basés sur des « idées préconçues ». Puis le journal m’a conseillé gentiment de me procurer le rapport complet de l’ADEME et de l’analyser en détail, en vue de rédiger un « droit de réponse » : le voici donc.

Que penser de prime abord de ce rapport  de 118 pages ?

Il a fallu plusieurs lectures attentives de ce rapport, avec l’appui de quelques amis ingénieurs à la retraite, pour en faire le tour. La méthodologie utilisée semble rigoureuse, le niveau de détail et les moyens de calcul déployés sont impressionnants.

En bref, le document  fait des hypothèses sur :

  • la consommation du pays en 2050 ;

  • l’éventail des moyens de production renouvelables disponibles et de leurs « externalités » ;

  • l’évolution des coûts d’investissement dans ces nouvelles technologies ;

…  pour proposer in fine un mix optimisé à l’aide d’un modèle mathématique. 

Sans surprise, l’éolien et le photovoltaïque (PV) se taillent la plus grande part et l’intermittence est compensée par des moyens de stockage à différentes échelles de temps et de capacité.

La surprise vient en revanche du résultat de l’optimisation, qui décrit un dimensionnement relativement « raisonnable » et  des coûts du kWh modérés (à peine supérieurs de 30% à celui du kWh d’aujourd’hui) : bref, un résultat en totale contradiction avec toutes les évaluations que nous avions faites jusqu’alors, dont l’analyse s’imposait.

Avec nos modestes moyens, par quel bout prendre l’analyse du document de l’ADEME ?

Notre réflexe d’ingénieurs a été d’engager d’abord une analyse purement technique, avant de se pencher sur les hypothèses économiques. Nous avons donc entrepris d’examiner en détails la cohérence du dimensionnement physique proposé, et de vérifier que toutes les contraintes techniques avaient bien été prises en compte. Pas facile vu la complexité du mix…

Nos « stress tests » sont consignés dans la note suivante (ICI).

Ils sont particulièrement édifiants : plusieurs erreurs ou impasses majeures ont été détectées  dans l’étude de l’ADEME, et invalident totalement ses conclusions

Cette situation est  extrêmement troublante, quand on considère la qualité des scientifiques qui ont contribué à l’étude et la durée (14 mois) de son élaboration.

Nous serions-nous trompés nous-mêmes ? Nous avons la conviction que ce n’est pas le cas, mais nous soumettons notre démonstration à la perspicacité des lecteurs des « Techniques de l’Ingénieur »  pour qu’ils nous signalent d’éventuelles insuffisances. 

En l’état actuel, nous avons toutes les raisons de penser que les lacunes sont dans le document de l’ADEME  et que certaines sont rédhibitoires.

Quelles sont ces graves lacunes ?

Elles sont au nombre de trois : 

  • un sous-dimensionnement important des moyens de production et de stockage, car ont été purement et simplement omis dans le calcul les pertes d’énergie dans le réseau, et, plus grave, le très faible rendement du procédé de méthanation utilisé pour réaliser le stockage inter-saisonnier, (même si une valeur optimiste de ce rendement est mentionnée dans le rapport.)

  • une compensation très insuffisante de l’intermittence des EnR, qui conduirait avec le mix proposé à plusieurs « black-out » par hiver dans notre pays. La démonstration s’appuie sur des courbes réelles de production intermittente facilement accessibles sur le site de RTE, et irréfutables.

  • l’oubli d’examiner la capacité des moyens mis en œuvre à assurer l’équilibre instantané du système électrique, caractérisé par le maintien de la fréquence et de la tension dans des marges étroites. Les solutions technologiques envisagées dans ce but ne sont même pas évoquées (et probablement délicates à concevoir puis mettre en œuvre). En tout état de cause, elles sont aujourd’hui un frein majeur aux tentatives concrètes de développer des mix de production électrique avec des taux significatifs de moyens de production intermittents (par ex dans les îles).

À ce niveau de l’analyse, la conclusion s’impose d’elle-même : techniquement, le mix proposé ne peut satisfaire les besoins de notre pays en électricité, pour les trois raisons précitées dont chacune suffit à invalider les résultats de l’étude de l’ADEME.

On aurait pu s’arrêter là, mais la curiosité nous a conduits à poursuivre l’analyse.

En corrigeant les erreurs et oublis de l’étude, peut-on aboutir quand même à un mix 100% renouvelable qui reste viable ?

Les conclusions de cet exercice délicat (nous ne disposons pas d’outils de modélisation) sont exposées dans la note jointe : 

  • s’il est théoriquement possible d’augmenter de manière significative les moyens de production et de stockage inter saisonnier pour compenser les pertes « oubliées », le dimensionnement qui en résulte est déraisonnable (nombre d’éoliennes, taille des électrolyseurs…) car il conduirait à des investissements et à un impact environnemental inacceptables,
  • pour passer sans coupure les périodes critiques d’hiver, la seule solution industrielle consiste à installer des TAC (turbines à combustion) alimentées par le gaz de synthèse stocké, mais la puissance requise (plus de 30 GW !) condamne cette solution ultime,
  • il n’existe pas de solution immédiate pour assurer l’équilibre instantané du réseau avec le mix proposé dans l’étude (le PV notamment peut difficilement générer ces « services système »). En s’appuyant sur l’expérience d’autres pays, on peut affirmer qu’il sera difficile de dépasser en France le seuil de 30% de moyens intermittents, et que de la R&D sera nécessaire pour progresser.

Ce qui conduit à conclure qu’une prise en compte honnête de l’ensemble des contraintes techniques ne permet pas d’envisager un mix 100% renouvelable dans notre pays à une échéance de quelques décennies.

Faisons quand même l’hypothèse que les contraintes techniques non résolues le soient d’ici à 2050 : pourrait-on alors concevoir un système économiquement rentable ?

On a sommairement chiffré, sur la base des coûts actuels, le mix 100% renouvelable de référence de l’étude ADEME, corrigé des sous-dimensionnements détectés. L’investissement à consentir est colossal : près de 750 milliards d’€ !

Évidemment, des baisses de coût se produiront d’ici 2050 sur les matériels arrivant à maturité industrielle ; mais même avec des hypothèses optimistes, on aura du mal à descendre sous 600 milliards d’€, ce qui constitue un effort inenvisageable pour nos concitoyens, d’autant que la plupart des installations à construire ont une durée de vie d’une vingtaine d’années seulement.

Ce montant est à comparer à l’effort financier qui serait nécessaire pour reconstruire la totalité du parc nucléaire avec des EPR standardisés et optimisés dont la durée de vie est de 60 ans, qui s’élève à 240 milliards d’€.

En conclusion, le nucléaire reste incontournable dans les  décennies à venir ?

L’étude de l’ADEME a le mérite de mettre en perspective un mix idyllique composé de 100% de moyens de production renouvelables en utilisant, pour compenser l’intermittence de la majorité d’entre eux, des moyens de stockage à différentes échelles de temps. 

Malheureusement, elle a manifestement sous-estimé les conséquences de cette intermittence, ce qui ne permet pas de conclure qu’un tel mix serait accessible à l’horizon 2050 dans notre pays.

Les moyens de production pilotables restent donc incontournables, en particulier le nucléaire qui est la seule énergie à ne pas émettre de CO2 ; le mix optimal à moyen terme sera donc constitué d’une base de production nucléaire complétée par des énergies renouvelables, hydraulique en tête, avec d’autres EnR non intermittentes qui ne sont limitées que par leurs possibilités physiques et leur compétitivité coût.

Il reste à définir précisément la part de ces énergies renouvelables dans un mix optimal, en sachant que des valeurs supérieures à 30-40% d’électricité intermittente constituent une gageure.

Par Alain Marcadé

L’Union internationale des télécommunications fête ses 150 ans

Article premier : « Les hautes parties contractantes s’engagent à affecter au service télégraphique international des fils spéciaux, en nombre suffisant pour assurer une rapide transmission. » Nous sommes en 1865, alors non, on ne parle pas encore de 4G. L’Union internationale des télécommunications (UIT) vient d’être fondée avec pour rôle d’encadrer l’échange d’informations à l’échelle internationale. Depuis, les moyens de communications ont bien changé et l’Article 3 « L’appareil Morse reste provisoirement adopté pour le service des fils internationaux » parait bien désuet. Aujourd’hui, l’UIT s’est adapté aux nouvelles technologies. Cette institution spécialisée des Nations Unis établit les normes des télécommunications, attribue des bandes de fréquence, définit les orbites des satellites…

garantie du secret des échanges n’est plus

Parmi les évolutions, la garantie du secret des échanges n’est plus. Alors que l’Article 5 stipulait que les parties  « […] s’engagent à prendre toutes les dispositions nécessaires pour assurer le secret des correspondances et leur bonne expédition », l’actuelle constitution précise qu’elles se « […] réservent le droit de communiquer ces correspondances aux autorités compétentes ». Au 21ème siècle, les Etats sont obsédés par la surveillance des informations, essentielle pour anticiper d’éventuelles attaques terroristes. A tel point que l’espionnage s’intéresse à tous le monde. Les documents révélés par Edward Snowden, ancien agent des services secrets américains (NSA) illustre l’ampleur du phénomène. Quel que soit le mode de communication, l’information échangée est surveillée, de façon légale ou non. Ainsi la NSA  capte un maximum de métadonnées, n’hésitant pas à exiger les informations transitant par les réseaux sociaux et les moteurs de recherche. La France, pourtant signataire de la convention télégraphique, n’est pas en reste. L’année dernière, le journal Le Monde révélait via un document interne des services secrets britanniques comment la DGSE collaborait très étroitement avec Orange pour collecter des informations, et ce, sans le consentement des utilisateurs.

Réunissant désormais 193 Etats membres et près de 700 entités du privé, l’UIT contribue principalement à assurer le développement et le bon fonctionnement des réseaux de communication, du point de vue technique et d’exploitation. « Au cours de ses 150 années d’existence, l’UIT n’a cessé de promouvoir la coopération internationale, s’employant à trouver des moyens pratiques d’intégrer, au fur et à mesure de leur développement, les nouvelles technologies de la communication, dans l’intérêt de tous » résume Houlin Zhao, Secrétaire général de l’UIT.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un belge reçoit le « Prix Nobel » du logiciel libre

C’est le ministre wallon de l’Economie Jean-Claude Marcourt qui l’a annoncé, en marge de la mission économique princière au Qatar et aux Emirats arabes unis. Cette distinction est décernée pa la Free Software Foundation.

Cet ingénieur en imagerie médicale a été récompensé au Massachusetts Institute of Technology (MIT) de Boston pour son logiciel libre « ORTHANC », en recevant l' »Award for the Advancement of Free Software ». « Il s’agit d’une belle reconnaissance pour notre pays, qui doit être mise en relation avec les efforts de développement de logiciels libres et de données libres en Belgique », a commenté le ministre.

Source : bulletins électroniques

Et aussi dans les
ressources documentaires :

Clear, l’application qui détecte les messages honteux sur les réseaux sociaux

Si les réseaux sociaux, Twitter en  tête, peuvent s’avérer utiles pour trouver un emploi, ils peuvent aussi représenter une menace pour qui aura oublié une photo “intime” publiée sur Facebook il y a longtemps, mais susceptible de ressurgir un jour, ou un tweet ridicule ou vulgaire.

Pour régler le problème, l’application Clear (nettoyage, en anglais) propose de scanner vos comptes Twitter, Facebook ou Instagram, de les analyser, puis de vous signaler des “publications négatives” à supprimer. 

Fonctionnant avec les appareils iOS, Clear a été conçu par Ethna Czahor, qui a participé à la campagne politique du gouverneur de Floride Jeb Bush, et qui a été licencié à cause d’ancien tweets sexistes ou homophobes. Selon l’américain, interviewé par le magasine Time, son application devrait permettre à l’internaute de “ne plus perdre son temps à vérifier, page après page, toutes ses anciennes publications”. Même si “le système permettant d’analyser les tweets et déterminer ceux qui sont offensants” n’est pas encore parfait et reste à peaufiner.

A noter que pour l’instant, ce programme, qui utilise des algorithmes et le superordinateur Watson, d’IBM, n’analyse que les statuts en langue anglaise. L’application est encore en mode beta, et pour être prévenu lorsqu’elle sera disponible sur l’App Store, les intéressés peuvent s’inscrire sur une “waiting list”.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Les rats éprouvent suffisamment d’empathie pour aider d’autres rats en détresse

Prenez une boite divisée en deux zones, l’une avec de l’eau et l’autre sans. Un sas sépare les 2 parties.

Placez un rat dans la moitié avec un fond d’eau de telle sorte qu’il soit à moitié immergé et un deuxième de l’autre côté. Si le rat bien au sec s’est déjà trouvé immergé dans la zone de la boite contenant de l’eau, alors il va s’empresser d’ouvrir le sas pour libérer son « ami » rat.

Une aide qu’il apportera même s’il ne s’est jamais retrouvé dans la situation du rat immergé, mais avec moins de rapidité.

A contrario, si aucune zone de la boite n’est inondée, les rats ne cherchent pas à ouvrir le sas.

Cette expérience prouve que les rats sont capables de ressentir de l’empathie vis-à-vis de leurs congénères. Mieux, cela témoigne qu’une mauvaise expérience passée renforce ce sentiment face à un congénère affrontant cette même mésaventure.

Cette aptitude à l’empathie avait déjà été suggérée en 2011 par des chercheurs de l’Université de Chicago. Ils avaient montré que des rats pris dans un appareil de contention pouvaient compter sur leurs congénères pour les délivrer.

Cette empathie, qui consiste se mettre à la place de l’autre et à ressentir ses émotions, n’est donc pas réservée à l’être humain. A ce jour, la capacité de ressentir de l’empathie est attribuée aux singes, aux dauphins, aux éléphants, et donc aussi aux rats.

  • Voir la vidéo de l’expérience :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un hacker affirme avoir réussi à prendre le contrôle d’un avion et à le dévier de sa trajectoire

« Je suis sur un Boeing 737/800, voyons voir la boite IFE ICE SATCOM. […] Mettez vos masques à oxygène ». Ce tweet publié le 15 avril vers 22h par Chris Robert n’a pas vraiment fait rire le FBI. Alors que ce spécialiste en sécurité informatique est tout juste débarqué à Syracuse, la police l’arrête pour un interrogatoire en règle. Et confisque son équipement informatique au passage. 

Chris Robert aurait réussi à s’infiltrer dans le système de l’avion en branchant son ordinateur au Seat Electronic Box grâce à un câble modifié. De quoi lui permettre d’atteindre l’In-flight Entertainement System (IFE) que sont les écrans placés à l’arrière des sièges pour visionner des films par exemple, puis le système de contrôle de l’avion, le Thrust management computer. Chris affirme avoir pu contrôler l’un des moteurs et fait faire un mouvement de côté à l’avion dans lequel il se trouvait.

Toutefois, la confusion règne sur les piratages réalisés en vol et ceux réussis sur des simulateurs de vol. Notamment la prise de contrôle de la trajectoire de l’avion qui ne serait « que » virtuelle, les seuls piratages réussis en vol se limiteraient à l’affichage de messages sur les écrans des passagers. 

A la tête d’une société de cybersécurité, Chris Robert aurait déclaré avoir hacké une dizaine d’avions entre 2011 et 2014. A ce jour, aucune charge n’est retenue contre lui. Chris Robert est connu pour s’intéresser de prêt à la sécurité des avions avec pour objectif affiché de l’améliorer, il donne même des conférences à ce sujet. Désormais sous étroite surveillance, le hacker ne devrait plus s’amuser à pirater des avions, réels ou virtuels, comme il l’a lui-même confirmé via twitter : « Vu la situation actuelle, on m’a conseillé de ne plus parler ».

Par Audrey Loubens

La directive Seveso 3 pourrait secouer les industriels

La troisième version de la directive 2012/18/UE, dite “Seveso 3”, qui concerne la maîtrise des dangers liés aux accidents majeurs impliquant des substances dangereuses, entre en application le 1er juin 2015. Un texte très important pour les industriels : le référentiel qui permet de déterminer la nature d’une substance dangereuse sera désormais basé sur le système de classification des substances et mélanges du réglement européen CLP (“Classification, Labelling, Packaging”). 

Ce référentiel international, promulgué en 2009 par le Parlement européen, et qui entrera en vigueur dans le même temps, était déjà obligatoire  pour les substances depuis 2011. Il s’appliquera désormais aux mélanges à partir du 1er juin.

Le référentiel du CLP distingue 16 classes de dangers physiques, alors que le système précédent n’en définissait que 5. Il distingue aussi 10 classes de dangers pour la santé (contre 9 précédemment). Les fiches de sécurité (FDS) et les étiquettes des mélanges de produits dangereux devront être modifiés en conséquences.

Le classement Seveso dépendant des quantités de substances dangereuses présentes, de nombreux établissements devraient entrer ou sortir du dispositif – selon Actu Environnement, les changements devraient concerner, en France, plus de 200 installations sur un total de 1200. Selon Anabel Lahoz, ingénieur à l’Ineris, interrogée par le site spécialisé, “pour les établissements qui étaient déjà classés Seveso et qui le restent, les changements sont moindres, la directive Seveso 2 ayant fait ses preuves.”

La législation Seveso aurait ainsi, selon la Commission européenne, “ joué un rôle fondamental dans la réduction de la probabilité d’accidents majeurs impliquant des substances dangereuses et l’atténuation de leurs conséquences, étant donné que le nombre d’accidents signalés a diminué de 10% entre 2000 et 2008, en dépit de l’augmentation du nombre d’établissements”.

Mais le 1er juin, des entreprises qui n’étaient pas classées Seveso pourraient entrer dans le champ de Seveso 3, en raison de ce référentiel, qui reconsidère les produits en fonction de leur dangerosité – des produits classés inflammables en Seveso 2 étant par exemple considérés comme “très inflammables” par Seveso 3. Pour ces industriels, une importante réorganisation sera probablement nécessaire.

Par Fabien Soyez

Publication du rapport sur l’énergie éolienne en Allemagne en 2014

En 2014, 4665 MW d’éolien terrestre ont été installés – un niveau maximal qui dépasse même le record de 2002 de plus de 45%. En puissance cumulée, ce sont désormais un total de 38 215 MW d’éoliennes qui sont en service à travers l’Allemagne. Pour la première fois, des nouvelles installations ont été réalisées dans tous les Lander allemands. La plus forte augmentation a eu lieu dans le Schleswig-Holstein avec 1 293 MW, suivi par la Basse-Saxe avec 600 MW (régions septentrionales plus venteuses). La plus grande augmentation en pourcentage est cependant à relever dans le sud de l’Allemagne, en Bavière (+27%). Les turbines de 3 et 4 MW occupent les plus grandes parts de marché. Les installations ont en moyenne un diamètre du rotor de 99 m et une hauteur de 115 m.

Dans le domaine offshore, 141 éoliennes ont été mises en service pour un total de 523 MW (dans les parcs éoliens de DanTysk, Mer Vent Sud / Est, Nord-Est et Riffgat (partiellement)), de sorte qu’à la fin de l’année 2014, un total de 1 044 MW a été installé dans les eaux allemandes. Par ailleurs, 286 éoliennes offshore supplémentaires, avec une capacité totale de 1 269 MW, ont été installées, mais n’étaient pas encore connectées au réseau à la fin de l’année 2014. Dans le monde entier un total de 2 693 éoliennes offshore ont été mises en service représentant une puissance cumulée de 8 493 MW dans 104 parcs éoliens offshore.

Avec une production totale de 161 TWh issue des énergies renouvelables, l’Allemagne couvre ainsi 27% de ses besoins en électricité. Pour la première fois, les énergies renouvelables (tous types confondus) étaient la principale source de production d’électricité en Allemagne : au cours des neuf premiers mois, davantage d’électricité a été produite par des sources renouvelables que par le lignite. En couvrant 9,7% de la consommation d’électricité en Allemagne, un pourcentage similaire au gaz naturel, l’énergie éolienne est en pleine expansion, et représente ainsi un solide pilier de la transition énergétique en Allemagne.

Le rapport sur l’énergie éolienne en Allemagne 2014 documente et illustre le rôle de l’énergie éolienne dans le mix des énergies renouvelables, le développement de l’énergie éolienne onshore et offshore, et les défis de l’intégration du réseau à l’aide de nombreuses exemples. Dans ce rapport annuel, le Fraunhofer IWES fournit, des statistiques sur le développement de l’utilisation de l’énergie éolienne depuis 1991. Depuis 2009, le rapport inclut des informations sur le développement de l’énergie éolienne offshore. Depuis 2011, des rapports spéciaux (« Special Reports ») donnent un aperçu des tendances et priorités actuelles. En 2014, les auteurs ont identifiés les thèmes de recherche suivants :

  1. Les matières premières critiques pour l’expansion de l’énergie éolienne
  2. La performance des éoliennes
  3. Les facteurs régionaux du marché de l’éolien
  4. L’impact de la nouvelle procédure d’appel d’offres en Allemagne
  5. Les scénarios pour l’expansion de l’éolien offshore en Allemagne

Source : Bulletins électroniques

Et aussi dans les
ressources documentaires :

Les routes électriques : une possible réalité pour l’avenir des transports ?

Les scientifiques japonais s’intéressent à un nouveau type de route pouvant alimenter une voiture électrique. Le concept étudié par le professeur Takashi Ohira de Toyohashi University of Technology serait de transmettre l’énergie nécessaire au moteur via les pneus du véhicule. Depuis 2011 son équipe de chercheurs travaille sur le sujet en collaboration avec l’entreprise Taisei et a pu réaliser une démonstration en octobre dernier lors du salon Ceatec Japan : un petit véhicule a parcourant 5 mètres sans batterie.

Pour que les pneus puissent servir de relais entre la route et le moteur, la structure en caoutchouc isolante a été renforcée par des ceintures de métal et des câbles. Cela permet ainsi de créer un champ électrique entre 2 métaux proches mais sans contact grâce à un courant très haute fréquence.

En Janvier dernier, l’équipe a réussi à faire progresser cette technologie en faisant avancer un véhicule à 6km/h sur une vingtaine de mètres. Cette méthode élimine ainsi tout besoin de recharger son véhicule, qui peut rouler tant qu’il se trouve sur une route électrique. Taisei a ainsi pour objectif d’obtenir une version commercialisable durant l’année fiscale* 2016 afin dans de faire rouler, dans un premier temps, les véhicules se déplaçant à l’intérieur de bâtiments tels que les aéroports ou les usines. Cependant, l’entreprise espère également conquérir les routes extérieures et devrait pour cela construire dès cette année une piste extérieure et essayer de faire fonctionner un petit véhicule à environ 30km/h.

De son côté Toyota aurait testé une méthode de rechargement inductif, venue des Etats-Unis. Permettant de recharger le véhicule sans fil, une batterie reste nécessaire à son fonctionnement car cette technologie n’est pas un système d’approvisionnement permanent. De plus, certains experts estiment que cette technologie est plus coûteuse que le système de route électrifiée.

Néanmoins, la solution des routes électrifiées se heurte à de nombreux défis : le coût d’installation sous l’asphalte de la technologie, le fonctionnement des véhicules qui pourraient dévier des rails électriques de la route et seraient privés d’alimentation, l’humidification de l’asphalte modifiant la transmission route-pneus, l’effet des champs électromagnétiques sur le comportement des véhicules électriques et non-électriques…

Source : Bulletins électronqiues

Et aussi dans les
ressources documentaires :

Les députés confirment le plafond nucléaire de 63,2 GW

Les sénateurs avaient décidé que la capacité maximale de la production d’électricité d’origine nucléaire serait 64,85 gigawatts, afin que la mise en service de l’EPR de Flamanville (Manche) ne se traduise pas, dès 2017, par l’arrêt de deux réacteurs supplémentaires.

L’UMP Julien Aubert comme le MRC (chevènementiste) Jean-Luc Laurent ont tenté en vain de défendre la suppression de ce seuil au nom de la défense de « la filière d’excellence » de l’industrie nucléaire française.

« Pareille limitation aurait pour effet d’affaiblir notablement notre indépendance énergétique et la compétitivité de nos centrales à l’exportation », a jugé M. Aubert

La fermeture de Fessenheim, réaffirmée début mars par François Hollande pour la fin du quinquennat et qui permettrait de respecter ce plafond « sera une fermeture idéologique, pour l’exemple », a déploré M. Laurent.

L’objectif de ce seuil est « de réduire notre vulnérabilité à une seule technologie », leur a répondu l’écologiste Denis Baupin.

Ce seuil est par ailleurs en cohérence avec l’objectif du projet de loi de réduction à 50% à l’horizon 2025 de la part du nucléaire dans la production d’électricité, a-t-il souligné.

Les députés achevaient dans la nuit de jeudi à vendredi l’examen du projet de loi qui sera soumis à leur vote solennel mardi 26 mai

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le soleil est-il la solution au manque d’eau potable ?

Alors qu’un tiers de la population souffrirait du manque d’eau potable selon l’OMS, ce problème éminemment urgent risque fort de s’aggraver dans les années à venir avec l’accroissement de la population. Si les techniques de production à l’échelle industrielle n’évoluent pas, un milliard d’êtres humains pourraient ne pas avoir accès à cette ressource vitale en 2050. L’une des questions qui se pose aujourd’hui est comment apporter ce service aux pays qui en ont le plus besoin, en tenant compte du fait qu’ils n’ont parfois pas accès à l’électricité non plus. Il faudrait une solution économique, écologique, autonome, et avec un haut rendement.

Ce sont ces contraintes qu’ont dû considérer l’équipe d’ingénieurs du MIT et son partenaire Jain Irrigation Systems, une entreprise spécialisée dans les systèmes d’irrigation et d’alimentation solaire. Ensemble, ils ont créé une usine mobile capable de dessaler l’eau des océans en utilisant l’énergie du soleil pour faire fonctionner un électrodialyseur. 

L’électrodialyse, comment ça fonctionne ? « L’électrodialyse est une technique qui assure une extraction des ions suffisamment ionisés d’une solution. » Elle est notamment utilisée pour le dessalement de l’eau, et consiste alors à faire migrer les ions vers les électrodes sous l’effet d’un courant électrique. Des membranes seraient ensuite employées pour la séparation de l’eau salée et de l’eau douce.

Le système serait très efficace à en croire David L. Chandler, un des membres de l’équipe, « 90% de l’eau salée pompée pourra ressortir de l’usine en étant potable ». Un rendement bien supérieur aux résultats obtenus normalement, estimés entre 40 et 60%. Et surtout, moins cher. Ce système pourrait subvenir aux besoins d’un village dit-on, si le nombre d’habitants ne dépasse pas 5 000.

Gagnante du concours Securing Water For Food, dont le but est depuis 2013, d’accélérer les innovations dans le domaine de l’eau et la nourriture (au niveau production notamment) afin de les rendre accessibles dans des conditions optimales aux régions démunies, l’équipe du MIT s’est vu attribuer le prix Desal 2015 pour son invention. Elle a ainsi touché 127 000 euros afin de l’aider à poursuivre ses tests dans le monde entier; après avoir déjà essayé son usine mobile au Mexique et en Inde.

Par sébastien Tribot

Et aussi dans les
ressources documentaires :

L’intelligence artificielle joue aux jeux d’arcade

L’intelligence artificielle est un pan de la recherche que Google entend développer coûte que coûte. Le célèbre moteur de recherche procède depuis quelque temps à de nombreuses acquisitions de sociétés dans ce but, notamment DeepMind, une start-up londonienne rachetée en janvier 2014 pour 400 millions de dollars et dont l’IA est le coeur de réflexion. 

Cette dernière est à l’origine d’un système baptisé Deep-Q-Network (DQN) au croisement de deux technologies : le Deep Neural Network (DNN) et le Q-Learning. Placé dans les mêmes conditions qu’un être humain – l’usage d’une manette devant un écran -, DQN s’est servi de sa mémoire et de son expérience pour établir des schémas de jeux pertinents. En deux semaines d’apprentissage, l’algorithme s’est montré capable de développer ses propres stratégies, jusqu’à se révéler plus performant que l’homme dans 22 des 49 jeux d’arcade testés.

Pour le moment, les jeux conçus dans les années 80 sont les plus prisés par DQN car ce sont les plus simples en terme de stratégie et de modélisation. Mais ils demandent malgré tout un minimum de réflexion. Pour Breakout et Space Invaders, par exemple, l’algorithme a su trouver seul la méthode la plus efficace pour engranger le plus de points possible. Ce qui n’a pas été le cas pour certains jeux, tel que Montezuma’s Revenge, qui sont restés incompris. Les jeux des années 90 vont également avoir droit à ce traitement mais leur complexité supérieure – du fait de la 3D et du nombre plus important de pixels à analyser – va rendre plus difficile l’apprentissage. 

Vous vous demandez peut-être jusqu’où ira DQN aux jeux vidéo. Rassurez-vous, son développement impressionnant a beau être assez rapide, il n’est pas près de venir concurrencer l’homme dans des jeux plus complexes et à l’environnement plus vaste style Warcraft ou Gran Theft Auto. Car bien que l’algorithme, comme le rapporte Volodymyr Mnih, chercheur à DeepMind, soit « capable d’apprendre directement de ses expériences – et donc plus proche de la manière dont les humains apprennent, et dont nos cerveaux construisent des modèles », le nombre de paramètres des jeux actuels est tel qu’il n’est pas encore en mesure de tous les assimiler et de développer une vision du jeu à long terme comme peut le faire l’homme. On peut aussi se demander si DQN comprend réellement le sens des actions entreprises – outre le fait de savoir qu’elles rapportent des points.

Quoi qu’il en soit, tout cela est vraiment encourageant. Et même si de gros progrès sont encore attendus, cette avancée ouvre de nouvelles perspectives. Des applications pourraient en effet être envisagées à plus long terme, comme les voitures sans pilote mais aussi dans l’imagerie médicale, si l’intelligence artificielle continue son avancement.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

TEST- Avez-vous la personnalité pour faire carrière ?

Êtes-vous plutôt introverti ou extraverti ? Les premiers puisent l’énergie en eux-mêmes, quand les seconds la trouvent au contact des autres. Et cela n’a rien d’anodin… pour la carrière professionnelle. Selon une étude américaine réalisée par l’éditeur de tests californien Truity, et dévoilée en février 2015, les personnes extraverties réussissent mieux professionnellement. Elles sont mieux payées, accèdent à des postes plus élevés et sont plus heureuses dans leur travail que les introvertis. En chiffres : les extravertis gagnent environ 50 000 dollars annuels (44 369 euros), encadrent près de 5 personnes et notent leur satisfaction professionnelle à  4/5, quand les introvertis culminent à 40 000 dollars annuels (35 495 euros), ne gèrent pas plus de 3 personnes et attribuent à peine plus de 3/5 à leur satisfaction pro.

44 369 euros annuels pour les extravertis, 35 495 pour les introvertis

Intitulée « Personnality type & career achievement, Does your type predict how far you’ll climb ? » que l’on peut traduire par « Types de personnalités et carrière, Votre personnalité prédit-elle jusqu’où vous irez ? », cette étude repose sur les réponses à des questionnaires en ligne fournies par 4 367 volontaires sur la question du salaire, 2 501 sur les responsabilités managériales et 2 053 sur la satisfaction au travail. Des volontaires qui avaient, au préalable, passés le célèbre test MBTI (Myers Briggs Type Indicator).

Les 16 types de profils psychologiques

Ce test de personnalité inventé en 1962 permet, notamment, de savoir si une personne est extravertie ou introvertie. Il évalue aussi 3 autres dimensions psychologiques pour aboutir à 16 types de profils psychologiques. Pour savoir à laquelle vous correspondez, faites le test (en choisissant la langue française). Selon votre résultat, vous saurez à quoi vous en tenir… Mais vous pourrez aussi découvrir votre profil psychologique et les métiers qui y correspondent (dans l’infographie en anglais ci-dessous, réalisée par Truity).

Par Elodie Buzaud

Source : cadremploi
Premier site emploi privé pour les cadres et les dirigeants en France

Les performances impressionnantes du train à lévitation Maglev

Voilà que le TGV est à la traîne. Autrefois détenteur du record de vitesse (avec une pointe à 574,8 km/h en 2007), le fleuron des trains français s’apprête à être relégué en deuxième position avec l’arrivée prochaine des trains à sustentation magnétique.

Cette nouvelle génération de train, dont on parle de plus en plus, est encore en phase de test. Dernièrement, la compagnie centrale ferroviaire ‘Central Japan Railway’ a fait part des performances impressionnantes de son poulain, le dernier Maglev, suite à un test effectué dans la préfecture de Yamanashi – au centre de la région du Chūbu. Le prototype, en reliant les villes d’Uenohara et Fuefuki, a pu atteindre les 600 km/h, alors qu’il tractait sept wagons, apparemment sans passagers. Il s’agit du nouveau record de vitesse en la matière.

Une performance rendue possible grâce au procédé de mise en lévitation magnétique. Le Maglev se sert en effet des forces magnétiques pour se déplacer. De fait, il n’entre jamais en contact avec les rails et supprime donc la résistance au roulement (la déformation des roues due au poids du train), ce qui lui permet de gagner en rapidité.

L’objectif de la compagnie japonaise est la mise en service effective en 2027 du JR-Maglev. Seuls les habitants de Tokyo et Nagoya seraient pour le moment concernés. Il est prévu que le train relie ces deux villes, distantes de 260 kilomètres, en quarante minutes soit un gain de temps de quarante minutes par rapport à la version actuelle. Le montant des travaux est estimé à 42,7 milliards d’euros pour la ligne, et environ 65 milliards concernant le projet dans son intégralité.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

En vidéo : Méthodes pour l’efficacité énergétique des procédés industriels

Cette conférence comporte deux parties principales :

La première, présentée par Assaad Zoughaib, proposera une méthodologie de conception et d’amélioration de procédés industriels pour atteindre la haute efficacité énergétique. Après avoir introduit quelques éléments de contexte spécifiques à l’utilisation de l’énergie dans l’industrie, le regard sera porté sur les différentes étapes de l’analyse énergétique allant de l’audit énergétique, des méthodologies d’analyse énergétique, jusqu’à la proposition de solutions usuelles et/ou innovantes.

La seconde partie, présentée par Jérémie Fricker et Karim Besbes, sera une mise en pratique de la démarche sur un cas industriel réel. En effet, l’étude portera sur un procédé énergivore de l’industrie agroalimentaire. Nous verrons comment l’analyse énergétique proposée a permis la conception d’un procédé innovant. La réalisation et l’utilisation d’un prototype industriel a démontré des économies d’énergie et d’eau considérables tout en respectant les exigences de qualité du produit.

UE : +6,9% pour les immatriculations de voitures neuves en avril

Lors de ce meilleur mois d’avril en volume depuis 2009 pour le marché automobile européen, les groupes français ont tous deux progressé mais c’est de loin Renault qui s’est le mieux comporté avec un bond de 14,9%, tandis que PSA Peugeot Citroën n’a gagné que +2,1%, a précisé l’Acea.

Le mois dernier, « tous les grands marchés ont contribué à l’expansion totale » du marché européen, a noté l’organisation. Le premier en volume, l’Allemagne, a ainsi crû de 6,3% et le deuxième, le Royaume-Uni, de 5,1%.

Suivent la France (+2,3%) et l’Italie, où 148.800 voitures neuves ont été mises sur les routes le mois dernier, une hausse de 24,2%. L’Espagne, cinquième en nombre d’unités dans l’UE, croît quant à elle de 3,2%. Ces deux derniers pays avaient vu leurs marchés fondre de moitié au cours de la crise de 2008-2013.

Cette crise, même si les volumes n’ont pas encore retrouvé leur niveau de 2008, semble n’être plus qu’un mauvais souvenir, puisque avril a constitué « le vingtième moins consécutif de croissance » du marché automobile européen, a remarqué l’Acea. Sur les quatre premiers mois de 2015, le curseur reste très largement installé dans le vert: +8,2%.

Toujours groupe préféré des Européens, VW voit ses immatriculations progresser de 5,6% sur un mois, soit moins bien que le marché dont il détient toutefois plus du quart (26,1%). Depuis le début de l’année, il épouse la tendance du marché, croissant de 8,3% grâce à la forme de sa marque Volkswagen (+9,3%).

Effritement des positions en revanche pour PSA, qui passe de 11,3% à 10,8% de parts de marché sur un mois. Peugeot progresse de 5,6% mais Citroën est atone (+0,6%) et DS, en manque de nouveaux modèles, sombre (-17,9%).

Renault affiche de son côté une santé éclatante en avril: les immatriculations des voitures frappées du losange ont progressé de 15% et celles de la marque à bas coût Dacia de 14,5%. Le groupe Renault a du coup grimpé à 10,6% de part de marché (+0,7 point) et avec 124.195 voitures, n’est qu’à 1.400 unités derrière PSA.

Sur la période janvier-avril, l’entreprise dirigée par Carlos Tavares caracole loin devant son rival français avec 504.287 unités contre 459.185. La croissance de PSA reste toutefois en retrait de celle du marché (+3,3%), et pâlit face à celle de Renault (+11,4%).

tq/cb/pre/jh

 

 

 

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Boites noires : l’utilisation de DPI semble inévitable

Le nouveau texte de loi relatif au renseignement, très loin de faire l’unanimité, prévoit de “détecter, par un traitement automatique, une succession suspecte de données de connexion” en utilisant des “boites noires”.

Peu d’informations ont filtré sur la nature de ces “boites noires”, mais il s’agirait d’installer des appareils de “traitement de données” sur les équipements réseaux des opérateurs télécoms, des hébergeurs et des fournisseurs de services. Selon le gouvernement, les boites noires contiendront des algorithmes, qui devraient permettre de retrouver, dans une énorme masse de données transitant sur Internet, de possibles suspects – grâce au data mining

La CNCTR, la Commission nationale de contrôle des techniques de renseignement, vérifiera les algorithmes – qui nécessiteront d’être régulièrement mis à jour, les terroristes étant susceptibles de trouver des parades pour leur échapper. Cette commission validera au cas par cas la désanonymisation des données collectées – des métadonnées (adresses IP de sites web, heures et dates de connexion) principalement, assure le gouvernement.

Un “travail ciblé” grâce à une surveillance massive

Selon l’exécutif, la surveillance sera “localisée”, et non massive. Pour détecter les menaces sur Internet, les algorithmes se baseront sur une compilation de modèles de comportements suspects.

Mais pour nombre d’experts, ce “travail ciblé” risque d’être très difficile. Alexandre Archambault, ancien cadre chez Free, constate, dans l’émission d’Arrêts sur Image “14h42”, que les algorithmes risquent d’être “inopérants” sur les “données de flux”, qui circulent en permanence sur le réseau des FAI. “Pour que cela fonctionne, il faudrait stocker ces données, pour pouvoir ensuite les analyser. Le texte parle d’analyse de mots-clés en temps réel, ce qui signifierait que le trafic d’un abonné serait routé dans une interface dédiée, accessible aux policiers”, indique-t-il.

Selon Alexandre Archambault, pour cibler quelque 3000 terroristes dans la masse gigantesque de données circulant sur les réseaux des hébergeurs, des fournisseurs de service et des opérateurs, il faudrait en outre installer 50 000 raccordements sur les équipements des FAI, les DSLAM. Ce qui reviendrait à travailler, au final, avec les métadonnées et les données de l’ensemble de la population française.

Pour filtrer, classifier et analyser les flux Internet chez les FAI, il semble inévitable, aux yeux d’un grand nombre d’experts, que les services de renseignement auront recours à des outils de DPI (deep packet inspection). Cette technique consiste à inspecter, en profondeur, des paquets réseau (IP, le plus souvent). Ces paquets peuvent être “bloqués” selon une liste de critères définis par le FAI, et être ensuite routés, afin d’être analysés à part.

Des métadonnées au payload

Problème : les DPI sont tristement connus pour être utilisés par certains régimes dictatoriaux, afin de surveiller des opposants, ou de pratiquer la censure sur Internet – car les paquets peuvent aussi être bloqués. Un DPI permet de lire les couches 2 (liaison de données) et 3 (réseau) du modèle OSI, modèle de référence d’interconnexion des systèmes ouverts, mais parfois, l’analyse peut aller jusqu’à la couche 7 (application), ce qui permet d’accéder au “payload” – les entêtes HTTP (ce qui permet d’obtenir des informations détaillées sur la navigation d’un internaute), ou les “sujets” d’un mail, voire son contenu.

“Si vous voulez des mots-clés sur des recherches ou des vidéos, cela se passe au niveau du fournisseur de service, pas du fournisseur de réseau. Mais si vous voulez les obtenir, discrètement, via un FAI, ou via les opérateurs télécoms, il faut taper dans la couche 7, et la seule solution, c’est le DPI”, affirme Alexandre Archambault. En outre, “le gouvernement parle de regarder des vidéos, des mots-clés, ou des mots de passe. Ce ne sont pas des métadonnées, mais des contenus, et pour les analyser, il faut un DPI”, ajoute-t-il.

Ce système de surveillance massive et d’interception de communications électroniques permettrait ainsi aux services de renseignement d’intercepter et d’examiner le contenu d’un paquet IP, à la fois l’entête et les données, d’e-mails ou d’appels VoIP (par exemple, sur Skype). Si des éléments de navigations sont déclarés comme suspects grâce aux algorithmes de la boite noire, les FAI pourraient être contraints de transmettre l’identité de l’internaute aux enquêteurs, sans avoir besoin de l’autorisation d’un juge.

En réaction au projet de loi, Tristan Nitot, membre du CNN (conseil national du numérique), a lancé un mouvement de protestation, “Ni pigeons, ni espions”. Des hébergeurs ont rejoint les rangs de ce groupe, comme Gandi, Ikoula, ou OVH, qui menace de délocaliser ses activités si la loi est adoptée.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Mesurer, analyser et innover : CIM 2015

Lieu d’échanges techniques entre les différents acteurs de la mesure (utilisateurs industriels de moyens de mesure, experts techniques, laboratoires publics et privés, fabricants et prestataires), ce congrès est unique en Europe.

Il présente les évolutions des techniques de mesure, les avancées R&D et leurs implications pour l’industrie, et montre comment la mesure améliore, au quotidien, les processus industriels et la maîtrise des risques.

6 tables rondes industrielles sont organisées autour de thématiques très variées :

  • Les bonnes pratiques en santé

  • Transition énergétique : la métrologie relève le défi
  • L’analyse sensorielle au service de la métrologie
  • Externaliser la fonction métrologie : rêve ou réalité ?
  • Agroalimentaire : le plus métrologique
  • Mesure et maîtrise des risques : nouvelle approche ISO 9001

Près de 180 conférences seront présentées sur des sujets très variés, abordant les grands  domaines  techniques  :  mécanique,  température,  dimensionnel  et  3D,  débit,  électricité, optique. Sans oublier les sujets répondant aux préoccupations actuelles : la sécurité dans le secteur médical et l’agroalimentaire, les défis liés à la transition énergétique, les nanotechnologies…

Plus de 1 000 participants venant d’une cinquantaine de pays sont attendus, l’occasion de mieux comprendre la mesure tout en entretenant son réseau.

Le CIM 2015 est organisé conjointement avec ENOVA, Les 2 organisateurs ont créé le point de rencontre entre le congrès et le Salon au cœur de l’exposition : le Village Métrologie.

Les temps forts du CIM 2015

  • L’animation quotidienne sur le Village Métrologie : sur cet espace ouvert à tous se retrouvent les visiteurs du salon, les exposants qui souhaitent se rapprocher du Congrès et les participants inscrits au CIM.

Les exposants enregistrés sur le Village Métrologie au 7 avril sont les suivants : A+ Métrologie, Acalime, Aérométrologie, Alicona, AOIP, Aremeca, Automated Precision Europe, Beamex, Bruker, Carl Zeiss, Cetiat, Cofrac, Czech Metrology Institute, Delta Mu, E+E Elektronik, E2M, Ecole Supérieure de Métrologie, Endress & Hauser, Eotech, Felix Informatique, Furness Controls, GE Measurement & Control, Geomnia, Guildline Instruments, Hexagon Metrology, Implex, Innovalia Metrology, Insavalor, Insidix, JRI, Kréon Technologies, LNE,  Manumesure,  MB  Electronique,  MCE  Microvu,  Measurements  International,  Meatest,  Metrologic Group, Mettler Toledo, Nikon Metrology, Olympus, Rotronic, Sematec, Sika France, Symetrie, Testo Industrial Services, TME, Trescal, Werth Messtechnik, Wika Instruments.

  • La session d’ouverture du 21 septembre avec 2 interventions sur des sujets émergeants en métrologie :

– La métrologie dans les services par le groupe La Poste

– Métrologie et criminalistique par la Police Judiciaire de la Gendarmerie Nationale

  • La  conférence  plénière  du  23  septembre  « Métrologie  4.0 »  avec  des  interventions  des  plus  grands organismes  mondiaux  de  métrologie –  le  NIST  américain,  le  NPL  anglais  et  la  PTB  allemande  –  sur  la métrologie de demain qui pointe déjà son nez dans notre quotidien …
  • L’intervention de Monsieur Claude Cohen Tannoudji, Prix Nobel de Physique 1997, lors de la session de Clôture du jeudi 24 septembre après-midi

Participer au CIM c’est …

  • rencontrer les « bonnes » personnes qui vont conduire plus rapidement aux « bonnes » solutions,
  • nouer une vraie relation professionnelle avec des homologues,
  • comprendre l’apport décisionnel de la métrologie dans les processus industriels,
  • découvrir les technologies et les solutions de notre quotidien de demain.

Le programme complet et l’inscription en ligne sont accessibles sur le site www.metrologie2015.com

Par C.C

Best of des IG Nobels… de littérature

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de littérature !

 

  • 1997 : le prix Ig Nobel de littérature a été décerné aux Israéliens Doron Witztum, Eliyahu Rips et Yoav Rosenberg, ainsi qu’à l’Américain Michael Drosnin pour s’être laissés convaincre que la Bible dissimulerait un code secret. Les trois Israéliens ont publié leurs travaux, « Séquences de lettres équidistantes dans le livre de la Genèse », alors que Michael Drosnin s’est rendu célèbre en utilisant ce séquençage de lettres dans son livre, « La Bible : le code secret », prétendant que ces codes pouvaient servir de base pour prédire l’avenir.

Pour la petite histoire, deux mathématiciens ont appliqué cette méthode à « Guerre et Paix » de Tolstoï, trouvant ainsi de nombreux messages « cachés » et invalidant quelque peu la méthode du séquençage. Mis au défi par Michael Drosnin de trouver dans « Moby Dick » un message caché concernant l’assassinat d’un quelconque premier ministre, un chercheur et professeur de mathématiques australien, Brendan McKay, aurait trouvé des allusions aux meurtres d’Indira Gandhi, de Léon Trotski, de Lincoln, de John Fitzgerald Kennedy, de Martin Luther King, ainsi qu’à l’accident de Lady Diana.

Léon Trotski, assassiné d’un coup de piolet. Copyright Brendan McKay

 

  • 1999 : prix décerné à l’institut britannique de standardisation qui, dans son souci méticuleux de tout vouloir standardiser, a tout de même écrit une spécification de six pages (qui se cache derrière l’obscur BS-6008) ayant trait à la méthode idoine d’infusion du thé.

 

  • 2005 : les « arnaqueurs nigérians » sont à l’honneur cette année, le prix venant récompenser leurs talents de griots, dans la création de petites histoires avec des personnages fictifs hauts en couleur, mais réunis par la même volonté de partager généreusement un confortable butin avec la bonne âme qui voudra bien les sortir du pétrin.

La fraude 4-1-9 (du numéro de l’article du code nigérian sanctionnant ce scam) ferait encore aujourd’hui de nombreuses victimes.

George Abed, un homme qui a très envie d’investir tout son argent avec vous

 

  • 2009 : le prix Ig Nobel de littérature de cette année fut décerné aux services de police irlandais, pour avoir émis plus d’une cinquantaine de contraventions au multirécidiviste le plus coriace de l’île, « Prawo Jazdy », dont le nom en polonais veut en fait dire… « permis de conduire ». Pas évident de s’y retrouver… Une Polonaise, détentrice d’un permis de conduire polonais, est venue chercher le prix, au nom de tous ses compatriotes, profitant de l’occasion pour saluer les policiers irlandais.

Le vrai Prawo Jazdy, un garçon bien sous tous rapports

 

  • A venir : le best of des IG Nobels… de physique

Par Rahman Moonzur

5 paysages de science-fiction (qui existent pour de bon)

La Structure de Richat

Également surnommée « l’œil de l’Afrique », la Structure de Richat est une gigantesque formation circulaire de 50 km de diamètre située en plein désert du Sahara, près de Ouadane (Mauritanie). Vue du ciel, elle ressemble à un monumental œil bleu-vert, ou à un fossile géant. Elle fut découverte lors d’un vol spatial Américain, en 1965, et à cause de sa taille et de son aspect caractéristique, elle est longtemps restée un point de repère pour les astronautes. On pensait à l’origine que la Structure de Richat était due à l’impact d’une météorite, mais cette théorie n’expliquait pas la relative platitude de la formation, dont les dénivelés atteignent environ 40 m. L’interprétation la plus couramment acceptée aujourd’hui est celle d’un dôme volcanique géant qui se serait effondré sur lui-même au cours d’une érosion de plusieurs millions d’années. Cependant, jusqu’à ce que les hypothèses soient confirmées, l’origine exacte de ce phénomène unique reste une énigme pour les chercheurs.

L’île de Socotra

Arbres Sang de Dragon sur l’île de Socotra.

Au Nord-Ouest de l’Océan Indien se trouve une île qui redéfinit toute notion de paysage « terrestre ». Située à 350 km des côtes du Yemen, l’île de Socotra est la plus grande de l’archipel qui porte son nom. Elle fut détachée du continent Africain il y a 6 millions d’années, et cet isolement géologique a donné naissance a une biodiversité phénoménale : Socotra abrite 800 espèces de plantes rares dont un tiers sont endémiques, ce qui signifie qu’elles n’existent nulle part ailleurs sur la planète. Parmi les spécimens les plus étranges, on trouve notamment l’arbre concombre, le figuier de Socotra et son aspect improbable, ou encore l’arbre Sang de Dragon, dont la sève rouge servait de teinture et d’onguent magique dans l’antiquité. La faune n’est pas en reste et compte plusieurs espèces d’oiseaux uniques au monde. Les 42 000 habitants de l’archipel parlent le soqotri, une langue non-écrite, et leur mode de vie est encore très traditionnel : la première route n’a été installée qu’en 2008 par le gouvernement Yéménite. C’est d’ailleurs suite à ce projet controversé que Socotra à été inscrite au patrimoine mondial de l’Unesco, afin de limiter le développement des infrastructures, et garantir la préservation des trésors naturels de l’île.

La Grotte des cristaux

La Grotte des cristaux – Photo © Carsten Peter/Speleoresearch & Films.

En l’an 2000, des mineurs de la compagnie Peñoles ont fait une découverte extraordinaire en forant une galerie dans les mines de Naica, au Mexique. À  300m de profondeur, ils ont trouvé par hasard une grotte dont la chambre principale contient les plus grands cristaux jamais découverts. Dans cette cavité de 30 m sur 10, de gigantesques colonnes de cristal s’entremêlent dans une configuration surréaliste qui n’est pas sans rappeler les visions de Jules Verne, ou encore la « Forteresse de la Solitude » de Superman. Le plus impressionnant des cristaux mesure 11 m de long pour un poids de 55 tonnes. Hormis son incroyable beauté, la grotte est également un endroit très dangereux pour l’homme : la température y approche les 60 °C, et le taux d’humidité y est de 100 %, ce qui fait qu’une exposition de plus d’un quart d’heure sans protection peut s’avérer fatale pour l’organisme. L’exploration de la grotte est aujourd’hui possible grâce aux opérations de pompage de la compagnie minière, mais en temps normal, elle est submergée par une eau sous haute pression saturée de minéraux, et chauffée par une poche de magma souterraine. Ces conditions extrêmes expliquent la formation de cristaux, qui n’ont cessé de grandir durant des millénaires.

Le Salar de Uyuni

Jeep traversant le Salar de Uyuni – Photo © Volker Banken.

Situé à plus de 3 600 m d’altitude, sur les hauts plateaux de la Bolivie, le Salar de Uyuni est le plus grand désert de sel du monde. Formée suite à l’asséchement d’un gigantesque lac préhistorique, cette étendue blanche de 12 500 km² offre également l’un des paysages les plus « extra-terrestres » qu’il puisse être donné de contempler. Lorsque le Salar est recouvert d’eau, sa surface devient réfléchissante comme un miroir, et il devient presque impossible de dire où s’arrête le sol et où commence le ciel. Les rares objets visibles à l’horizon donnent l’impression de flotter dans l’air, et les visiteurs ont souvent l’impression d’être perdus au milieu d’un océan blanc, sans point de référence. Au centre du Salar, on peut voir des « îles » couvertes de cactus géants, vestiges de volcans submergés durant la préhistoire, comme l’île d’Incahuasi. Les touristes venus apprécier ce paysage irréel peuvent même trouver des hôtels dans la zone, entièrement fabriqués en blocs de sel du fait de l’absence de matériaux de construction, et de la distance des villes. Hormis ses réserves de sel quasi illimitées, le Salar de Uyuni contient 50 à 70 % du lithium exploitable sur la planète. On estime qu’avec la production toujours grandissante de batteries d’appareils portables et de voitures hybrides, la demande de lithium devrait tripler durant les 15 prochaines années, ce qui pourrait bouleverser l’avenir de la Bolivie, aujourd’hui pays le plus pauvre d’Amérique du Sud.

Le Wulingyuan

Les piliers brumeux du Wulingyuan.

Inscrit depuis 1992 au patrimoine mondial de l’Humanité, le Wulingyuan est un parc national qui se trouve dans la province du Hunan, au sud de la Chine. Le site est connu pour ses spectaculaires piliers de grès, sculptés par des millénaires d’érosion, et qui constituent une véritable forêt de pierre. Environ 3 000 pics s’élèvent ainsi vers le ciel, dont certains dépassent les 400 m. À cause de son humidité, la région est fréquemment recouverte d’une mer de brume dont seuls les sommets émergent, comme suspendus dans le ciel. La végétation luxuriante qui longe le flanc des pics achève de donner à l’ensemble l’aspect d’une jungle de science-fiction. Les peintres chinois ont fait du Wulingyuan une source intarissable d’inspiration, mais, et c’est plus surprenant, certains cinéastes hollywoodiens aussi : James Cameron aurait utilisé des photos du Wulingyuan pour créer les montagnes flottantes de la planète Pandora, où se déroule l’action du film Avatar. Suite au succès colossal de l’œuvre, les autorités locales ont d’ailleurs décidé de rebaptiser un des pics jusqu’ici connu sous le nom de « Pilier du ciel et de la terre » en « Montagne Alleluia Avatar ». La boucle est bouclée…

Source : Axolot

10 façons dont votre esprit vous manipule

L’effet Forer

Également connu sous le nom d’effet « Barnum », célèbre homme de cirque américain qui disait qu’« à chaque minute naît un gogo », l’effet Forer désigne l’impression qu’une description vague s’applique spécifiquement à notre personnalité. Ce phénomène fut découvert en 1948 par le psychologue Bertram Forer, lorsqu’il fit passer un test de personnalité à ses étudiants. En guise de résultat, Forer rendit à chacun le même assemblage de phrases types qu’il avait recueilli dans divers horoscopes : « Vous avez besoin d’être aimé, mais pourtant vous êtes critique avec vous-même. Vous avez certains points faibles, mais vous savez généralement les compenser. Vous pouvez être bavard et sociable, mais à certains moments vous êtes plutôt réservé… ». Quand Forer demanda à ses étudiants d’évaluer l’exactitude des analyses qu’ils avaient reçues sur une échelle de 1 à 5, la moyenne des notes fut de 4,26 ! La puissance de l’effet, jamais démentie, s’explique notamment par la tendance que nous avons à écarter les descriptions inexactes pour nous concentrer sur celles qui nous conviennent. Sans l’effet Forer, l’astrologie, la voyance, la numérologie et la plupart des pseudo-sciences n’auraient sans doute pas le même succès…

La dissonance cognitive

Lorsque nos croyances sur le monde entrent en contradiction avec les faits, ou quand la vision que nous avons de nous-même est en décalage avec nos actes, nous éprouvons une tension mentale qu’il nous faut réduire à tout prix, quitte à réinterpréter la réalité. Ce phénomène s’appelle la « dissonance cognitive ». Le psychologue Léon Festinger développa ce concept en 1956, après avoir étudié le cas d’une secte dirigée par une certaine Marian Keech. Cette dernière prétendait recevoir des messages d’extraterrestres, qui lui annoncèrent la fin du monde pour le 21 décembre 1954. Seuls les adeptes de la secte seraient secourus à bord de soucoupes volantes. Quand le jour de la prophétie arriva, mais qu’aucune soucoupe ne manifesta le bout de ses hublots, Marian ne se démonta pas : elle expliqua à ses adeptes que grâce à leur ferveur, l’apocalypse avait été reportée. Fait surprenant, seules deux personnes quittèrent le mouvement suite à ce flop cosmique, les autres virent leur foi redoublée. Ils préférèrent « adapter » la réalité à travers le filtre de leur croyance plutôt que de remettre cette dernière en question. Cette façon de sélectionner les informations qui confirment notre vision du monde fait partie de notre arsenal de défense face aux dissonances…

Le conformisme

Imaginez que vous soyez convié à un test de vision. On vous assoit dans une pièce en compagnie de 6 autres volontaires, et un expérimentateur fait son entrée pour vous expliquer la marche à suivre : l’exercice consistera à dire si des lignes présentées sur une série d’affiches sont plus petites ou plus grandes qu’une ligne de référence tracée sur un tableau. Les participants devront donner leur réponse à l’oral, chacun à leur tour. Au début, l’expérience se déroule normalement ; les réponses semblent évidentes, et tous les participants sont d’accord. Mais au bout d’un moment, alors que l’expérimentateur présente une ligne manifestement plus longue que la ligne de référence, tout le groupe la désigne comme étant plus courte. C’est à votre tour d’exprimer votre opinion : allez-vous suivre la majorité, ou dire ce que vous pensez ? Ce qu’a découvert le psychologue Solomon Asch lorsqu’il a mené cette expérience en 1951, c’est que sur une série de questions où le groupe a manifestement tort, 37 % des questionnés se rallient systématiquement à la majorité, reniant leurs propres perceptions. Bien sûr, il n’y a qu’un seul véritable cobaye, les autres participants étant des complices de l’expérimentateur. 75 % des sujets suivent le groupe au moins une fois, et seuls 25 % ne se laissent jamais influencer. Notre tendance au conformisme s’explique par la pression sociale : nous craignons d’être rejetés par nos semblables, et si le plus grand nombre n’est pas d’accord avec nous, on se persuade qu’il a probablement raison…

La paréidolie

La paréidolie est un effet psychologique très puissant qui nous pousse à percevoir des formes précises à partir de stimuli vagues et indéterminés. Elle témoigne d’un besoin très humain qui consiste à donner du sens au chaos. Les exemples au quotidien sont nombreux : voir un visage dans les motifs d’une tapisserie ou distinguer des animaux dans les nuages sont des cas de pareidolie que nous connaissons tous. Le phénomène est particulièrement présent dans le contexte religieux : on ne compte plus les visages du Christ identifiés sur des chips, des taches d’humidité ou encore des écorces d’arbres. Dans certains cas, les apparitions présumées déclenchent un engouement colossal, comme à Clearwater en Floride où plus d’un million de personnes se déplacèrent pour voir la Vierge sur les vitres d’un bâtiment, ou encore à Singapour en 2007 lorsque des milliers de pèlerins crurent voir un dieu-singe sur un tronc d’arbre. Le célèbre test de Rorschach pendant lequel des patients doivent dire ce qu’ils perçoivent dans une série de taches est un exemple de paréidolie utilisée à des fins psychothérapeutiques. Enfin, le « visage de mars » est un des cas de pareidolie les plus connus. Mais le phénomène ne se limite pas aux stimuli visuels, et il peut notamment expliquer les hallucinations auditives qui nous font percevoir des paroles de chansons qui n’existent pas, ou encore des « messages sataniques » dans certains morceaux passés à l’envers…

Les corrélations illusoires

C’est toujours quand on est en retard que les feux sont rouges, il se met toujours à pleuvoir quand on vient de laver sa voiture, et c’est toujours quand on est sous la douche que le téléphone sonne. Si vous vous retrouvez dans ce genre d’affirmations, popularisées par la célèbre loi de Murphy, c’est que vous êtes victimes des corrélations illusoires. Cette tendance à créer des relations entre des événements qui n’en ont pas s’explique notamment par le besoin que nous avons de donner du sens à ce qui nous arrive. En réalité, les feux ne sont pas plus rouges quand on est pressé, mais nous préférons nous focaliser sur les cas qui confirment notre théorie, en oubliant les autres. C’est le « biais de confirmation ». Les corrélations illusoires sont la source de nombreuses croyances populaires : vous avez sans doute entendu dire que le nombre de suicides augmentait les nuits de pleine lune, ou que certaines personnes sentaient leurs rhumatismes se réveiller en fonction de la météo. Dans les deux cas, les recherches ont montré qu’il n’y avait aucun lien statistique entre ces événements, mais les personnes qui y croient se concentrent sur les fois où leur théorie fonctionne. Les corrélations illusoires expliquent aussi la persistance de certains préjugés raciaux ou sexistes : il est plus simple de se cramponner à des stéréotypes préétablis plutôt que d’analyser chaque cas rationnellement…

Les faux souvenirs

En 2003, le Dr Elizabeth Loftus confronta des étudiants qui avaient tous visité Disneyland dans leur enfance à un prospectus vantant les mérites du célèbre parc d’attractions. On pouvait y voir Bugs Bunny serrant la main d’un enfant. Quand on leur demanda d’évoquer leurs souvenirs du parc, 35 % des étudiants se rappelèrent de leur rencontre avec Bugs Bunny, allant parfois jusqu’à préciser qu’il tenait une énorme carotte. Évidemment, Bugs Bunny étant un personnage de la Warner, il n’a jamais foulé le sol de Disneyland. La publicité était fausse, tout comme les souvenirs des participants. Cette expérience fait partie des nombreuses recherches qui mettent en avant le syndrome des « faux souvenirs », cette tendance que nous avons à nous rappeler de choses que nous n’avons pas vécu. Si les conséquences de ce phénomène semblent anodines dans l’exemple mentionné, elles peuvent être bien plus graves lorsqu’elles s’appliquent à des témoignages de crimes, ou encore dans le cadre de la psychothérapie : certains praticiens peuvent influencer les patients à se souvenir de traumatismes imaginaires, qui permettent ensuite d’expliquer leurs troubles. Dans d’autres cas, des souvenirs réellement vécus peuvent être altérés, voire transformés, par l’environnement socio-culturel, ou par l’influence de personnes persuasives. Ainsi, on pense que les témoignages d’ordre surnaturel tels que les enlèvements d’extraterrestres peuvent en partie découler du phénomène.

La cécité d’inattention

Dans une expérience célèbre, les psychologues Simons et Chabris demandèrent à des étudiants de regarder un petit film dans lequel deux équipes jouaient au basket. Leur tâche consistait à compter le nombre de passes que se faisaient les joueurs. À la fin du film, les participants donnèrent pour la plupart un chiffre correct, mais lorsqu’on leur demanda s’ils avaient remarqué quelque chose de bizarre dans la vidéo, quasiment personne ne mentionna le comédien déguisé en gorille qui avait traversé l’écran en s’arrêtant à mi-parcours pour se frapper la poitrine des deux poings. La « cécité attentionnelle » définit cette tendance parfois spectaculaire que nous avons à ignorer ce qui se trouve sous nos yeux lorsque notre attention est concentrée sur autre chose. De la même manière, notre cerveau est très peu compétent lorsqu’il s’agit de repérer des changements dans une scène après une coupure, comme lorsqu’on détourne le regard quelques instants : dans une expérience de Simons et Levin, l’expérimentateur demande son chemin à des inconnus dans la rue. Pendant qu’ils parlent, deux ouvriers passent entre l’expérimentateur et son cobaye avec un grand panneau. Un deuxième expérimentateur caché derrière le panneau en profite pour prendre la place du premier, qui s’en va discrètement avec les deux complices. Une fois le panneau passé, la plupart des passants testés continuent à renseigner leur interlocuteur comme si ce dernier n’avait pas changé. On parle alors de « cécité au changement ». Ces deux phénomènes impressionnants témoignent de la façon dont le cerveau n’enregistre qu’un petit nombre de détails pour fabriquer notre perception de la réalité, en privilégiant des blocs d’informations, sans quoi nous serions submergés. C’est aussi pour ça que vuos arrievz à lrie cette prhase fcailenmet, bein que les lerttes soeint dans le désrdore : vrote cevraeu lit cahque mot cmmoe un tout.

La croyance en la justice du monde

Face aux malheurs d’autrui, nous préférons parfois penser que rien n’arrive par hasard, et que ceux qui souffrent ont mérité leur sort. L’idée d’un monde injuste dans lequel nous pourrions souffrir sans raison est intolérable, et il est plus rassurant de croire que chacun est responsable de ce qu’il lui arrive. En psychologie, cette vision d’un destin prévisible en fonction de nos actes est appelé « croyance en la justice du monde ». En 1987, une expérience fut menée dans plusieurs hôpitaux : une infirmière demandait à différents patients s’ils voulaient bien prêter leur montre à d’autres malades qu’ils ne connaissaient pas. Les patients choisis étaient classés en 3 catégories distinctes : ceux qui allaient être opérés, ceux qui avaient déjà été opérés, et ceux qui ne savaient pas encore s’ils allaient être opérés ou non. Ce furent ces derniers, plongés dans l’incertitude, qui acceptèrent le plus largement de prêter leur montre, comme si l’altruisme pouvait influencer le sort en leur faveur. Ce concept de justice immanente nous rend le monde plus supportable, et nous donne une illusion de sécurité tant que nous agissons dans les règles. On le retrouve en religion à travers des idées telles que la punition divine, ou le karma. Malheureusement, c’est aussi cette croyance qui pousse certains à blâmer les victimes pour les malheurs qu’elles subissent, qu’il s’agisse de viols ou de maladies…

Les prophéties auto-réalisatrices

Imaginons que vous soupçonniez votre nouveau collègue de bureau d’être acariâtre et renfermé sur lui-même. Vous évitez alors de lui parler, lui disant à peine bonjour. En retour, votre collègue va se sentir indésirable et préférera rester à l’écart. Vous interprétez son attitude comme une confirmation de vos soupçons, sans réaliser que vous en êtes la cause. Lorsqu’une prédiction influence ainsi directement la réalisation de ce qu’elle prédit, on parle de « prophétie auto-réalisatrice ». On retrouve les effets pervers de ce phénomène dans de nombreux domaines, comme celui de la course aux armements : un pays redoute que son voisin prépare une attaque, et décide d’augmenter le nombre de ses missiles. En conséquence, le pays soupçonné va traduire cette attitude comme une menace, et va lui aussi accroître son armement. Les deux protagonistes vont ainsi alimenter un cycle d’hostilité où chacun verra ses doutes confirmés par la réaction de l’autre. Les prophéties auto-réalisatrices font partie des phénomènes qui, avec entre autres l’effet Forer, permettent d’expliquer l’efficacité apparente de l’astrologie ou de la voyance. Si vous lisez dans votre horoscope que la journée se passera mal, vous vous focaliserez probablement sur les événements négatifs, vous serez de mauvaise humeur, et la prédiction sera directement responsable de ce qu’elle annonçait. De la même façon, si une voyante vous prédit que vous rencontrerez l’âme sœur dans un délai de 3 semaines, vous aurez probablement une attitude beaucoup plus chaleureuse et engageante que d’habitude, facilitant par conséquent la réalisation de la prophétie. Le psychologue Richard Wiseman avance que le phénomène peut faire office d’effet placebo lorsqu’on se l’applique à soi-même : une personne qui est persuadée d’avoir de la chance saisira d’avantage d’opportunités et participera à plus de concours, augmentant ainsi nécessairement ses chances de réussite.

La connaissance rétrospective

Combien de fois avez-vous entendu des gens prétendre qu’ils connaissaient la bonne réponse après qu’elle ait été donnée ? « Je le savais déjà », « j’étais sûr que ça se passerait comme ça », « je savais qu’il serait élu », « la crise était prévisible », autant de déclarations auxquelles nous somme confrontés quotidiennement. Vous-même, en lisant cet article, vous vous êtes peut-être dit que vous connaissiez déjà tous les phénomènes mentionnés. Si c’est le cas, vous pourriez être victime du « biais de connaissance rétrospective ». Cette illusion psychologique, liée à l’organisation de la mémoire, nous donne l’impression que nous savions depuis longtemps une information que nous venons d’apprendre. Dans une expérience qu’il mena en 1975, le psychologue Baruch Fishhoff fit lire à plusieurs groupes d’étudiants un article concernant la guerre qui opposa les Anglais aux Gurkas du Népal en 1814. Il raconta ensuite à chacun des groupes comment s’était terminée la guerre, en donnant à chaque fois une fin différente. Il demanda ensuite aux participant s’ils auraient pu deviner l’issue de cette guerre avant qu’elle ne leur soit révélée. Tous les étudiants affirmèrent qu’ils en auraient été capables, aussi bien ceux qui avaient été trompés que les autres. La connaissance rétrospective explique pourquoi les événements semblent si prévisibles à certains analystes une fois qu’ils sont arrivés, qu’il s’agisse d’économie, de politique ou de société…

Source : Axolot