Comment lutter contre le stalking et effacer ses traces

Ces informations ne sont pas là par hasard : il s’agit de données que vous avez confié, un jour, à certains sites. Il peut s’agir de comptes que vous avez créé il y a longtemps, de blogs ou de forums internet. Il peut aussi s’agir de réseaux sociaux, comme Facebook.

Que faire ? Effacer vos traces – sans forcément faire appel à une société spécialisée dans la suppression des traces numériques.

Ménage de printemps

Commencez par faire un tour sur vos comptes sur les réseaux sociaux. Sur Facebook, rendez-vous dans les options en cliquant sur le cadenas en haut à droite de votre compte. Rendez inaccessibles les informations que vous partagiez jusqu’ici avec les “amis de vos amis” ou avec le “public” – et ne les partagez plus qu’avez vos amis proches, grâce à des listes où vous les aurez placé au préalable.

Vous pouvez aussi être plus radical, et supprimer votre compte, en vous rendant sur la page dédiée. Pour conserver les photos partagées sur votre compte, Facebook propose de télécharger une archive de vos données, via l’option « télécharger une copie de vos données sur Facebook » (dans “paramètres”). Pour supprimer vos comptes Twitter ou Google +, il vous suffira de vous rendre dans les options de Twitter, ou dans les informations de votre compte Google.

Après ce ménage de printemps, il vous restera à lister les URL des sites, blogs ou forums qui possèdent des informations sur vous. Ensuite, contactez les responsables de ces sites, via la rubrique “contact”, ou via les mentions légales, puis demandez leur de supprimer ce qui vous porte préjudice. En cas de refus, vous pourrez adresser une plainte à la CNIL. Concernant Google et sa mémoire d’éléphant, vous pouvez remplir ce formulaire, mis en place récemment.

Barrez la route aux “stalkers”

Une fois vos traces supprimées, il ne vous restera plus qu’à adopter une certaine ligne de conduite, afin de ne plus partager d’informations avec le plus grand nombre, notamment avec les “stalkers”, ces individus qui aiment espionner les autres grâce à Google.

Il suffit de bien paramétrer vos comptes sur les réseaux sociaux, et de bien réfléchir avant de publier une photo ou un commentaire, qu’il s’agisse de Facebook, ou encore de Twitter ou YouTube.

Par Fabien Soyez

Comment sécuriser votre ordinateur portable en cas de vol

Verrouillez votre appareil

Première chose à faire : verrouiller votre appareil. Créez un mot de passe que vous devrez entrer à chaque démarrage. Cela ralentira la personne ayant accès à votre ordinateur. Mais vous devrez garder à l’esprit que pour “craquer” votre ordinateur, il suffit d’utiliser un logiciel de récupération de mots de passe (Ophcrack ou Offline NT Password & Registry Editor pour Windows, Kon-Boot pour Mac), ou de rebooter l’ordinateur puis de passer par les lignes de commandes pour Ubuntu et Linux.

Chiffrez vos données

Le mieux est donc de rendre vos données illisibles en les chiffrant. Windows et Mac vous permettent de chiffrer votre disque dur, avec leurs systèmes intégrés Bitlocker et FileVault 2, quand Linux vous le propose lors de l’installation du système. Mais ces systèmes ne sont pas infaillibles, et l’on s’interroge toujours sur l’existence de “backdoors”, permettant de déjouer le chiffrement. En outre, toutes les éditions de Windows n’intègrent pas BitLocker : il faut posséder une version Professionnelle ou Intégrale. D’où l’utilité de chiffrer vous-même vos fichiers, avec des logiciels tels que RealCrypt, NCrypt, AxCrypt, ou AESCrypt, qui vous permettront de créer des dossiers virtuels chiffrés.

Installez un logiciel de suivi

Ces précautions vous permettront de faire perdre du temps aux voleurs, le temps d’agir à distance, grâce à un logiciel de suivi préalablement installé sur votre ordinateur, comme Absolute LoJack ou Beebip. Cette solution “antivol” vous permettra de géolocaliser votre ordinateur volé, de le verrouiller, puis de supprimer son contenu. Le mouchard sera caché dans le BIOS, ce qui empêchera tout voleur de le supprimer en installant un nouveau système d’exploitation.

Sauvegardez vos données

N’oubliez pas, enfin, de sauvegarder régulièrement vos données ailleurs. Vous pouvez les stocker dans le Cloud, mais vous pouvez aussi utiliser un disque dur externe USB, couplé à un logiciel de synchronisation, tel que Cobian Backup ou Areca Backup, qui copiera toutes vos données de façon automatique.

Les disques externes restent limités en taille de stockage. Ainsi, vous pouvez aussi copier vos données sur un serveur distant, qu’il s’agisse d’un serveur FTP que vous aurez créé vous-même sur une autre machine, ou d’un NAS (Network Attached Storage), qui vous permettra de stocker de grandes quantités de données.

Par Fabien Soyez

Stockage en ligne : les alternatives à Dropbox

La plupart des services ont intégré le chiffrement des données dans leur technologie. Les données stockées sur Google Drive et OneDrive sont chiffrées lors de leur transfert vers les serveurs, via le protocole TLS (Transport Security Layer). Mais une fois dans le Cloud, ces données sont stockées en clair – sauf pour la version professionnelle de OneDrive.

Dropbox, Box et Apple chiffrent les données stockées, mais détiennent les clés de déchiffrement, ce qui leur permet d’accéder aux informations des utilisateurs, même chiffrées. 

En outre, les serveurs de tous ces services sont situés aux Etats-Unis, pays soumis au Patriot Act.

Zero knowledge

Il existe des services moins connus, mais proposant une offre de stockage solide et sûre.

S’il est américain, SpiderOak se démarque en rendant vos données confidentielles, via le chiffrement “zero knowledge” (connaissance zero), qui consiste à faire de l’utilisateur le seul maître à bord. Vous serez ainsi le seul à posséder la “clé” (un couple identifiant / mot de passe) nécessaire au déchiffrement des données – en local, et non sur le serveur.

Wuala est un service français, dont les serveurs se trouvent en Suisse – pays possédant des lois strictes en matière de protection des données. Comme SpiderOak, il propose un chiffrement de bout en bout.

Bien sûr, si SpiderOak ou Wuala le désirent vraiment, vos données sont toujours susceptibles d’être interceptées, via des voies détournées. Pour l’utilisateur, il s’agit avant tout d’une question de confiance.

Votre propre serveur

Reste la solution “manuelle”, encore plus sûre. Les programmes open source, tels que SparkleShare ou Git-annex, vous permettent de créer vos propres serveurs. Mais pour cela, il vous faudra vous plonger dans les lignes de commande.

D’autres logiciels, comme RealCrypt, AxCrypt, ou AESCrypt, vous permettent de chiffrer manuellement vos documents, avant de les envoyer dans les nuages. Enfin, plus simple, Box Cryptor, vous permet de chiffrer vos fichiers automatiquement, avant de les envoyer sur le service de stockage de votre choix.

Par Fabien Soyez

Bleep : une messagerie en mode privé

En juillet, les développeurs de BitTorrent, le célèbre logiciel d’échange de fichiers peer-too-peer (P2P) ont dévoilé une messagerie décentralisée et sécurisée.

Ce logiciel, Bleep, se veut sécurisé grâce à son architecture, qui repose sur le P2P : pas de centralisation, les données partent de l’ordinateur de l’utilisateur jusqu’à celui de son correspondant, sans passer par un serveur tiers – contrairement aux messageries classiques, qui stockent, même temporairement, les données dans leurs machines.

Les communications via Bleep sont intégralement chiffrées. Les clés de chiffrement ne passent pas non plus par un serveur, mais transitent directement d’un utilisateur à un autre. Bleep peut s’utiliser de façon anonyme, sans avoir besoin d’utiliser un nom d’utilisateur.

Pour l’instant, Bleep est disponible sur invitation, en version “Alpha” – sous Windows 7 et 8 (mais le logiciel s’étendra vite à d’autres systèmes d’exploitation). L’application ne propose que des conversations audio ou texte, mais la vidéo devrait rapidement arriver, dans la version suivante.

Echanges confidentiels

Sachez que Bleep n’est pas la seule application de messagerie sécurisée et décentralisée existante. Si vous souhaitez envoyer des courriels confidentiels, Bitmessage est un protocole P2P qui permet d’échanger très simplement des emails chiffrés. De son côté, Freemail, un autre logiciel de messagerie libre, passe par le serveur Freenet, un réseau anonyme et distribué, ce qui garantit l’anonymat de son utilisateur. Les emails sont aussi chiffrés.

Concernant la messagerie instantanée, TorChat est un autre client P2P de messagerie instantanée qui utilise le réseau TOR pour transmettre ses messages. Totalement décentralisé, il garantira à vos échanges une totale confidentialité.

Par Fabien Soyez

News environnement (septembre 2014) : Quelles avancées pour l’énergie solaire ? / Recharge des voitures électriques par induction…

Découverte d’une corrélation entre proximité des espaces verts et poids des bébés à la naissance

Dans une étude unique en Israël, des chercheurs israéliens et espagnols ont découvert une corrélation entre la proximité d’espaces verts pendant la grossesse et la santé du bébé à la naissance. Les données de près de 40.000 naissances ont été analysé pour parvenir à cet étonnant résultat.

Selon une nouvelle étude intitulée « Green Spaces and Adverse Pregnancy Outcomes » et publiée dans le journal Occupational and Environmental Medicine, les mères qui habitent à proximité d’espaces verts ont tendance à accoucher de bébés au poids significativement supérieur que celles vivant dans des environnements moins verdoyants.

Les chercheurs à l’origine de cette découverte viennent d’Israël et d’Espagne. Pour arriver à ce résultat, ils ont utilisé une base de donnée de près de 40.000 naissances construite à partir d’un registre d’état-civil de Tel Aviv. « Nous avons trouvé que, globalement, la proximité entre l’habitation et espace vert était associée à une augmentation significative du poids à la naissance et à une réduction du risque de faible poids à la naissance, explique le professeur Michael Friger, du département de santé publique de l’Université Ben Gourion. C’est la première étude en dehors des Etats-Unis et de l’Europe qui montre une association entre espace vert et poids à la naissance, mais aussi la première à démontrer un lien avec le risque de faible poids à la naissance. »

Cependant les auteurs ont juste mis en évidence une corrélation entre proximité des espaces verts et poids à la naissance, pas de causalité. Une explication naïve pourrait venir des différences socio-économiques : les logements près des espaces verts sont plus chers et ainsi la causalité serait plutôt entre niveau socio-économique et poids à la naissance, comme expliqué dans de nombreuses études. Mais ce n’est pas le cas : en utilisant l’indicateur SES (socioeconomic status ranking) du bureau des statistiques israélien, les chercheurs ont trouvé que l’effet de la proximité des espaces verts était indépendant du niveau socio-économique, sauf pour les niveaux les plus bas, qui profitent mieux des bénéfices des espaces verts que les autres catégories.

Les chercheurs émettent donc plusieurs nouvelles hypothèses pour expliquer ces résultats. Tout d’abord, vivre à côté d’un espace vert encourage l’exercice physique, ce qui a un impact positif sur la santé en générale. Ensuite les espaces verts peuvent avoir un effet positif sur les émotions en réduisant le stress et en aidant à la relaxation. Ce sont aussi des espaces entretenant les contacts et la cohésion sociale. Enfin, ils sont bénéfiques pour l’environnement en diminuant la pollution sonore et de l’air, tout en ayant un effet modérateur sur la chaleur urbaine.

Source : bulletins-electroniques.com

Quelles avancées pour l’énergie solaire ?

Le plastique

L’utilisation du silicium dans la fabrication de panneaux solaires est aujourd’hui largement répandue. L’utilisation du plastique, bien que sujet de recherche depuis quelques années, est elle un peu moins fréquente. Bien que les cellules solaires à base de matériaux plastiques présentent de nombreux avantages comme la souplesse ou encore le coût, l’espérance de vie du produit (2 à 3 années) est encore trop courte pour qu’il soit viable économiquement. Il faut par ailleurs que des avancées soient faites en termes de rendement car les cellules solaires à base de plastique captent aujourd’hui 10 à 15% de l’énergie du soleil, ce qui engendrerait un besoin de couverture de surface bien supérieur au silicium.

Les matériaux transparents

Le chercheur américain Richard Lunt de l’Université du Michigan a mis au point avec son équipe un concentrateur solaire transparent luminescent. Ce dernier étant transparent, il pourrait être installé sur tout type de surfaces planes, que ce soit un immeuble ou un téléphone cellulaire. L’équipe de R. Lunt a développé un système basé sur des molécules organiques absorbant un rayonnement choisi du soleil. Les rayons infrarouges et ultraviolets captés sont redirigés vers les extrémités du plastique où ils sont convertis en électricité par de fines bandes de cellules de solaire photovoltaïque. Cette découverte nécessite encore des améliorations puisque l’efficacité de la conversion de l’énergie solaire est aujourd’hui de 1%. D’après R. Lunt, un système optimisé atteindrait un rendement d’environ 5%.

Les cellules photovoltaïques organiques

Les cellules organiques sont plus complexes que les cellules à base de silicium. C’est justement ce sur quoi une équipe japonaise s’est penchée. Ils ont mis au point une méthode permettant de tester les différentes combinaisons de matériaux organiques permettant de capter l’énergie solaire. Néanmoins, la compétition est féroce et l’avenir des cellules photovoltaïques organiques est plutôt incertain. La fabrication à base de silicium voit son coût se réduire et son intégration plus facile dans des panneaux de verre lui donne une longueur d’avance sur ses concurrents.

Source : bulletins-electroniques.com

Une solution de recharge des voitures électriques par induction

Dans les appareils de la vie quotidienne, la tendance est à la disparition des câbles téléphoniques ou électriques. Pour les véhicules électriques, des chercheurs de l’Institut Fraunhofer pour les systèmes intégrés et la technologie des composants (IISB) d’Erlangen (Bavière) travaillent au développement d’un système de recharge par induction destiné au grand public.

Ces dernières années, d’autres équipes de chercheurs ont travaillé à l’application de l’induction pour la recharge des véhicules électriques. L’approche consiste jusque là à monter des bobines d’induction sur le dessous du véhicule et à installer des stations de recharge dans le sol. Différents défis sont alors à relever :

  • les bobines doivent être puissantes en raison de l’éloignement entre le véhicule et le sol (jusqu’à 15 cm). Or les bobines puissantes sont de grande taille, ce qui augmente le coût du système ;
  • la présence d’objets métalliques dans la zone d’induction, comme les emballages de chewing-gums, qui pourraient entrer en combustion ;
  • les animaux, attirés par la chaleur émise par la station de recharge, peuvent entraver le bon fonctionnement du système.

Les chercheurs de l’IISB, travaillant dans le cadre de la plate-forme de recherche « Energie Campus » de Nuremberg (Bavière), ont développé un système d’induction qui sera très proche du véhicule -quasiment en contact- et intégré dans un appareil, situé hors-sol. Les bobines sont alors réduites en diamètre (10 cm au lieu de 80 pour les systèmes habituels), rendant le système moins onéreuses. Il est également moins probable qu’un obstacle se trouve sur la zone d’induction.

Dans le schéma proposé par l’IISB, le conducteur positionne son véhicule face à une borne verticale. La charge peut avoir lieu même si le véhicule n’est pas exactement positionné au centre de la borne. Des groupes de bobines verticales situées sur le véhicule derrière la plaque d’immatriculation permettent au système d’être utilisé pour tout type de véhicule.

Des travaux ont été menés en parallèle sur l’électronique de puissance et les systèmes d’induction. Afin de minimiser les pertes énergétiques, des bobines spéciales, séparées en différentes bobines minces et isolées les unes des autres, ont été conçues. Le prototype est capable de transmettre trois kilowatts avec un rendement global de 95%. Les chercheurs travaillent désormais à augmenter la puissance globale des bobines, de manière à être en phase avec le développement actuel des batteries, et à réduire le coût de la recharge.

Source : bulletins-electroniques.com

Les voitures électro-solaires sont 200 fois plus efficaces que celles carburant au maïs

Même si cela peut sembler à première vue paradoxal, les plantes sont très peu efficaces pour mettre le soleil en bouteille, c’est-à-dire pour stocker l’énergie solaire. La finalité existentielle d’une pâquerette n’est pas d’emmagaziner de l’énergie pour les êtres humains ou pour les vaches mais de s’épanouir !

Tout d’abord les feuilles d’un végétal, par exemple un arbre ou une céréale, ne sont pas orientées de manière optimale pour capter le flux énergétique de notre étoile. Elles se font de l’ombre les unes vis-à-vis des autres. Et il n’y a pas de système de tracking permettant de faire pivoter le tronc de l’arbre et de suivre le mouvement apparent du soleil. Même le Tournesol, contrairement à ce que laisse croire son nom, ne tourne pas pour suivre la course solaire (par contre, avant la floraison, ses feuilles, et non pas la plante entière, ont une orientation héliotropique).

Seule une fraction de la surface foliaire globale capture à un instant t l’énergie solaire incidente. Une partie de l’énergie solaire n’est pas captée du tout, passe à travers les feuilles et tombe sur le sol. Une autre est réfléchie par les feuilles. Et seule une partie de l’énergie qui pénétre dans les cellules foliaires parvient effectivement au niveau des photosystèmes, le reste est perdu sous forme de chaleur. Au final environ 20% de l’énergie incidente est capturée.

Ensuite les feuilles ne convertissent que 12% de l’énergie solaire capturée. Les molécules, chlorophylles et caroténoïdes, des antennes collectrices des photosystèmes localisées dans la membrane des thylakoïdes chloroplastiques ne sont capables d’absorber que certaines longueurs d’ondes du spectre solaire. Ce qui explique d’ailleurs la couleur verte des feuilles. Seule une partie du spectre (Photosintesis Active Radiations, PAR) est actif d’un point de vue photosynthétique.

De plus 40% de l’énergie de la plante est utilisée pour la respiration cellulaire, et 60% pour les biosynthèses. Enfin il faut 8 photons d’environ 1,8 eV pour fixer une molécule de carbone, ce qui stocke 4,8 eV. L’efficacité du processus est ainsi de 33%.

Comme le montre Roland Geyer, scientifique de l’Université de Californie, l’efficacité globale de la photosynthèse au sens large est ainsi de 0.20 x 0.12 x 0.60 x 0.33 = 0.005, soit 0,5%. En réalité cette efficacité varie selon les espèces végétales de 0,1% à 2%. Les championnes du monde sont les microalgues, des organismes photosynthétiques microscopiques unicellulaires. Certaines espèces de microalgues, dont jusqu’à 75% de la masse peut être lipidique, sont capables de produire, dans des conditions idéales de laboratoire, 30 tonnes d’huile par hectare de culture et par an.

Pour les organismes pluricellulaires, c’est le palmier à huile qui remporte…la palme. Indépendamment de la croissance de sa biomasse lignocellulosique, qui n’a rien d’exceptionnelle, le palmier est en revanche capable de produire 5 tonnes d’huile par hectare et par an. Soit bien davantage que le colza (3,5 tonnes) ou que Jatropha curcas (1,8 tonnes).

Même les micro-algues et le palmier à huile ne font pas le poids

30 tonnes d’huile à l’hectare et par an pour les micro-algues, est-ce beaucoup ? Sachant qu’un litre d’huile a un contenu énergétique de 9,2 kWh en moyenne, c’est équivalent à 276 MWh par hectare et par an. A supposer que l’huile végétale pure soit utilisée directement dans un moteur thermique, c’est-à-dire sans transformations consommatrices en énergie, il ne reste en sortie de moteur thermique, dont le rendement est de 20%, que 55 MWh.

Sur un hectare on peut installer 1 MW de panneaux solaires photovoltaïques. En prenant une hypothèse basse pour le facteur de capacité (15%), on produit alors chaque année 1314 MWh. 2,5% de l’énergie électrique étant perdue en transmission depuis le panneau PV jusqu’à la prise et le rendement de la prise à la roue d’un véhicule électrique étant d’environ 72%, il reste en sortie de moteur 922 MWh.

L’efficacité de l’électro-mobilité photovoltaïque est ainsi 17 fois supérieure à celle de la thermo-mobilité photosynthétique microalgale. Il convient d’intégrer l’énergie qui a été nécessaire à la construction des panneaux PV et aussi à la culture des microalgues. L’énergie délivrée par un panneau PV permet d’en produire plus de 10 autres, autrement dit le facteur de correction est au maximum de 10%. Pour les microalgues l’énergie consommée pour les cultiver est variable selon les espèces. Même en retenant une hypothèse favorable à la filière microalgale d’une énergie consommée égale à zéro, l’écart avec l’efficacité de l’électromobilité photovoltaïque reste supérieur à 0.90 x 17 = 15 fois.

Les recherches menées en matière d’algocarburants ne sont pas inutiles: les micro-algues restent très intéressantes pour la production de molécules à intérêt alimentaire ou pharmaceutique. Et également pour la production de bioplastiques.

Pour le palmier à huile, qui est pourtant le champion des plantes terrestres, l’écart est de 90 fois. L’électro-mobilité photovoltaïque permet ainsi de réduire d’un facteur 90 l’empreinte surfacique, et de préserver les forêts primaires Indonésiennes et Malaisiennes où vit par exemple une espèce emblématique, l’Oran-Outang. Ces questions d’efficacité énergétique ont ainsi des implications majeures et très concrètes. Il ne s’agit pas de simples discussions théoriques de salon.

L’électro-mobilité solaire, une clé pour préserver la biodiversité

Dans leur étude Sun-to-Wheel (« du Soleil à la roue ») Geyer et al on effectué un comparatif entre l’efficacité de l’électro-mobilité photovoltaïque avec la thermo-mobilité photosynthétique à base de maïs ou à base de switch-grass (Panicum virgatum), qui est aussi une graminée (Spatially-explicit life cycle assessment of sun-to-wheels transportation pathways in the U.S).

Roland Geyer a calculé que si l’ensemble des carburants pétroliers utilisés par les USA étaient remplacés par des agrocarburants à base de maïs, il faudrait cultiver 2,2 millions de kilomètres carrés (220 millions d’hectares). La surface des USA (y compris celle de l’Alaska) est de 9,8 millions de km2. L’efficacité de l’électro-mobilité photovoltaïque est supérieure d’un facteur 200 à celle de la thermo-mobilité au maïs. Les conséquences en termes d’empreinte surfacique sont linéairement proportionnelles. Ces réflexions ont d’ailleurs poussé le Vice-Président Al Gore a reconnaître qu’il avait fait erreur en faisant dans le passé la promotion des agrocarburants. Avec le switch-grass le résultat est un peu moins médiocre : 48 millions d’hectares. Mais cela reste extrêmement mauvais comparativement à l’électro-mobilité photovoltaïque qui requiert une surface de seulement 1,1 million d’hectare.

« Nous faisons fausse route avec les agrocarburant » résument les chercheurs. A cause d’un facteur fondamental en amont – le rendement photosynthétique – qu’aucune amélioration technique en aval ne pourra surmonter. « La photosynthèse a des limitations fondamentales » souligne le scientifique Krassen Dimitrov de l’Université du Queensland en Australie. « Même la mise au point d’organismes génétiquement modifiés super-efficaces ne serait pertinente sur le plan économique sans complètement modifier la machine photosynthétique » (GreenFuel technologies: a case study for industrial photosynthetic energy capture).

Convertir la biomasse solide (par exemple le bois) en carburants liquides aggrave encore davantage le bilan. L’énergie requise pour cette conversion peut d’ailleurs dépasser l’énergie contenue dans le bois lui-même.

Compte des ordres de grandeur en jeu, on peut sérieusement s’interroger sur la pertinence des filières énergétiques reposant sur la collecte de l’énergie solaire avec des plantes pour produire des agrocarburants. A fortiori quand on sait que brûler ces agrocarburants dans un moteur thermique conduit à perdre entre 75 et 80% de l’énergie contenue dans ces carburants végétaux. La prise de conscience concernant les limites intrinsèques des filières agrocarburants va fort heureusement croissante, y compris dans le milieu politique.

Point fondamental, les modules photovoltaïques peuvent être installés partout. Sur les toitures des maisons et des bâtiments commerciaux, au dessus des parkings, au niveau des déserts ou sur les lacs de barrage, ce qui limite d’ailleurs l’évaporation. Leur impact sur les terres cultivables à vocation alimentaire est donc nul. Il est d’ailleurs possible d’effectuer du Solar-Sharing, c’est à dire de cultiver des plantes sous les panneaux solaires judicieusement espacés en fonction du point de compensation de la photosynthèse des espèces cultivées. Et comme le souligne Mark Jacobson de l’université Stanford, ces panneaux solaires, contrairement aux plantes, n’ont besoin ni d’engrais nitratés et phosphatés qui perturbent les écosystèmes comme par exemple avec les fameuses marées vertes, ni de pesticides qui impactent la biodiversité (dont les abeilles pollinisatrices), ni d’eau douce, une ressource précieuse et indispensable à l’épanouissement Humain.

Le phosphore, talon d’Achille de la filière microalgale

L’azote des nitrates absorbés par l’appareil racinaire des plantes ne pose pas de problème étant donné que le diazote constitue 80% de la masse de l’air et que l’on sait fixer le diazote atmosphérique pour produire des engrais (procédé Haber-Bosch). Mais les microalgues ont aussi besoin de grandes quantités de phosphates. Le phosphore est un élément indispensable à l’agriculture moderne. Or les réserves minières de roches phosphatées, principalement au Maroc et au Sahara occidental d’où le conflit entre les habitants de ces deux territoires, ne sont pas infinies. Il est donc inopportun de gaspiller ce stock pour faire rouler les voitures étant donné qu’il existe d’autres solutions.

Les panneaux photovoltaïques, eux, sont construits à partir de silicium, le second élément le plus abondant de la croûte terrestre après l’oxygène. L’entreprise Silveo (SolarCity) produit des panneaux à base de silicium et sans argent.

Et le stockage hydrogène ?

Les voitures dites « à hydrogène » sont des véhicules électriques. L’électro-mobilité à base de batterie est plus efficace que celle à base de dihydrogène. En effet l’efficacité de la production de dihydrogène par électrolyse et de celle de la pile à combustible est sur un cycle d’environ 33% selon ERH2-Bretagne-Observatoire. Cela plombe le bilan d’un facteur 2,5 comparativement à celui des batteries. Autrement dit un parc automobile reposant sur l’hydrogène requiert une surface de collecte de l’énergie solaire 2,5 fois plus importante que le même parc automobile reposant sur le stockage par batteries. Il en résulte que le plein d’hydrogène coûtera fatalement au moins 2,5 fois plus cher que le plein direct d’électricité. Ce problème de compétitivité est directement lié à des données physiques de base.

La prise en compte de l’investissement énergétique nécessaire d’un côté à la construction des batteries, et de l’autre à celle des électrolyseurs, des piles à combustible et des réservoirs à hydrogène n’élimine pas le stockage batterie de la première place du podium de l’efficacité énergétique.

S’ajoutent en outre des problèmes de sécurité soulignés par exemple dans une note d’analyse récente de France Stratégie, le Commissariat général à la stratégie et à la prospective, sous la houlette d’Etienne Beeker. Cette note a été critiquée par une association en faveur de la filière hydrogène. Pour le multimilliardaire Elon Musk, PDG de Tesla Motors et de SpaceX, les Fuel Cells (piles à combustible) sont des « Fool Cells », littéralement des piles pour idiots. Jeu de mots qui a le don d’agacer au plus haut point les promoteurs de l’hydrogène. Il en rappelle en effet un autre, celui sur les « Fossil Fuels » (« Fossil Fools », les idiots des énergies fossiles). 95% de l’hydrogène actuellement disponible sur le marché provient effectivement de l’industrie des combustibles fossiles, et non de l’électrolyse de l’eau.

L’Hyperloop solaire, le mode de transport le plus écologique du monde

Les transports aériens peuvent difficilement être électrifiés compte-tenu de la densité énergétique (massique et volumique) des batteries actuelles. Mais on peut aborder la problématique différemment. Avec l’Hyperloop électro-solaire, projet open source et coopératif d’Elon Musk, les marchandises et les personnes pourront voyager à 1100 km/h dans un tube (presque) sous-vide, et donc avec (presque) aussi peu de frottements que dans l’espace. Avec en plus un système de sustentation sur coussins d’airs, la consommation d’énergie sera minimale, et la vitesse identique à celle des transports aériens. Ceci tout en évitant les longues périodes d’attente dans les aéroports et en augmentant le niveau de sécurité. Le voyage Paris-Marseille sera alors effectué en une demi-heure. Le Bruxelles-Istanbul en 3 heures et le Londres-Pékin en 9 heures. L’Hyperloop aura des conséquences majeures tout autant en matière de transport aérien que maritime. Tant pour le transport des voyageurs que des marchandises. Et il permettra de réduire la dépendance de l’Humanité envers les carburants liquides. L’Hyperloop est le moyen de transport à la fois le plus performant et le plus écologique du monde. Que ce soit avec Tesla Motors, SolarCity ou le projet Hyperloop, sur le plan de la physique Elon Musk et ses collègues ont tout bon.

Le pétrole, lui aussi, est un agrocarburant

La biomasse dont le pétrole dérive a été formée par des micro-algues photosynthétiques océaniques il y a des millions d’années. Le stock de pétrole global, déjà brûlé depuis le début de l’ère industrielle et pas encore brûlé, est de 1200 + 1500 = 2700 milliards de barils selon l’IFP, ce qui est équivalent à 4590 PWh. Il est faible comparativement à la quantité d’énergie solaire interceptée chaque année par le disque terrestre: 1 533 000 PWh.

En 26 heures la Terre intercepte une énergie solaire équivalente à la totalité du stock de pétrole mondial déjà brûlé et pas encore brûlé. Le risque de pénurie énergétique est très relatif face à un flux photonique aussi colossal.

Par Olivier Danielo

L’Anses va étudier la toxicité des OGM sur 6 mois

Les travaux du Professeur Gilles-Eric Séralini ont été publiés le 19 septembre 2012 dans la revue américaine Food and Chemical Toxicology. Ils portaient sur la toxicité à long terme du maïs OGM NK603 et de l’herbicide total Round up de Monsanto, et tendaient à démontrer cette toxicité sur le rat. Suite à la polémique qui a enflée, plusieur travaux de recherche à l’échelle européenne sont en préparation pour étudier cette toxicité supposée.

Au niveau européen, deux projets sont en cours. L’un, dénommé GRACE, a été initié en 2012 avant la publication de l’étude Séralini, pour une durée de 3 ans. Il portait intitialement sur des études de toxicité à 3 mois sur le rat. Compte tenu du contexte, le protocole a évolué et compte désormais une étude toxicologique sur le maïs MON 810 d’une durée d’un an. L’autre projet, dénommé G-TwYST, a été lancé en septembre 2014 pour une durée de 4 ans. Il prévoit la réalisation d’études de toxicité à 1 an et à 2 ans chez le rat, suivant strictement les recommandations internationales en matière de protocole expérimental (OCDE, EFSA). Ces deux projets portent sur le maïs MON810 et le maïs NK603 traité avec du Roundup.

En France, que prévoient les pouvoirs publics?

Un projet voit également le jour en France. Il s’agit du projet OGM90+, financé à hauteur de 2,5 millions d’euros par le Ministère de l’écologie, du développement durable et de l’énergie dans le cadre du programme Risk’OGM : « Risques environnementaux et sanitaires liés aux OGM ».

OGM90+ réunit un consortium composé de l’INRA, de l’INSERM, d’universités (Toulouse, Rennes 1, Paris Descartes, Bordeaux, Lyon) et de l’Anses. Il utilisera les techniques dites « omiques », afin de mieux prévoir les potentiels effets à long terme des plantes génétiquement modifiées sur la santé. »Il s’agit d’une étude de 90 jours, prolongée à 6 mois, pour voir l’évolution des paramètres observés après le délai usuel de surveillance des animaux dans les études requises en matière d’OGM », explique Franck Fourès, directeur adjoint chargé des thématiques santé-alimentation à l’Anses. « L’étude prévoit à la fois des lots de maïs NK603 traités et non traités par du Round-up », précise-t-il.

« L’expérimentation sur animal devrait commencer au printemps 2015 pour une durée de 6 mois. Ensuite commenceront les analyses des tissus et des fluides recueillis par les méthodes omiques (protéomique, génomique, métabolomique…) et le projet devrait se terminer fin 2016″, prévient l’expert de l’Anses. »Par ailleurs OGM90+ est en interaction étroite avec le projet européen G-TwYST avec la même alimentation et la même souche de rat. Nous poursuivrons l’étude de certains paramètres en omiques sur des prélèvements à 1 an et 2 ans », prévient-il en réponse aux critiques des associations.

Pourquoi les associations se sont-elles retirées du dialogue ?

L’Anses voulait piloter un dispositif permettant d’associer les parties prenantes tout au long du processus par la mise en place d’une instance de dialogue. En mars 2014, l’Anses a donc lancé un appel public à manifestation d’intérêt et tous les représentants d’associations, d’entreprises et d’organisations ayant fait acte de candidature ont été retenus.

Au cours de la réunion de lancement qui s’est tenue le 28 mai 2014, des représentants de plusieurs organisations associatives – Greenpeace, Inf’OGM, CRIIGEN – et de la Confédération paysanne ont fait part de leur décision de se retirer de cette instance de dialogue. Le Verbatim de la réunion vient d’être rendu public. On y apprend précisément les raisons de ce refus. On reprend ici les raisons principales ayant motivé leur décision.

« Même si nous approuvons complètement le souhait de l’Anses de constituer une instance de dialogue autour du projet d’étude à long terme sur les risques toxicologiques des OGM, l’organisation de cette instance et le fait que le protocole semble arrêté et non discutable nous posent un souci », explique Anaïs Fourest, Chargée de campagne Agriculture chez Greenpeace France . »Par ailleurs, le porte-parole français de la société Monsanto étant invité à participer à cette instance qui doit se prononcer sur son propre OGM, nous ne pouvons tolérer un conflit d’intérêts aussi direct », ajoute Roxane Mitralias, Animatrice OGM de la Confédération paysanne.

Les associations regrettent également que ce projet ne dure que 6 mois, au lieu des deux ans initialement prévus. Franck Fourès, notre expert de l’Anses, qui était aussi responsable de cette instance de dialogue, explique cette décision « L’appel à projets a été assez large pour viser à couvrir tout ce que des scientifiques pourraient apporter en documentant les effets à long terme des OGM. Cela aurait tout à fait pu être une étude à deux ans. Il se trouve qu’un projet seulement a été soumis et qu’il utilise plutôt les techniques omiques, qui sont chères, ce qui fait que la durée de travail est nécessairement plus courte ».

Dans sa Déclaration relative à la sortie du programme RiskOGM et de son instance de dialogue, le CRIIGEN qui avait joué un rôle important dans l’étude Séralini critique sans détour le protocole retenu. « L’Anses précise que cette étude vient en complément d’une étude européenne d’une durée de deux ans, relative à la cancérogénicité à long terme du maïs NK603 sur le rat. Elle omet toutefois de préciser que seules les tumeurs cancéreuses seront examinées, à l’exclusion de toutes les autres pathologies.

Or, notre étude n’avait pas conclu sur les cancers, mais sur les pathologies rénales, hépatiques, les inversions de taux d’hormones sexuelles et les tumeurs mortelles qui se développaient au cours de la deuxième année », explique ainsi le CRIIGEN. De plus, « l’étude proposée est insuffisante et sera donc non conclusive, un délai de 3 mois (comme celui de 6 mois) étant trop court pour analyser une toxicité chronique, notre étude l’ayant d’ailleurs montré spécifiquement pour cet OGM et l’herbicide Roundup », déplore l’association.

Au final, quel forme va prendre le suivi du projet ?

L’instance de dialogue s’étant dissoute avant même d’avoir commencé son travail, l’Anses organisera à la place des réunions d’informations sur l’étude OGM90+ aux étapes clés du projet. « Les réunions auront lieu notamment avant le lancement de l’expérimentation sur les animaux, à la fin de l’expérimentation et au moment de la mise en forme des premiers résultats », affirme Franck Fourès.

Toutes les données expérimentales seront en accès libre sur un serveur dans le cadre d’un consortium sur le sujet des OGM regroupant GRACE/, G-TwYST et OGM90+.

Par Matthieu Combe, journaliste scientifique 

Apprentissage de la lecture : les bricolages du cerveau

Lorsque l’on commence à lire, notre cerveau doit apprendre à inhiber la généralisation en miroir : un mécanisme qui permet de reconnaître rapidement des objets identiques quelle que soit leur orientation et qui empêche le cerveau de différencier les lettres en miroir qui, bien que symétriques, sont différentes. L’étude, menée par les chercheurs du Laboratoire de psychologie du développement et de l’éducation de l’enfant (CNRS/Université Paris Descartes/Université de Caen Basse-Normandie), est disponible en ligne sur le site du Psychonomic Bulletin & Review (Online First Articles).
Ces dernières années, de nombreuses études se sont basées sur la théorie du recyclage neuronal à propos de l’apprentissage de la lecture : des mécanismes anciens de notre cerveau sont réutilisés dans un rôle adaptatif nouveau, par une sorte de « bricolage biologique ». Ainsi, des neurones initialement dédiés à l’identification rapide d’objets de notre environnement, grâce à la généralisation en miroir, seraient réutilisés au cours de l’enfance pour se spécialiser dans la reconnaissance visuelle des lettres et des mots.

Les chercheurs ont donc montré à 80 jeunes adultes des paires d’images, d’abord deux lettres et ensuite deux animaux. Sont-elles à chaque fois identiques ? Les résultats ont indiqué que les lecteurs mettaient systématiquement plus de temps à déterminer que deux images d’animaux étaient bien identiques quand elles étaient précédées par des lettres en miroir. Cette augmentation du temps de réponse s’appelle « l’amorçage négatif » : les lecteurs ont dû bloquer la stratégie de généralisation en miroir pour réussir à discriminer des lettres de type b/d ou p/q. Ils mettent ensuite un peu plus de temps à déclencher cette stratégie quand elle est à nouveau utile pour reconnaître rapidement des animaux.

Ces résultats montrent que, même à l’âge adulte, l’inhibition de la généralisation en miroir est toujours nécessaire pour éviter les erreurs de lecture. Les enfants doivent donc s’entraîner à inhiber cette stratégie dès le début de l’apprentissage de la lecture. Un défaut d’inhibition cognitive lors du recyclage des neurones visuels du cerveau pourrait alors être un facteur explicatif de la dyslexie. Une piste à explorer, suite à cette découverte.

Le lecteur doit apprendre à discriminer sur l’ordinateur les lettres en miroir (b et d) séparées par une croix de fixation du regard (+).

Dans la séquence expérimentale, une paire d’animaux identiques (un cheval par exemple) est soit précédée à l’écran d’une paire de lettres en miroir (b et d), soit, dans la condition contrôle, d’une paire de lettres qui n’est pas en miroir (f et t). Le participant à l’expérience doit à chaque fois décider si les deux items (lettres ou animaux) sont identiques ou non.

Source : CNRS

News informatique de septembre 2014 : la rentrée des applications pour smartphone

Cap sur l’Innovation

LE 15 octobre 2014, à la Cité Internationale Universitaire de Paris, CAP’TRONIC organise la 2ème édition de « Cap sur l’Innovation », en partenariat avec la Direction Générale de la Compétitivité de l’Industrie et des Services (DGCIS) du Ministère de l’Economie, des Finances et de l’Industrie.

Rappelons que CAP’TRONIC est le programme national d’accompagnement des PME pour l’intégration de nouvelles solutions électroniques et logicielles dans leurs produits. Au programme de cette journée, au cours de laquelle les participants pourront non seulement approfondir les potentialités des technologies mais aussi échanger avec de nombreux dirigeants de PME, 3 tables rondes (« Objets connectés : quels nouveaux services pour le grand public et les professionnels », « Comment rester compétitif en produisant en France ? », « Les ateliers de fabrication numérique pour quels services aux entreprises »), la présentation d’une étude de la DGCIS sur les ateliers de fabrication numérique, les fab lab, une présentation des dispositifs d’aide aux PME, une autre sur « Numérique et gestion de l’information dans l’industrie » au sein de 4 filières (cuir, bâtiment, nautique et aéronautique), enfin la remise des Trophées CAP’TRONIC dans les différentes catégories dont les 12 projets nommés auront été présentés brièvement dans la journée.

 

Yo !

Yo a été un des phénomènes de l’été dans la scène high-tech. Incroyablement simple, cette application créée par deux jeunes Israéliens a su attirer plusieurs milliers d’utilisateurs en quelques semaines et même des investisseurs dernièrement. Yo divise cependant la scène des start-up : véritable innovation pour certains, elle est le symbole d’excès conduisant à l’apparition d’une deuxième bulle Internet pour d’autres.

Le produit d’une simple farce

A l’origine de Yo, une simple farce entre amis : Moshe Hogeg et Or Arbel se sont aperçus qu’ils s’envoyaient régulièrement des messages contenant un simple « Yo » pendant leur journée. Profitant du 1er avril, ils ont codé pour l’occasion une application pour smartphone dont la seule fonction serait d’envoyer un Yo à quelqu’un dans son répertoire. Aucune autre fonctionnalité : une simple liste d’amis à qui transmettre un Yo. Malgré cette extrême simplicité et cette apparente inutilité, l’application a su faire des émules à partir du mois de mai, étant téléchargée et utilisée par plusieurs dizaines de milliers de personnes à travers le monde, qui ont déjà échangé quelques millions de Yo.

Simple mais aux utilisations très diverses

Ce succès aussi inattendu que spectaculaire a changé le regard des créateurs sur leur créature. Au point qu’ils croient maintenant pleinement dans leur concept et sa viabilité. Il faut admettre que l’imagination des utilisateurs a de quoi surprendre et laisse entrevoir de nombreuses possibilités d’utilisation. Ainsi, pour n’en citer que quelques-unes, il fut possible pendant la Coupe de monde de football de s’inscrire afin de recevoir un Yo au moindre but de son équipe fétiche. Dans un domaine plus sérieux, l’application a aussi été utilisée par des Israéliens pour transmettre en temps réel les alertes de lancement de roquettes en provenance de Gaza.

Comprenant les opportunités qu’ouvrait leur concept, Moshe Hogeg et Or Arbel ont mis à jour leur produit afin qu’il devienne une véritable plateforme de notifications. Toujours dans un souci d’extrême simplicité, leur service a été étoffé en ajoutant deux fonctionnalités importantes : la présence d’un hashtag pouvant compléter le Yo et la possibilité de rajouter un lien vers une page simple. En complément, ils ont créé une page, appelée le YoIndex, recensant les différents services dont on souhaite recevoir des notifications. Dans le but d’étendre son réseau, Yo fournit aussi une interface de programmation simple que peuvent utiliser facilement les développeurs du monde entier.

Succès éphémère ou véritable plateforme ?

Si nombreux restent sceptiques quant au potentiel et à la durée de cet engouement, la vision des fondateurs semble avoir suffi à convaincre des investisseurs d’injecter 1,5 millions de dollars dans la jeune start-up [2]. Ainsi, même si cette application a pu commencer comme une farce, il n’est pas forcément exclu qu’elle puisse un jour muter en un concept plus viable. Dans cette perspective, Yo a au moins l’avantage d’avoir une base importante de personnes l’ayant installé et utilisé, ce qui, dans le contexte actuel d’une concurrence exacerbée pour obtenir un espace sur nos smartphones, est un argument non négligeable. Bien sûr, une levée de fonds et un déménagement dans la Silicon Valley sont loin d’être un gage de réussite, mais comme beaucoup d’entrepreneurs, Moshe Hogeg et Or Arbel sont de grands optimistes !

 

Concevoir le Shazam de l’alimentation en France, l’objectif de 3D-Minded

Directeur au sein de la R&D sur les moteurs de recherche au sein de Dassault Systèmes, Arnaud Nonclercq est également le fondateur de 3D-Minded. Tout a commencé il y a cinq ans, quand deux professeurs de médecine lui parlent de leur souhait de créer une application iPhone liée à l’obésité. Après réflexion, il se décide de se lancer dans l’aventure, mais à son rythme, en parallèle de son activité professionnelle qui occupe déjà tout son temps. Il y associe le docteur Arnaud Cocaul, un nutritionniste réputé, « parce qu’il est très important dans une application mobile d’avoir un expert et un relais de communication », observe-t-il. Un peu plus de deux ans vont lui être nécessaire pour développer, en collaboration avec deux autres personnes, une application qu’il souhaite « différente » de ce qui existe déjà sur le marché. C’est la raison pour laquelle il y a appliqué nombre de ses compétences en particuliers dans le domaine de la 3D.

Suite au lancement de cette application, il y a environ trois ans, Arnaud Nonclercq créé officiellement 3D-Minded, l’objectif étant de commercialiser KcalMe (nom de son application) sur iPad et iPhone, qui compte déjà 60.000 utilisateurs. « C’est aujourd’hui la seule application en France pour la mesure des calories en 3D », explique-t-il avec une certaine satisfaction. Face à ses principaux concurrents, en majorité Américains, KcalMe se distingue en effet par son interface 3D qui permet de définir une quantité de nourriture à l’aide de la réalité virtuelle, de la réalité augmentée ou encore de la reconnaissance vocale. Vous pouvez ainsi à l’aide d’une photo de votre assiette savoir quelle est la quantité en 3D de son contenu. « Prononcez vocalement le nom d’un produit et sa quantité et celui-ci s’affichera aussitôt en images de synthèse ». Autrement dit, KcalMe propose trois approches différentes en une seule application. Objectif à plus long terme de cet homme profondément imprégné de l’univers des serious games et habitué depuis longtemps à travailler en réseau, « concevoir le Shazam de l’alimentation en France ».

En attendant, cette application a reçu le 2ème Prix du Concours E-Nutrition, organisé à l’initiative du pôle de compétitivité Vitagora, auquel s’est associé le groupe Seb. Rappelons que l’objectif de ce concours est de mettre en valeur cette nouvelle économie qu’est en train de faire émerger la révolution digitale, en particulier dans le domaine de l’alimentation, de la nutrition et de la santé

Le Français Alim-Louis Benabid récompensé du prix Lasker

« Cette consécration » comme ils l’appellent, les deux hommes la doivent à la mise au point de la technique dite de « stimulation cérébrale profonde » (SCP) qui a permis d’améliorer la vie de dizaines milliers de personnes atteinte de la maladie de Parkinson – la maladie neuro-dégénérative la plus fréquente après Alzheimer. La SCP est en fait l’implantation de fines électrodes dans des régions précises du cerveau. Ce sont elles qui, par injonction d’un « pacemaker », en fait un neurostimulateur qui envoie un courant électrique, stimulent le noyau profond du cortex cérébral. Ainsi, les troubles moteurs (tels que les tremblements, les gestes lents…) inhérents à la maladie de Parkinson sont réduits durablement.

La première pose des électrodes remonte à 1987. Le professeur Alim-Louis Benabid, en pleine intervention, réalise alors une lésion dans la zone cérébrale atteinte d’un patient. Car il faut savoir que si pour la plupart des patients, un traitement médicamenteux suffit pour juguler la maladie, il reste « 20% des cas » pour qui cela n’a pas d’effet. C’est donc en 1987, en opérant un patient pharmaco-résistant, qu’il se rend compte qu’un courant électrique – à hauteur de 100 hertz – a le même effet qu’une lésion. Le neurochirurgien est en train de vérifier qu’il ne va pas s’attaquer à des zones du cerveau essentielles. Il les stimule électriquement, et en augmentant davantage les fréquences, il étouffe un moment les tremblements du patient.

Chose fabuleuse, les impulsions électriques ont un effet durable et permettent d’arrêter les tremblements de manière réversible. Enfin, bien que cette méthode ne résolve pas tout concernant Parkinson : les troubles de la parole et cognitifs persistent; elle peut s’appliquer à une dizaine d’autres maladies. Il était donc normal que l’Élysée, sous la forme de communiqué et plus directement de la bouche du président François Hollande – « Alim-Louis Benabid honore la recherche médicale française » -, ait tenu à féliciter ce grand chercheur, qui est désormais le huitième français à décrocher le prix Lasker.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Philips annonce vouloir se scinder en deux sociétés

« Je reconnais l’importance de la décision que nous prenons mais il est temps de commencer la prochaine étape stratégique pour Philips », a indiqué le directeur exécutif du groupe, Frans van Houten, dans un communiqué.

« Nous préparons Philips pour le siècle à venir », a-t-il fait valoir lors d’une conférence téléphonique avec des journalistes.

« Donner de l’indépendance à nos activités d’Éclairage va leur permettre d’augmenter leur position globale et de s’aventurer dans des opportunités de marchés adjacentes », a-t-il poursuivi.

Les deux sociétés garderont le nom de Philips ainsi qu’un siège social aux Pays-Bas, a affirmé M. van Houten.

Les branches santé et Lifestyle (qui regroupe des objets destinés aux consommateurs, comme des ustensiles de cuisine ou des brosses à dents électriques) seront combinées dans une nouvelle structure nommée « HealthTech ».

Celle-ci a cumulé des ventes de 15 milliards d’euros en 2013 tandis que les activités Éclairage avait récolté quelque 7 milliards d’euros.

Pour cette dernière branche, Philips considère « des structures de propriété alternatives avec un accès direct aux marchés de capitaux », a-t-il indiqué sans plus de précisions. Davantage d’informations seront dévoilées au cours de l’année 2015.

Ces mesures devraient permettre au groupe d’économiser 100 millions d’euros en 2015 et 200 millions en 2016. Le groupe devra néanmoins prendre à sa charge 50 millions d’euros de coûts de restructuration estimés jusqu’en 2016.

Philips, qui emploie quelque 112.000 personnes, a longtemps été spécialisé dans la production de téléviseurs et de petit électroménager. Mais depuis une dizaine d’années, le groupe a développé la production de matériel médical, comme des scanners à résonance magnétique, et des systèmes d’éclairage.

Il se concentre depuis des années sur ces marchés à hautes marges moins vulnérables à la compétition venant des économies émergentes.

Philips avait vendu sa branche divertissement (chaînes hi-fi et lecteurs DVD, notamment) en avril à l’américain Gibson Brands après avoir vendu en 2012 sa branche téléviseurs, alors en difficulté.

Le groupe avait déjà annoncé fin juin vouloir regrouper certaines de ces activités d’éclairages, notamment pour les voitures ou les téléphones mobiles, dans une société autonome.

Il a d’ailleurs abandonné en 2013 le qualificatif d' »Electronics » lié à son nom, afin de marquer son changement de stratégie.

mbr/cjo/ggy/jh

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La voiture auto-nettoyante, selon Nissan

Finis, les seaux d’eau savonneuse et les chiffons doux pour laver sa voiture le dimanche ? Obsolètes, les stations de lavage automobile ? Sans aller aussi loin, c’est néanmoins un pas dans cette direction que vient d’effectuer la branche européenne du géant automobile Nissan, en annonçant avoir développé une « peinture innovante qui repousse la boue, la pluie et la poussière de tous les jours ». Vous l’aurez compris, Nissan vient de mettre une roue dans l’univers des technologies hydrophobes.

Les ingénieurs du Centre Technique Européen du constructeur japonais, à Bedfordshire (Angleterre) ont appliqué sur un de leurs modèles une peinture aux propriétés à la fois super-hydrophobe et oléophobe, baptisée Ultra-Ever Dry, développée et brevetée par UltraTech International. Le cobaye ? Une Nissan Note deuxième génération, un petit break à tendance monospace.

Bien que la technologie Ultra-Ever Dry ait déjà été utilisée dans de nombreux domaines, Nissan se targue d’être le premier à l’avoir appliquée sur une carrosserie.

Hydrophobie et super-hydrophobie

L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également très efficace pour lutter contre la corrosion, l’accumulation de crasse et le « fouling », la colonisation d’un substrat (souvent immergé) par certains organismes.

Des tests très concluants

Les tests effectués sur le petit break se sont avérés jusqu’ici très concluants, comme peut l’attester la vidéo qui suit. On y voit une Nissan Note dont la carrosserie n’a été qu’à moitié traitée avec de la peinture Ultra-Ever Dry, laissant peu de place au doute quant à l’efficacité du produit.

La volonté de Nissan est claire : s’affirmer comme un constructeur à la pointe de l’innovation tout en restant à l’écoute des menus problèmes qui font le quotidien des conducteurs, allant jusqu’à fanfaronner que « La Nissan Note a été conçue minutieusement pour libérer nos clients de tout stress relatif à la conduite », à travers la voix d’une responsable du pôle Marketing, Geraldine Ingham. Le constructeur japonais ne compte pas proposer sa peinture super-hydrophobe en série pour le moment, mais réfléchira à la proposer en option, ou sur le marché des pièces détachées.

Par Moonzur Rahman

« Les ingénieurs sont directement concernés par l’éthique »

Michel Jonquières, vous êtes co-fondateur de l’Académie de l’éthique, de quoi s’agit-il ?

Michel Jonquières.  C’est une association qui s’emploie à défendre l’éthique sous toutes ses formes, qui édite un bulletin trimestriel ainsi qu’une revue sur des sujets relatifs à l’éthique.

Comment définissez-vous l’éthique ? Et en quoi cela concerne-t-il les ingénieurs au point d’en éditer une ressource documentaire ?

Michel Jonquières. Chacun a sa propre définition de l’éthique, ne serait-ce que selon sa culture… les anglais parlent d’ailleurs d’ « ethics », au pluriel donc. Disons qu’il s’agit d’un comportement individuel ou collectif dans une situation donnée. Les ingénieurs sont directement concernés puisque les choix techniques qu’ils vont faire à un moment donné vont avoir des conséquences directes en matière d’éthique : si je choisis, ou accepte, de faire appel à tel sous-traitant étranger peu regardant sur les conditions de travail, je pérennise mon entreprise, mais je favorise peut-être l’exploitation d’enfants, par exemple. A l’inverse, si je fais attention à l’éthique de mes fournisseurs, je risque d’être trop cher, et donc de mettre la clef sous la porte. La solution peut être d’inciter mon fournisseur à améliorer les conditions de travail, à l’accompagner.

Dans l’ensemble, les ingénieurs se sentent-ils concernés par cette problématique ? Les entreprises sont-elles sensibilisées ? Quels sont les risques pour elles ?

Michel Jonquières : En général, les ingénieurs se sentent peu concernés, et les entreprises ne voient pas le danger, et y vont donc à reculons. Pourtant, les risques sont bien réels, et peuvent prendre de multiples formes : risques d’image et de réputation, financier, pénal… et ce dans tous les secteurs, quelle que soit la taille de l’entreprise. C’est tout l’intérêt d’Ingénierie et responsabilités : sensibiliser les ingénieurs, leurs ouvrir les yeux sur les conséquences de leurs choix, qu’ils méconnaissent trop souvent, et leur donner des méthodes concrètes pour, dans leurs process, obéir à une certaine éthique.

Comme par exemple ?

Michel Jonquières. Le management de l’éthique, qui consiste d’abord à faire un état des lieux des risques, selon les fonctions dans la société, puis d’établir une ligne directrice à appliquer au sein de la société. Après, pour s’assurer qu’elle soit suivie, c’est du management classique à mettre en place.

« Sensibiliser les ingénieurs, pour qu’ils obéissent à une certaine éthique »

Entretien avec Michel Jonquières, co-auteur pour Ingénierie et responsabilité

Techniques de l’Ingénieur : Michel Jonquières, vous êtes co-fondateur de l’Académie de l’éthique, de quoi s’agit-il ?

Michel Jonquières : C’est une association qui s’emploie à défendre l’éthique sous toutes ses formes, qui édite un bulletin trimestriel ainsi qu’une revue sur des sujets relatifs à l’éthique.

Techniques de l’Ingénieur : Comment définissez-vous l’éthique ? Et en quoi cela concerne-t-il les ingénieurs au point d’en éditer une ressource documentaire ?

Michel Jonquières : Chacun a sa propre définition de l’éthique, ne serait-ce que selon sa culture… les anglais parlent d’ailleurs d’ « ethics », au pluriel donc. Disons qu’il s’agit d’un comportement individuel ou collectif dans une situation donnée. Les ingénieurs sont directement concernés puisque les choix techniques qu’ils vont faire à un moment donné vont avoir des conséquences directes en matière d’éthique : si je choisis, ou accepte, de faire appel à tel sous-traitant étranger peu regardant sur les conditions de travail, je pérennise mon entreprise, mais je favorise peut-être l’exploitation d’enfants, par exemple. A l’inverse, si je fais attention à l’éthique de mes fournisseurs, je risque d’être trop cher, et donc de mettre la clef sous la porte. La solution peut être d’inciter mon fournisseur à améliorer les conditions de travail, à l’accompagner.

Techniques de l’Ingénieur : Dans l’ensemble, les ingénieurs se sentent-ils concernés par cette problématique ? Les entreprises sont-elles sensibilisées ? Quels sont les risques pour elles ?

Michel Jonquières : En général, les ingénieurs se sentent peu concernés, et les entreprises ne voient pas le danger, et y vont donc à reculons. Pourtant, les risques sont bien réels, et peuvent prendre de multiples formes : risques d’image et de réputation, financier, pénal… et ce dans tous les secteurs, quelle que soit la taille de l’entreprise. C’est tout l’intérêt d’Ingénierie et responsabilités : sensibiliser les ingénieurs, leurs ouvrir les yeux sur les conséquences de leurs choix, qu’ils méconnaissent trop souvent, et leur donner des méthodes concrètes pour, dans leurs process, obéir à une certaine éthique.

Techniques de l’Ingénieur : Comme par exemple ?

Michel Jonquières : Le management de l’éthique, qui consiste d’abord à faire un état des lieux des risques, selon les fonctions dans la société, puis d’établir une ligne directrice à appliquer au sein de la société. Après, pour s’assurer qu’elle soit suivie, c’est du management classique à mettre en place.

Transition énergétique: plus de 2.000 amendements en commission à l’Assemblée

Ce nombre, sans être un record, se situe dans la fourchette haute des suggestions de modifications apportées à un texte à l’Assemblée.

Quelque 2.118 amendements ont été enregistrés à ce jour, mais les rapporteurs du texte et le gouvernement peuvent encore en proposer. Certains amendements parlementaires pourraient cependant ne pas être recevables d’un point de vue financier.

Le projet de loi porté par la ministre de l’Ecologie Ségolène Royal et ces amendements seront examinés de mercredi à vendredi par une commission spéciale, composée de quelque 70 députés et présidée par François Brottes, par ailleurs président (PS) de la commission des Affaires économiques.

Pas moins de cinq rapporteurs ont été désignés: Marie-Noëlle Battistel (PS) pour les titres Ier (objectifs) et V (énergies renouvelables), Sabine Buis (PS) pour les titres II (bâtiments) et IV (économie circulaire), Philippe Plisson (PS) pour les titres III (transports) et VI (sûreté nucléaire et information des citoyens, Ericka Bareigts (PS) pour le titre VII (simplification des procédures) et le chapitre IV du titre VIII (outre-mer) ainsi que Denis Baupin (EELV) pour les chapitres Ier à III du titre VIII (gouvernance et programmation, pilotage de la production d’électricité, transition énergétique dans les territoires).

Le projet de loi sur la transition énergétique a pour ambition de faire de la France un pays plus économe en énergie et moins dépendant des énergies fossiles et du nucléaire.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Kepler-Cheuvreux : 100 milliards investis dans le solaire photovoltaïque et l’éolien produisent davantage d’énergie qu’avec le pétrole

Quelle quantité d’énergie produit-on en investissant $100 milliards dans le solaire photovoltaïque (PV) ?

Kepler-Cheuvreux part des données observées dans le monde réel. En 2013, 39 GW de PV ont été installés dans le monde, à un coût moyen de 3 dollars par watt installé. Ceci tous pays et toutes catégories confondus : solaire résidentiel et commercial, ainsi que grandes centrales au sol. En 2012 le facteur de capacité moyen du parc PV mondial était de 13%. Un dixième des 100 milliards est utilisé pour financer la maintenance des installations. Avec l’ensemble de ces hypothèses la production électrique est alors de 35 TWh par an. Pendant plus de 20 ans.

Il s’agit ici de l’énergie « brute ». Kepler-Cheuvreux s’est intéressé également à l’énergie réellement disponible en sortie de moteur thermique ou électrique, c’est-à-dire à l’énergie « nette ». L’efficacité énergétique de la prise à la roue d’un véhicule électrique est de 70 à 75%. Celle d’un moteur thermique de 20 à 25%. Kepler-Cheuvreux a retenu volontairement une hypothèse défavorable à l’électrique, 70%. Et favorable au moteur thermique, 25%. Pour le PV il faut aussi tenir compte des pertes électriques en transmission qui sont d’environ 2,5%: la consommation a souvent lieu à proximité de la production. Ce qui fait un rendement depuis la sortie du panneau PV jusqu’à la roue du véhicule électrique de 67,5%. Sur les 35 TWh bruts d’électricité PV obtenus chaque année, il reste 24 TWh nets.

Pétrole offshore profond ou des sables bitumineux : extraire le précieux liquide fossile devient de plus en plus difficile. Avec un coût d’équilibre des projets pétroliers à 100 dollars le baril, en investissant 100 milliards de dollars on peut extraire 1 milliard de barils, c’est-à-dire 85 TWh par an pendant 20 ans (1 million de barils = 1,7 TWh). A noter que la productivité des puits pétroliers durant les 10 premières années est meilleure que celle des 10 suivantes. En tenant compte du rendement de 25% du moteur thermique, il ne reste que 21 TWh nets sur les 85 TWh bruts.

Avec une période de référence de 20 ans, $100 milliards investis dans le PV permettent ainsi d’obtenir 14% d’énergie nette en plus que $100 milliards investis dans le pétrole.

Des hypothèses conservatrices

Le coût du watt PV installé varie selon les pays. En 2013, pour le solaire résidentiel (le plus coûteux), il était de $4,4 aux USA, $4 en France, $2,9 au Royaume-Uni et $2,1 en Allemagne. En 2013 le coût des grandes centrales solaires PV au sol aux Etats-Unis était inférieur à $2/W. Soit un tiers meilleur marché que l’hypothèse retenue par Kepler-Cheuvreux.

La faiblesse du facteur de capacité moyen retenu, 13%, qui est celui de l’année 2012, est lié au fait qu’une bonne partie des capacités PV dans le monde à cette époque étaient installées en Allemagne, où l’insolation est relativement faible. Le solaire PV se développe à présent partout dans le monde, y compris dans les pays du sud bien ensoleillés, ce qui fait monter le facteur de capacité moyen.

De grandes centrales PV au sol construites dans des régions très ensoleillés, comme par exemple dans le désert d’Atacama au Chili, permettent de produire bien davantage d’énergie qu’estimé par Kepler-Cheuvreux. Le facteur de capacité du solaire PV est dans cette région au ciel très pur supérieur à 30 %. Et non de 13%. Cela change sérieusement l’équation économique. Ce n’est pas un hasard si le géant français Total construit actuellement de grandes centrales PV dans ce désert Chilien. Ceci sans aucun système de subvention. L’électricité solaire sera vendue directement sur le marché. Total, avec ces projets solaires qualifiés de « marchands », envoie un signal très fort.

L’éolien est vraiment dans le vent

Concernant l’éolien terrestre, un investissement de $100 milliards permet de produire 117 TWh bruts par an pendant 20 ans. Et 76 TWh nets en sortie de moteur électrique. Autrement dit l’éolien terrestre est encore plus intéressant que le solaire PV et trois fois plus que les carburants pétroliers ! L’éolien offshore, même s’il est environ deux fois plus coûteux que l’éolien terrestre, reste cependant pertinent comparativement au pétrole.

L’ensemble du calcul Kepler-Cheuvreux (disponible pages 116 à 128 du rapport « Toil for oil spells danger for majors » publié le 15 septembre 2014 sous la direction de Mark C. Lewis) ne prend pas en compte les taxes sur les carburants pétroliers qui rendent l’électro-mobilité solaire ou éolienne encore plus séduisante pour le consommateur. Par exemple en France, les taxes (TVA et TICPE) doublent le prix du carburant, tandis que la production électro-solaire en autoconsommation n’est pas taxée. En outre « notre analyse ne prend pas en compte les avantages fiscaux dont bénéficient les voitures électriques comparativement aux véhicules au pétrole » précisent les experts. Il s’agit donc d’un comparatif vraiment fair play.

Le coût des batteries lithium, clé du basculement du monde vers l’électro-mobilité solaire

Mais le calcul de Kepler-Cheuvreux ne prend pas en compte non plus le différentiel de coût entre un véhicule thermique et un véhicule électrique équivalent, différentiel qui est lié au coût de la batterie. Tesla-Panasonic (technologie Lithium NCA) produit aujourd’hui les batteries automobiles les meilleures marché du monde, à environ 300 dollars par kWh de stockage, contre environ 500 $ pour la concurrence qui utilise des chimies différentes. L’objectif est de réduire de 30% ces coûts et ainsi de tomber à 200 $ grâce à une production en masse au niveau de la GigaFactory Tesla qui est en construction dans l’état du Nevada et qui délivrera 500 000 batteries par an. Le coût pourrait même tomber à 100$/kWh d’ici 2025 selon les analystes de Bloomberg Energy Finance et de Tesla Motors. A partir de ce seuil le prix d’achat d’un véhicule électrique, batterie de 60 kWh comprise ($6000, 4600€), sera similaire à celui d’un véhicule thermique équivalent, hors primes gouvernementales. La motorisation d’un véhicule électrique est bien plus simple que celle d’une voiture thermique.

Une batterie de 60 kWh permet d’avoir une autonomie de plus de 200 miles (321 km), ce qui est suffisant pour circuler partout grâce à un réseau de super-chargeurs de 130 kW. Trente minutes de charge, le temps d’un café et d’une petite pause recommandée par la sécurité routière, permettent de capter l’équivalent de 270 kilomètres. Le coût par automobiliste du réseau de super-chargeurs est modeste, de l’ordre de 5% du prix moyen d’un véhicule neuf en France. L’option d’accès aux super-chargeurs, option choisie par 90% des clients ce qui traduit une forte demande, est facturé 2000 dollars par Tesla. Mais l’électricité est alors offerte à vie. L’ensemble de l’Europe, des USA, du Japon et de l’est de la Chine seront couverts fin 2015. Il est dès à présent possible d’effectuer le trajet d’Oslo à la Côte d’Azur ou de Los Angeles à New-York.

L’infrastructure électrique pour répondre aux besoins de charges ordinaires hors grands trajets, est déjà partiellement en place : les véhicules électriques peuvent être chargés sur de simples prises domestiques.

Que les prix du baril montent ou baissent, la filière pétrolière est dans l’impasse

Si la demande en pétrole faiblit, ou si l’offre en carburants liquides est gonflée en injectant des agrocarburants, les prix du baril diminuent sur le marché des matières premières ce qui compromet l’équation d’équilibre financier des nouveaux projets d’extraction du pétrole, projets de plus en plus difficiles et coûteux.

Mais à l’inverse, dans le cas d’une forte demande mondiale les prix du baril de pétrole grimpent. Ce qui plombe la compétitivité de la thermo-mobilité pétrolière face à l’électro-mobilité solaire et éolienne.

Que les prix du baril soient à la baisse ou à la hausse, il n’y a pas d’issue de secours pour l’industrie pétrolière. L’électro-mobilité éolico-solaire devient ainsi l’investissement le plus intelligent, raison pour laquelle Kepler-Cheuvreux en informe ses clients. Les flux solaires et éoliens sont disponibles partout sur Terre, évitant ainsi les tensions pour l’accès aux ressources énergétiques.

Kepler-Cheuvreux a également réalisé des estimations sur des investissements qui seront menés en 2020 ou en 2035, et non en 2014. L’écart se creuse considérablement en faveur de l’électro-mobilité éolico-solaire. En 2035 l’EROCI net pour un investissement de 100 milliards de dollars sera pour le solaire PV de 33 TWh par an et sur 20 ans, contre 15 TWh pour la filière pétrole avec le baril à 145 dollars et 17 TWh avec le baril à 125 $. Et de 95 TWh pour l’éolien terrestre, soit environ 6 fois plus qu’avec le pétrole ! « Il est presque indécent de comparer les EROCI nets du pétrole et des renouvelables en 2035 » écrivent les analystes de Kepler-Cheuvreux tant ces énergies durables écrasent ce combustible fossile par leur compétitivité.

La flexibilité des batteries est utile pour favoriser l’intégration de hauts niveaux de solaire et d’éolien

Kepler-Cheuvreux souligne que, contrairement au réservoir de pétrole, la batterie des véhicules électriques n’a pas seulement un intérêt pour le véhicule lui-même, mais pour le système électrique dans son ensemble. Il est en effet possible de mettre les véhicules en charge précisément quand la production solaire ou éolienne est importante. Et à l’inverse d’injecter l’énergie électrique stockée dans les batteries (le Soleil en bouteille) vers le réseau électrique quand le vent et le soleil manquent. C’est le principe du V2G-G2V (Vehicule-to-Grid / Grid-to-Vehicule). Les propriétaires de véhicules électriques pourront ainsi s’enrichir en rendant service au réseau électrique. La valeur des batteries est donc double comparativement aux réservoirs de carburants pétroliers. « La flexibilité des batteries des véhicules électriques comparativement aux voitures à pétrole sera un avantage qui ira croissant » affirment les experts.

Un milliard (taille du parc automobile mondial en 2010) de batteries de 60 kWh constituent un réservoir de 60 TWh équivalent à 24 heures de demande électrique globale. Les voitures sont en moyenne garées 23 heures sur 24. Si les 2/3 des véhicules sont connectés à des prises de seulement 3 kW la puissance disponible est alors de 2000 GW. De quoi gérer les fluctuations d’un mix électrique global à très haute teneur en PV et éolien. La voiture électrique devient ainsi un cheval de Troie pour que les énergies renouvelables puissent conquérir le mix électrique mondial et repousser les centrales fossiles à une simple fonction de back-up de sécurité. Les centrales non flexibles, et donc inadaptées, disparaîtrons.

Au-delà des écologistes le PV et l’éolien suscitent un intérêt croissant des spécialistes de la finance

Kepler Cheuvreux, entreprise de services financiers, est le résultat de la fusion entre Kepler Capital Market et Crédit Agricole Cheuvreux opérée en avril 2013. Kepler Cheuvreux a conclu des partenariats avec UniCredit et Crédit Agricole CIB, deux des plus grosses banques européennes, pour leurs opérations sur les marchés de capitaux. Les experts de cette entreprise ne sont pas les seuls à souligner l’intérêt économique majeur et croissant du solaire PV et de l’éolien.

Citi Group, banque d’investissement basée à New York, a publié en août 2014 un rapport soulignant que d’un point de vue « purement économique », le solaire PV est appelé à jouer un rôle majeur dans le mix électrique global.

Début 2014 la banque britannique Barclays a dévalué les centrales thermiques des grands groupes électriciens Américains soulignant la menace croissante que fait peser le PV sur leur équation économique. Certains sauront s’adapter à cette révolution solaire. Les autres, par le simple mécanisme de la sélection naturelle, disparaîtront.

Enfin la banque Lazard vient de publier en septembre 2014 un rapport où elle estime que le PV et l’éolien terrestre sont à présent meilleurs marché que le gaz naturel aux USA, pays qui a lourdement investi dans le gaz de schiste. Selon le Financial Times les experts de Lazard ont constaté que le coût du MWh éolien non subventionné est tombé de $101 en 2009 à $37 en 2014 tandis que celui du PV non subventionné a chuté de $323 à $72 sur la même période. Le coût du MWh des centrales à gaz est de $61 à $87 aux USA, selon le prix du gaz et le facteur de capacité des centrales.

Le groupe français EDF a comme objectif de vendre en Grande-Bretagne le MWh du nouveau nucléaire (EPR) à un tarif d’achat (marketisé sous le terme de « strike price ») d’environ £92.50 ($150) à partir de 2023 et pour une durée de 35 ans, ce qui a été considéré par de nombreux experts Anglais, Allemands, Américains et Finlandais comme particulièrement anti-économique. Différents analystes estiment que le coût de production du MWh EPR sera de 80 à 100 € ($102 à $128). Le coût du MWh des anciennes centrales nucléaires Françaises déjà amorties est estimé par la Cour des Comptes à 59€ ($77).

Indépendamment des aspects sécuritaires, sanitaires, environnementaux et démocratiques, le coût et la lenteur de déploiement du nucléaire sont de sérieux obstacles pour l’avenir de la filière. Il est difficile de rivaliser avec le plus grand réacteur nucléaire naturel, libre et ouvert à tous : le Soleil.

Par Olivier Daniélo

Revue du web #66 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web

  • « DelflyExplorer », le drone libellule tout en légèreté ; 
  • « Full Turn », la 3D sans les lunettes et à 360 degrés ; 
  • Synchroniser Oculus Rift et un tour sur des montagnes russes ; 
  • Cheetah, robot-guépard de la Boston Dynamics, sans la laisse ; 
  • Le gadget (inutile?) de la semaine : la mitrailleuse à élastiques ; 
  • Et en bonus : le fabuleux secrétaire de David et Abraham Roentgen.

« DelflyExplorer », le drone libellule tout en légèreté : 

Tout vient à point à qui sait attendre… Il aura fallu neuf ans de développement et de dur labeur pour que les chercheurs hollandais de l’université de Delft réussissent à mettre au point leur petit bijou. Pour débuter notre soixante-sixième Revue du Web, penchons-nous sur le fruit de ces neuf années de gestation, « Delfly Explorer », une libellule robotique ultra-légère capable de produire des images en 3D. 

Semblant battre des ailes comme son alter-ego biologique, le mini-drone d’à peine 20 grammes embarque deux caméras miniatures basse-résolution qui lui permettent d’évoluer sans encombre dans son environnement, en créant des images tridimensionnelles traitées en temps réel pour guider le petit bolide. Pour affiner le calcul des trajectoires, un baromètre et un accéléromètre viennent parfaire la panoplie de notre drone-libellule, dont l’autonomie de neuf minutes est assurée par une petite batterie au lithium-ion polymère.

Bien que des applications militaires aient été envisagées, les concepteurs préfèrent imaginer des utilisations plus terre-à-terre, telles que le survol des champs pour surveiller le mûrissement des fruits, ou le survol de grands rassemblements (concerts, matchs) sans risquer de blesser qui que soit en cas d’avarie.

Ce n’est pas la première fois que la libellule inspire les scientifiques : au rayon biomimétisme, peut-être vous souvenez-vous de « BionicOpter », la très élégante libellule robot de la société allemande Festo dont nous vous parlions déjà ici.

« Full Turn », la 3D sans les lunettes et à 360 degrés : 

Marre du diktat des lunettes stéréoscopiques pour pouvoir profiter d’images en trois dimensions ? Le plasticien suisse Benjamin Muzzin se propose de dynamiter ces conventions avec « Full Turn », une installation ingénieuse et élégante qui permet de profiter de séquences en trois dimensions sans lunettes, de surcroît visibles à 360 degrés. Le jeune helvète n’invente rien, mais parvient intelligemment à créer des volumes animés en jouant, une fois de plus, un tour à notre cerveau.

Montées sur un axe vertical, le Suisse fait tourner deux tablettes HD collées dos à dos à près de 200 tours/minute à l’aide d’un petit moteur contrôlé par un Arduino, ne laissant guère le temps au cerveau de décortiquer les images qui défilent à trop grande vitesse. Résultat : les écrans se fondent peu à peu pour laisser apparaître de superbes volumes, un ballet entêtant d’images autour desquelles on peut tourner à loisir. Fort de son succès, Benjamin Muzzin se prend même au jeu de la démesure en imaginant un dispositif « avec des écrans plus grands, quitte à ce qu’on se prenne des rafales de vent dans la tête ».

Synchroniser Oculus Rift et un tour sur des montagnes russes : 

Oculus Rift n’est pas encore arrivé sur le marché qu’il fait déjà parler de lui presque toutes les semaines, tant l’attente et l’enthousiasme suscités par ce périphérique informatique de réalité virtuelle sont immenses. Dernière sortie du masque à image stéréoscopique déformée, conçu par une entreprise devenue filiale de Facebook : une équipe de chercheurs de l’université de Sciences Appliquées de Kaiserlautern, en Allemagne, a eu l’idée de synchroniser un tour en montagnes russes avec une virée virtuelle des plus impressionnantes, en portant les masques immersifs, remplaçant ainsi l’environnement « réel » par un environnement en réalité virtuelle.

Durant plusieurs mois, ces pionniers du virtuel ébouriffant ont effectué des batteries de tests sur les wagons seuls, puis en situation, afin d’assurer une synchronisation et une expérience optimales. Un assistant était au départ nécessaire à bord pour contrôler la synchronisation, qui est désormais prise en charge par un système automatique, aidé dans sa tâche par un capteur inductif placé sur la roue d’un wagon, afin de calculer la vitesse et de déterminer la position.

Détail intéressant : d’après les scientifiques, ce dispositif ne donnerait pas le mal des transports… L’une des pistes étudiée serait que le masque immersif pourrait éliminer le… vertige.

Cheetah, robot-guépard de la Boston Dynamics, sans la laisse : 

Les éminences grises de la Boston Dynamics l’avaient promis, ils l’ont fait. La très prolifique société américaine, dont la réputation n’est plus à faire, s’est encore une fois associée au prestigieux Massachusetts Institute of Technology (MIT) pour libérer Cheetah de ses câbles afin de le tester en conditions réelles et en environnement extérieur.

Vous vous souvenez forcément de Cheetah, le robot-guépard qui court plus vite qu’Usain Bolt. Les chercheurs se sont inspirés des mouvements de l’animal terrestre le plus rapide au monde, le guépard, pour concevoir leur bébé, allant jusqu’à baptiser leur robot du nom du guépard indien, animal maintenant présumé disparu.

Amélioré d’un algorithme lui permettant désormais de sautiller, Cheetah peut courir seul à une vitesse approchant les 16 kilomètres par heure, et se débarrasser d’obstacles d’une trentaine de centimètres de hauteur.

Cheetah a été développé par la Boston Dynamics sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. Une nouvelle batterie de tests serait en route, tests qui pourraient s’avérer concluants si l’on doit se fier au prestige dont jouit la Boston Dynamics dans la communauté scientifique, notamment grâce à Alpha Dog ou à Big Dog, des mules-robots particulièrement impressionnantes, – ou encore grâce à Petman, leur robot anthropomorphe. Les champs d’applications pourraient être assez nombreux, bien que le Pentagone pense évidemment à des débouchés… militaires. 

Le gadget (inutile?) de la semaine : la mitrailleuse à élastiques

Si votre souhait ultime est de faire mordre la poussière à vos collègues de bureau qui ne respectent pas les deadlines, à votre voisin qui arrose ses plantes avec 200 litres d’eau, ou à votre sœur pendant que maman a le dos tourné, notre gadget (inutile?) de la semaine, une mitrailleuse à élastiques, semble être un bon compromis fait pour vous. Direction l’Ukraine où se trouve Alexander Shpetniy, brillant étudiant en art et design à l’université de Lugansk, dont la passion pour le modélisme lui aurait permis de conceptualiser et de donner vie à cet ersatz d’arme automatique, capable de tirer 672 « munitions » à la suite.

Équipée d’un simple petit moteur pour entraîner le cylindre et imiter le mouvement d’une bonne vieille mitrailleuse rotative Gatling, l’arme ne fait pas de cadeau dans la vidéo qui suit, balayant les disquettes comme autant de vulgaires fétus de paille. Disponible en quatre coloris (bois naturel, finition « bois brûlé », noir ou camouflage), nul doute que l’on va – enfin – vous respecter. Pour commencer à faire pleuvoir les élastiques, vous pouvez faire un tour sur la page kickstarter du projet ici.

Le très astucieux dispositif pour recharger la mitrailleuse :

Bonus : le fabuleux secrétaire de David et Abraham Roentgen

Pour conclure notre soixante-sixième Revue du Web, venez vous immerger dans le monde fabuleux d’Abraham et de David Roentgen, deux talentueux ébénistes allemands du XVIIIe siècle, ayant notamment fait leurs armes à la cour du roi Louis XVI. Jalousés par toute la corporation des ébénistes tant leur travail était à la fois inventif et soigné, le père Abraham et son fils David ont réalisé, parmi une pléthore de petites merveilles, ce fabuleux meuble – désormais exposé à Berlin – dont la marqueterie raffinée éclipse difficilement le côté hautement ludique.

A la fois secrétaire, cabinet d’écriture et horloge, ce joyau de l’ébénisterie est un véritable hymne à la facétie. Chaque compartiment semble multiple, chaque tiroir semble n’être là que pour en escamoter un autre, apparaissant ou disparaissant au gré des mécanismes que l’on actionne, à l’aide de petits boutons dissimulés ou de clés tournées à l’envers comme à l’endroit. Une multitude de rangements et de cachettes viennent réveiller notre âme d’enfant, mais attention : mieux vaut suivre le fil, si vous ne voulez pas perdre vos affaires pour toujours.

Par Moonzur Rahman

La NASA confie à Boeing et SpaceX la construction des navettes spatiales reliant la Terre à l’ISS

Ce n’était plus tenable. Débourser 70 millions de dollars à chaque homme prenant place à bord de la navette à destination de l’ISS est exorbitant. Mais le pire est que cet argent aille dans les poches … des Russes. Une situation inacceptable pour les Américains qui devaient s’affranchir de cette dépendance soviétique le plus vite possible. Or, depuis 2011, les astronautes se rendent à l’ISS grâce aux vaisseaux russes Soyouz. Un monopolesoviétique qui devrait prendre fin dès 2017 grâce à la construction de deux vaisseaux 100% US.
Ainsi, la Nasa vient de confier à des constructeurs américains la mission de bâtir deux vaisseaux privés pour un montant estimé de 6,8 milliards de dollars. Le projet de Boeing est une capsule de sept places, la CST-100, qui pourra être lancée par la fusée Atlas, elle-aussi fabriquée par Boeing, depuis la base américaine de Cap Canaveral. De son côté, SpaceX fabriquera la capsule Dragon V2, elle aussi de sept places et qui sera lancée par sa fusée Falcon 9 du pas de tir 39A du Centre spatial Kennedy en Floride.
Le choix de ces deux sociétés n’est pas anodin puisque Boeing est le maître d’œuvre de l’ISS et SpaceX est le constructeur de la capsule Dragon qui a déjà transporté du fret entre la terre et l’ISS lors de cinq vols.
Le contrat qui lie la Nasa et les deux constructeurs porte sur la gestion de 6 missions vers l’ISS. « Aujourd’hui, nous avons fait un pas de géant qui nous rapproche de la possibilité de lancer nos astronautes depuis les Etats-Unis dans un vaisseau spatial américain » s’est immédiatement félicité l’ancien astronaute Charles Bolden.
Une indépendance bienvenue alors que les tensions antre les Etats-Unis et la Russie sont à leur paroxysme.

Par Audrey Loubens, journaliste scientifique

Le vaccin contre Ebola semble efficace

Alors que l’épidémie fait rage en Afrique de l’ouest avec déjà plus de 2 600 victimes, les Etats-Unis testent sur les humains un vaccin qui, s’il se révèle efficace, permettra enfin de stopper la maladie. Car pour l’instant, aucun vaccin n’est homologué, et le taux de létalité du virus Ebola peut atteindre 90%. Autant dire que les espoirs suscités par la mise au point d’un vaccin sont immenses.
Face à l’ampleur sans précédent de l’épidémie, la communauté internationale unit donc ses forces pour affronter ce virus particulièrement virulent et aux symptômes impressionnants : forte fièvre, hémorragies internes et externes… Ebola est un virus tellement terrifiant qu’il est au cœur de nombreux fictions comme 28 jours plus tard de Danny Boyle ou la licence de jeu vidéo Resident Evil dans laquelle le virus Ebola est la souche utilisée pour infecter les hommes et les transformer en zombies.
Pour que la réalité ne dépasse pas la fiction, des tests débutent avec en ligne de mire la vaccination des hommes.
Les équipes du National Institute of Health (NIH) travaillent à l’élaboration d’un vaccin depuis les années 2000. Celui actuellement testé a été développé par le laboratoire britannique GlaxoSmithKline en collaboration avec le NIH. Il a été élaboré à partir de trois précédents vaccins expérimentaux, préalablement testés avec succès sur des macaques en 2003.
Administré à 10 personnes saines, il n’a pas provoqué de mauvaises réactions. L’expérimentation va se poursuivre avec 10 autres volontaires sains eux aussi.
En parallèle, ce même vaccin sera testé en Angleterre sur 60 autres personnes en bonne santé.
L’objectif est de vérifier que ce vaccin déclenche bien une réaction immunitaire suffisante pour protéger le sujet face au virus Ebola.
L’urgence de la situation pousse les autorités sanitaires à suivre un protocole de tests accéléré.
Si ces bons résultats se confirment, l’OMS prévoit d’utiliser ce vaccin dès le mois de novembre sur les professionnels de santé qui luttent sur le terrain, au Liberia, au Sierra Leone, en Guinée ou encore au Nigeria. De quoi protéger les soignants qui, en contact direct avec les malades, sont nombreux à être contaminés, à l’image de la première Française infectée à Monrovia, capitale du Liberia, une jeune volontaire de Médecins sans frontières. Placée en isolement, elle vient d’être rapatriée en France.

Par Audrey Loubens, journaliste scientifique
 

Déchets radioactifs : comment préserver la mémoire ?

Comment assurer la préservation des documents, des connaissances et de la mémoire des déchets radioactifs génération après génération sur plusieurs siècles et même millénaires? Cette question complexe intéresse les chercheurs et les professionnels. Le centre de stockage en couche géologique profonde, Cigéo, n’est pas encore autorisé. Mais les experts commencent à travailler sur la préservation de la mémoire. Ils s’intéressent à plusieurs pistes en parallèle, qui seront mises en oeuvre après la phase d’exploitation de Cigéo, soit dans plus d’un siècle.

90% des déchets radioactifs produits aujourd’hui sont destinés à être stockés dans des centres de stockage de surface dédiés, où ils seront surveillés pendant au moins 300 ans. Ce temps est nécessaire pour faire décroître suffisamment leur activité nucléaire. Par ailleurs, si Cigéo voit le jour à Bure (Meuse), les premiers colis devraient y arriver en 2025. Destiné à accueillir des déchets radioactifs hautement radioactifs à vie courte ou à vie longue et des déchets de moyenne activité à vie longue,  ce centre devrait rester inaccessible à 500 mètres de profondeur, pendant 100 000 ans. 

La responsabilité collective impose donc de réfléchir à des moyens innovants pour tout faire pour ne pas oublier ces déchets. Car il faudra que les scientifiques et responsables du futur puissent suivre leur évolution, les surveiller et empêcher les intrusions sur plusieurs millénaires. En France, il revient à l’Andra de travailler sur ces questions capitales de transmission de la mémoire. En 2011, l’Agence pour l’Energie Nucléaire (AEN) a également créé un groupe de travail comprenant notamment les agences en charge de la gestion des déchets radioactifs de plusieurs pays afin de partager des résultats de recherches sur la mémoire. 

Un site de stockage déjà surveillé pour 300 ans

L’Andra gère trois sites de déchets radioactifs faiblement et moyennement radioactifs entreposés en surface. Situé sur la commune de Digulleville, à 20 kilomètres au nord-ouest de Cherbourg-Octeville, le centre de stockage de la Manche est le premier et le seul centre français de déchets radioactifs entré en phase de surveillance en 1994. La transmission de la mémoire doit y être assuré pour au moins 300 ans. 

Une panoplie de documents d’archives doivent y assurer la mémoire. Une mémoire « détaillée » est imprimée en 3 exemplaires et conservée sur place, dans un autre lieu d’archivage de l’Andra et aux Archives nationales de France. Elle contient  plus de 11 000 documents, placées dans 700 boîtes. Une mémoire de synthèse de 169 pages est également conservée dans des lieux divers (mairies, notaires, associations…). Enfin,  à terme, existeront aussi une « mémoire simplifiée » (30 pages) pour la presse, les citoyens intéressés, ainsi qu’une « mémoire d’ultra synthèse » (1 recto/verso) à diffusion très large (grand public, écoles…). Ces documents sont imprimés sur papier permanent, susceptible d’être stable sur plusieurs siècles. La mémoire du site est également conservée, notamment au cadastre, afin d’en préserver l’intégrité, ou, au moins, s’assurer que d’éventuels travaux ou aménagements seront faits en toute connaissance de cause.

Enfin, tous les 10 ans, un collège d’experts internationaux se réunira pour évaluer l’accessibilité et la clarté des archives du centre de la Manche, en se mettant en situation, comme s’ils les découvraient dans le futur. Les résultats permettront d’amender le contenu des documents au fur et à mesure. 

Comment passer de 300 ans à plusieurs millénaires?

Pour assurer la mémoire du projet de stockage géologique profond Cigéo, la mémoire doit être renforcée. En partant de la situation de référence de son centre de stockage de la Manche, l’Andra imagine depuis 2010 de nouvelles solutions. Dans ses travaux, elle s’intéresse aux 3 canaux indissociables de la mémoire identifiés par les experts : le message à transmettre, les supports physiques pour conserver les informations et les relaisà utiliser pour préserver et transmettre la mémoire. 

Comment transmettre un message ? Les générations futures pourraient-ils déchiffrer et comprendre l’intégralité des documents? Faut-il utiliser une langue, des textes, des symboles ou des oeuvres d’art ? Les chercheurs tentent de comprendre  pendant quelle durée raisonnable les langues actuelles ou mortes peuvent être connues, et par conséquent quelles pourraient être les solutions de communication lorsque ces langues ne seront plus utilisées, voire seront tombées dans l’oubli. Premier enseignement : il n’existe pas de langage universel compréhensible par tous.  Il faut donc choisir la langue qui aura le plus de chance d’être encore utilisée dans plusieurs siècles, accompagnée de messages préventifs en plusieurs langues, ou bien utiliser une langue morte, par définition figée. Mais saura-t-on encore déchiffrer les langues mortes dans plusieurs milliers d’années ? Une autre question demeure à l’étude : Quel sens donner au message pour inciter nos descendants à déchiffrer les documents plus détaillés avant de ne s’aventurer dans le centre de stockage ? La curiosité humaine pourrait pousser les aventuriers du futur à s’aventurer dans le centre de stockage, même en présence de messages de dangers de mort.

Quel matériau est assez fiable pour résister aux attaques du temps : du papier permanent, des gravures sur des disques de saphirs ? Quels marqueurs utiliser pour désigner le site ? Lorsque le site sera tombé dans l’oubli, il faudra que les géologues du futur puissent comprendre sa singularité. L’Andra étudie, par exemple, la pertinence d’un marquage archéologique du site par dispersion d’artéfacts. Il s’agirait de déposer volontairement de petits objets sans valeur, mais particulièrement durables, disposés de manière à attirer l’attention sur la singularité du site, et porteurs d’un message simple indiquant un danger en sous-sol.

Les travaux de l’Andra cherchent à comprendre les  causes et des conséquences des pertes d’archives. A quels relais confier la mémoire ? Des institutions, des sociétés des artistes…?  L’une des pistes étudiée est de parier sur la mémoire collective d’une société. Pour ce faire, elle parle des déchets radioactifs aux citoyens d’aujourd’hui. Elle envisage également  d’initier un « rite » annuel pour réunir les riverains autour du site. Difficile à imaginer lorsque l’on connaît l’opposition des riverains à ce genre de projets.

Plusieurs autres pistes sont à l’étude. En vrac : archiver les revues de presse,  conserver des objets symboliques de la vie du centre pour de futurs musées ou expositions, recueillir des témoignages de riverains et d’anciens collaborateurs, placer progressivement des objets marquants autour du site pour interpeller les visiteurs, poser des stèles en pierre pour mettre en scène le message, installer une œuvre d’art de grande taille  pour assurer le marquage à long terme du site…

L’ensemble des pistes étudiées montrent la complexité de cette question. Il n’existe aucun moyen de préservation unique qui soit optimal à toutes les échelles de temps. Tous les canaux de communication doivent être étudiés. Imaginons que l’Homme de Néandertal ait souhaité nous laisser un message, il y a 50 000 ans. L’aurions-nous compris? Les experts actuels veulent parier sur l’intelligence d’aujourd’hui et l’expertise, bien plus développée qu’à l’époque. Les déchets entreposés dans Cigéo devront quand à eux rester enfermés pendant 100 000 ans. Il ne reste plus qu’à espérer qu’ils n’en seront pas déterrés par une « découverte archéologique exceptionnelle » dans le futur.

Par Matthieu Combe, journaliste scientifique

L’Arabie Saoudite laisse filer sa part de marché américaine de pétrole

Ces importations étaient de 10 millions de barils par jour en Juillet 2010, elles atteignent encore les 7,6 millions de barils par jour en ce début Septembre 2014 (Figure.1), le complément de charge des raffineries étant assuré par les extractions locales et une part des condensats d’extraction de gaz naturel conventionnel et de gaz de schistes.

  • Figure.1 : flux des importations de pétrole aux Etats-Unis (moyenne sur 4 semaines mobiles en milliers de barils par jour (EIA)

 

Les trois grands pays importateurs de pétrole aux Etats-Unis sont traditionnellement le Canada, l’Arabie Saoudite et le Mexique. Ils représentent à tous les trois entre 4 et 5 millions de barils/jour de pétrole importé aux Etats-Unis.

Dans cette période de baisse des cours du baril il est intéressant de comparer les parts de marché relatives de l’un et l’autre de ces fournisseurs. Alors que l’Arabie Saoudite durant une large part de 2013 et le premier trimestre 2014 avait assuré des livraisons assez stables à hauteur de 1,5 million de barils par jour et donc prenait des parts de marché, pour une demande globale en déclin, il est maintenant possible de constater qu’elle vient de ramener ses livraisons au mois d’Août 2014 vers un million de baril par jour.

D’après Bloomberg, le prix du pétrole en provenance d’Arabie dans le Golfe du Mexique n’a été proposé au mois d’Août qu’avec une faible remise de 48 cents par rapport au prix local du moment qu’est le LLS (Light Louisiana Sweet).

De toute évidence (Figure.2) c’est le pétrole canadien qui a pris sa place.

  • Figure.2 : Etats-Unis. Importations de pétrole, par pays d’origine, en milliers de barils par jour (EIA)

 

Ces données sont cohérentes avec une décision probable de l’Arabie de moins alimenter les marchés, pour soutenir les prix, en réduisant ses livraisons en premier lieu du marché Nord-Américain le moins rémunérateur.

A abandonner des parts de marché, autant le faire là où les prix sont cassés, voila une réaction commerciale de bon sens.

Par Raymond Bonnaterre

Le marché de la mobilité hydrogène sera-t-il compétitif?

Dans la nouvelle note d’analyse de France Stratégie (l’ancien Commissariat général à la stratégie et à la prospective), Etienne Beeker, expert en énergie, analyse les coûts économiques présents et futurs de l’hydrogène-énergie. Il y présente une filière non mature, qui ne sera, selon lui jamais compétitive. La filière réagit dans un communiqué détaillé en répondant point par point à ce qu’elle juge être des contre-vérités.

La mobilité hydrogène coûte-t-elle trop cher?

L’hydrogène peut être produit par électrolyse de l’eau ou par  vaporeformage du gaz naturel. Selon la note de France Stratégie, il faudrait que le prix de l’hydrogène produit par électrolyse soit identique à celui du vaporeformage pour que la mobilité hydrogène puisse se développer. 

Mais « l’objectif n’est pas de produire via l’électrolyse un hydrogène au prix de l’hydrogène produit via un SMR [Steam Methane Reforming=vaporeformage], mais d’être compétitif sur le marché que l’on vise », répond l’AFHYPAC.

L’hydrogène produit par électrolyse doit en effet être compétitif face à l’essence et au diesel, pas forcément face à l’hydrogène produit par vaporeformage. Et c’est déjà presque le cas. En effet, si l’on prend une voiture qui consomme 6L/100 km et de l’essence à 1,5 €/L, alors la dépense des ménages est de 10€ pour 100 km. Du côté de l’hydrogène, un véhicule consomme 1 kg/100 km. Puisque environ 5€/kg sont nécessaires pour amortir une station de distribution d’hydrogène fonctionnant à 700 bars, cela signifie que le coût de production d’hydrogène par électrolyse doit être inférieur à 5 euros. Aujourd’hui, avec de l’électricité à  60€/MWh, la filière hydrogène est capable de produire de l’hydrogène entre 5 et 10 euros le kg dans la station service hors taxe. D’après la prospective d’Etienne Beeker, ce coût devrait baisser à 3,7€/kg dans le futur. L’hydrogène produit par électrolyse de l’eau pour la mobilité serait alors complètement compétitif.

Tous les calculs du rapport de France Stratégie sont réalisés hors taxes, sans considérer la taxe intérieure de consommation sur les produits énergétiques (TICPE, anciennement « taxe intérieure de consommation sur les produits pétroliers » ou TIPP). Or, si le prix hors taxes de l’hydrogène est le double, voire le triple de celui des carburants conventionnels à la pompe, une fois que l’on ajoute la TICPE aux carburants fossiles, cet écart disparaît. « A ce stade, il n’y a pas le contenu TICPE, mais c’est un choix politique de savoir si l’on veut taxer cet hydrogène qui, avec l’électrolyse, n’est pas un hydrocarbure », assure Pascal Mauberger, Président de l’AFHYPAC et Président du Directoire de la start-up française McPhy Energy. Et pour cause : lorque vous rechargez un véhicule électrique à batterie, vous ne payez pas non plus la TICPE car cette mobilité est considérée comme décarbonée, sans utilisation de produits pétroliers.

La filière hydrogène est d’ailleurs actuellement en discussions avec les instances nationales et européennes sur ce point. « Avec la taxe de vente, mais sans la taxe de produits pétroliers, l’hydrogène peut se vendre à parité avec le diesel », prévient Pascal Mauberger. D’ailleurs, l’hydrogène alimente déjà 208 stations services pour près de 2000 véhicules routiers à travers le monde.

Pourquoi utiliser l’électrolyse de l’eau?

« Si l’on veut développer de l’hydrogène énergie, ça ne peut être qu’avec l’électrolyse de l’eau, car sinon autant mettre le gaz naturel dans le véhicule directement », rappelle Pascal Mauberger. Même si le coût de production de l’hydrogène par électrolyse de l’eau reste environ deux fois plus élevé que par vaporeformage. De plus, pour que cet hydrogène soit réellement « décarboné » et « écologique », il faut qu’il soit le plus possible produit à partir d’électricité fournie par des énergies renouvelables.

L’hydrogène serait d’ailleurs un bon moyen de valoriser la production des éoliennes, lorsque celle-ci est en surplus. Les électrolyseurs fonctionnent en effet en base avec l’électricité à prix de marché et lorsqu’il y a de la production éolienne en surplus à coût marginal nul, cela donne une rentabilité supplémentaire, ce qui fait baisser le prix de l’hydrogène à moins de 7 €/ kg. Ainsi, dans le cas le plus optimiste considéré, l’hydrogène coûterait moins de 3,7 €/ kg, pour un prix à la pompe inférieur à 10€/kg. Ce marché semble donc en réalité bien viable et même compétitif si l’on ne considère que le carburant. 

Pour être complet, il faut également s’intéresser au prix de la pile à combusible qui tourne autour de 30 000 euros, pour des véhicules vendus aux alentours de 50 000 euros. Les effets de volume devraient permettre de diminuer ces prix. « Les constructeurs pionniers dans la commercialisation des véhicules hybrides ont suivi la même stratégie d’introduction avec  des marchés précurseurs dans un premier temps pour ouvrir ensuite sur des marchés de plus grands volumes », conclut l’AFHYPAC.

Par Matthieu Combe, journaliste scientifique

Redéfinir la seconde

Des chercheurs du laboratoire XLIM de l’université de Limoges ont réussi à confiner des atomes ultra-froids dans une fibre optique creuse. Contrairement aux fibres optiques de type télécom, ces fibres creuses guident la lumière d’une autre façon puisque la gaine fonctionne comme un miroir.

En effet, la gaine qui entoure le cœur creux représente une bande interdite. Composée d’une grille de silice d’une épaisseur de l’ordre de la centaine de nanomètres, la gaine possède une structure qui permet le phénomène de réflexion : quand un photon est injecté, il n’a nulle part où aller, son seul mouvement possible est le demi-tour. Mais le cœur et la gaine étant deux entités distinctes, il est difficile de travailler avec des modes orthogonaux comme pour un résonateur, ce qui permettrait la cohabitation de deux modes.

Avec une fibre au couplage inhibé, il est possible de cumuler un mode guidé dans le trou et des modes dans la gaine quasi-orthogonaux avec celui du cœur. Le mode du cœur voit alors la gaine comme une bande interdite. 

Aujourd’hui, la seconde est définie à partir des oscillations de l’atome de césium comme étant la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre deux niveaux hyperfins de son état fondamental.

Une précision exceptionnelle mais qui pourrait être rapidement dépassée grâce aux transitions atomiques mesurées à des fréquences plus élevées, comme les fréquences optiques. Les horloges optiques sont au cœur du problème, ou plutôt de la solution en permettant de gagner un facteur  105 en précision. Reste à régler le problème de la fluctuation de la fréquence (f) avec le temps. Ce phénomène ∂f/fdoit impérativement être minimisé.

Une des façons d’y arriver est d’augmenter la densité du milieu. Cela améliore le rapport signal/bruit et offre un meilleur contraste. C’est ce qu’ont réussi à faire les scientifiques du groupe GPPM du laboratoire CNRS XLIM, en collaboration avec ceux de l’université de Tokyo. Ils ont appliqué leur savoir-faire en fibre creuse en fabriquant une fibre optique particulière, la Kagome hollow-core photonic crystal fibre, à l’intérieur de laquelle des atomes de strontium ont été confinés. Cet assemblage d’atomes en file indienne augmente le rapport signal/bruit sans altérer la précision du système.

 Ces travaux parus dans Nature Communications proposent donc une solution pour la fabrication d’horloges optiques compactes.

Par Audrey Loubens

Des cellules souches IPS transplantées pour la première fois sur l’homme

Une femme de 70 ans a accepté d’être la première à tenter un traitement à partir de cellules IPS. Ces cellules souches sont obtenues à partir de cellules adultes qui ont été rajeunies. Redevenues immatures et pluripotentes, elles retrouvent leur capacité de pouvoir se différencier en n’importe quelle cellule spécialisée. Le procédé a valu le prix Nobel de médecine en  2012 aux chercheurs japonais Shinya Yamanaka et britannique John Gurdon.

Depuis, le Japon mise beaucoup sur cette technique de soin. C’est donc tout naturellement qu’il devient le premier pays à réaliser la transplantation de cellules IPS sur l’homme. 

L’objectif premier n’est d’ailleurs pas de soigner la dégénérescence maculaire liée à l’âge (DMLA) dont souffre le cobaye, mais surtout de s’assurer que la transplantation ne provoque pas de cancer. 

L’équipe médicale de la Fondation pour la recherche biomédicale et l’Innovation (Ibri) de Kobe a collaboré avec Masayo Takahashi, directrice de projet à l’institut public Riken pour cultiver des cellules IPS fabriquées à partir des cellules adultes de la septuagénaire. Ces dernières ont ensuite été développées en cellules de la rétine puis transplantées dans le corps de la patiente. 

Il ne reste plus qu’à attendre les résultats, en espérant que l’état de santé du malade s’améliore et qu’aucun cancer ne se déclare. 

En parallèle, le Professeur Shinya Yamanaka a initié la création d’une banque mondiale de cellules IPS, dans l’objectif d’assurer à n’importe quelle personne dans le monde une source de cellules compatibles susceptibles d’être mobilisées rapidement en vue d’un traitement.

Par Audrey Loubens

La Bretagne à la pointe de la méthanisation

Pour lutter contre les algues vertes en Bretagne, la méthanisation des effluents d’élevage est une voie explorée. Au 1er janvier 2014, on recensait en Bretagne une puissance électrique installée de 11 MW sur 41 unités de production et de valorisation de biogaz en fonctionnement. Il y avait 28 installations agricoles (à la ferme, collective et centralisées), une unité utilisant la Fraction Fermentescible des Ordures Ménagères, 4 unités pour l’Industrie agro-alimentaire, deux unités en Installation de Stockage des Déchets Non Dangereux et 6 unités en stations d’épuration. 

En pays de la Loire, 19 installations agricoles sont également en service. A elles seules, les deux régions cumulent donc 47 unités agricoles, sur un total de 150 actuellement en activité en France. « Nos deux régions sont les plus actives en la matière. La forte présence de l’élevage et le développement de nombreuses » petites installations » à la ferme explique cette situation », affirme Sébastien Huet, chargé de la méthanisation à l’Ademe Bretagne. « Dans les autres régions, il y a proportionnellement plus de grosses installations », précise-t-il.

Que faire du biogaz produit ?

Les unités de méthanisation valorisent pour la plupart le biogaz en moteur de cogénération, produisant simultanément de l’électricité injectée sur le réseau régional et de la chaleur valorisée à proximité du lieu de production. Ceci s’explique par le fait que jusqu’en 2011, le tarif d’achat de l’électricité produit à partir de biogaz était le seul mécanisme de soutien. Depuis la publication des tarifs d’achat du biométhane injecté dans le réseau de gaz, plusieurs projets s’orientent vers cette valorisation du biogaz. 

En 2010, le pacte électrique breton a défini deux hypothèses de production d’électricité à partir de biomasse (bois + biogaz) : une hypothèse basse de 50 MW et une hypothèse haute de 120 MW dont 100 MW issu de biogaz. Mais l’injection de biométhane étant désormais possible dans le réseau de gaz naturel, les objectifs ont été modérés entre 50 et 80 MW électriques en 2020, pour laisser également la place à cette injection dans les projets. Fin 2014, la puissance électrique installée des unités de méthanisation devrait atteindre 20 MW. Pour quadrupler ce chiffre d’ici 2020, l’installation des projets devrait donc nettement s’accélérer.

A la ferme, les substrats utilisés se répartissent ainsi : 69% d’effluents d’élevage, 10% de cultures intermédiaires à vocation énergétique, 7% de déchets végétaux, 6% de déchets d’origine animale, 5% de cultures énergétiques et 3% de résidus de culture. « Les cultures intermédiaires à vocation énergétique sont des cultures intermédiaires qui sont implantées  entre deux cultures principales. C’est un peu la même philosophie que les cultures piège à nitrate (CIPAN) mais les CIVE sont implantées dans l’optique de les récolter pour être introduite dans le méthaniseur et produire de l’énergie. Etant implantées entre 2 cultures, elles n’entrent pas en concurrence avec les cultures alimentaires », explicite l’expert de l’ADEME. Les méthaniseurs bretons répondent donc pleinement à leur objectif : valoriser les effluents d’élevage, diminuer la pollution aux algues vertes, tout en produisant de l’énergie… Mais cela suffira-t-il à enrayer cette pollution tant décriée ?

Par Matthieu Combe, journaliste scientifique

Strati est la première voiture fabriquée en impression 3D

Pari tenu ! A l’occasion du salon IMTS qui s’est tenu à Chicago mi-septembre, une société un peu folle a décidé de fabriquer une voiture complète en utilisant la technique de l’impression 3D. Pour tenir ses objectifs, Local Motors avait préalablement sélectionné le meilleur design, celui de la Strati proposé par Michele Anoe. Le gros avantage réside dans son châssis qui peut être imprimé d’un unique bloc.

Ce projet s’est construit en partenariat avec le Maufacturing Demonstration Facility du département américain de l’Energie (DOE) pour la conception et le Cincinnati Inc pour la fabrication. Ces derniers ont mis à disposition une imprimante 3D de pointe, la Big aera additive manufacturing (BAAM), suffisamment grande pour imprimer un châssis de voiture et très rapide pour un délai de réalisation de seulement quelques heures grâce à un taux de déposition de 20kg/h de carbone renforcé de plastique, de l’acrylonitrile butadiène styrène (ABS). L’imprimante a été paramétrée à l’aide de la fabrication numérique directe qui permet de s’affranchir des contraintes liées aux techniques de moulage par injection par exemple.

Débutée le dimanche 6 septembre, il aura fallu moins de six jours pour fabriquer ce véhicule d’un tout nouveau genre et le faire rouler. Seul le moteur électrique a été rajouté. La Strati a donc pu être présentée le samedi suivant, avant la fin du salon.

Les visiteurs ont ainsi pu découvrir la première voiture fabriquée en impression 3D. Cette prouesse technologique prouve une fois de plus la puissance de cette nouvelle technologie incontestablement révolutionnaire.

Découvrez les images impressionnantes de l’impression de la Strati :

Par Audrey Loubens, journaliste scientifique

Mon iphone marche moins bien depuis la sortie du nouveau modèle : pourquoi ?

En précommande depuis le 9 septembre, la dernière version du smartphone de la marque à la pomme est disponible dans les magasins depuis le 19 septembre. Si de nombreux aficionados exultent et attendent avec impatience l’iPhone 6 et le 6 plus, cela pourrait être une très mauvaise nouvelle pour les détenteurs d’iPhone plus anciens. En effet, des soupçons pèsent sur le géant américain. Et s’il bridait les vieilles versions pour pousser à acheter le dernier modèle ?

Laura Trucco, étudiante à l’université d’Harvard de nature curieuse, a découvert que chaque sortie d’un nouvel iPhone provoquait une explosion de la requête « iPhone slow » sur Google. Les statistiques fournies par l’outil Google Trends, outil qui indique la fréquence des requêtes tapés dans le moteur de recherche, semblent donc indiquer que les smartphones deviendraient subitement  moins performants. Pire, ces contre-performances sont suffisamment notables pour alerter les consommateurs qui le vivent comme un problème et en cherchent la solution. Laura Trucco et son professeur d’économie ont publiés dans le New York Times un graphique de la fréquence de ces requêtes. On y observe des pics correspondant à chaque fois à la sortie d’un nouveau modèle. De quoi semer le trouble. D’autant que le phénomène ne s’observe pas chez les concurrents comme Samsung.

Toutefois, avant de clouer Apple au pilori de l’obsolescence programmée, il est intéressant de discuter la cause de cette baisse de performances. Une première hypothèse suppose que l’attrait pour tout ce qui est nouveau altère la perception des gens de telle sorte qu’ils ont l’impression que leur téléphone est de moins bonne qualité. Mais le fait que seuls les appareils Apple soient frappés de ralentissement dès un nouveau modèle sorti écarte cette explication. En revanche, il serait possible que le coupable soit à chercher dans les mises à jour du système d’exploitation. Optimisation à laquelle les anciens modèles réagissent mal, avec comme conséquence un ralentissement général de leur fonctionnement.

Apple serait donc responsable mais pas coupable. En attendant, il y a fort à parier que depuis quelques jours, nombre d’utilisateurs d’iPhone aient la mauvaise surprise de voir leur iPhone moins performant. De là à dépenser 1019€ pour l’iPhone 6 Plus 128 Go ? 

Par Audrey Loubens

L’OPEP pourrait, cet hiver, réduire ses extractions de pétrole d’un demi-million de barils par jour

Bien sûr Russes et représentants de l’OPEP nient avoir des discussions sur des objectifs communs de réduction des volumes d’extraction, mais il est utile de rappeler que leurs productions cumulées proches des 40 millions de barils/jour représentent autour des 55% du flux de production mondiale.

Leur puissance sur ce marché du pétrole leur donne un pouvoir considérable sur les prix. Seules des raisons d’ordre géopolitique, peuvent freiner leurs échanges vers de possibles accords.

Or, les discussions entre dirigeants US et l’Iran chiite, semblent avoir distendu les liens historiques entre Arabie Saoudite et Etats-Unis ce qui ne peut que favoriser une entente conjoncturelle sur le pétrole entre Russes et Saoudiens.

Les uns et les autres sont intéressés par un prix du pétrole nettement au-dessus des 100 dollars le baril, là est l’essentiel.

Par Raymond Bonnaterre

Toxev : la version 3.3 disponible

Les nouveautés

Audit des substances composant un produit, permettant de rassembler dans un tableau les caractéristiques de ces substances notamment :

  • étiquetage Annexe VI CLP
  • valeurs et types de VLEP
  • inscription à l’annexe 14 REACH y compris liste candidate
  • classement CIRC

Logiciels et outils intégrés :

  • HSESOFT-fds, de création et d’édition de fiches de sécurité produits, accessible par le menu contextuel des en-têtes de la grille d’inventaire
  • HSESOFT-étiquettes, de composition et d’édition d’étiquettes, accessible par le menu contextuel des en-têtes de la grille d’inventaire
  • HSE SOFT CLP simplifiant l’accès aux données du tableau 3-1 de l’annexe VI du CLP (filtres de recherche dans la liste des substances, libellé des mentions de danger, représentation des pictogrammes…)

Possibilité de préciser les organes cibles et les voies d’exposition pour les mentions de danger H370, H371, H372 & H373. Les libellés des organes sont calqués sur ceux introduits par les dernières ATP du CLP pour quelques substances de l’annexe 6. Les organes cibles sont tracés dans les documents d’exposition, fiches d’exposition et de prévention des expositions.

Validation des produits (version premium, facultatif).

Filtres de l’inventaire sur une phrase de risque, un pictogramme ou une chaîne de caractères.

Création de liens vers des sous-répertoires du répertoire pdf pouvant rassembler les FDS des produits des inventaires.

Mot de passe d’accès aux fonctions expertes (permettant de modifier les répertoires) étendu aux préférences de traçabilité.

Important : les logiciels Toxev et RiskEV ne sont plus commercialisés par Techniques de l’Ingénieur.

Il y a dorénavant plus d’un milliard de sites sur internet

Internet a fêté ses 25 ans en début d’année et le compteur d’internetlivestats.com indiquait que la toile comptait plus d’1,06 milliard de sites mercredi peu avant 00H00 GMT.

L’idée d’un réseau mondial connecté a été développée dans les années 1980 par le Britannique Tim Berners-Lee, qui n’était alors qu’un jeune ingénieur en informatique dans un laboratoire de physique en Suisse.

Il a développé un moyen de faire communiquer facilement entre eux plusieurs ordinateurs, ce qui a été le premier pas vers un phénomène qui a changé la vie de milliards de personnes.

Il a présenté son idée par écrit le 12 mars 1989, un jour qui est en général considéré comme la date de naissance du web.

Les militaires américains avaient étudié l’idée de connecter des ordinateurs en réseau dans les années 1950, et avaient lancé Arpanet en 1969, une sorte de précurseur d’internet.

Mais grâce au système de « Sir Tim », aujourd’hui âgé de 59 ans, les gens ont été en mesure de publier ce qu’ils souhaitaient sur des ordinateurs reliés entre eux par internet, ouvrant la porte à un gigantesque partage d’informations et à une explosion du nombre de sites.

Des moteurs de recherche géants comme Google ou Yahoo! ont ensuite été créés pour aider les gens à trouver les pages qui les intéressaient parmi la profusion d’informations postées.

Ainsi, rien que pour la journée de mardi, Google a enregistré plus de 3,1 milliards de recherches sur ses serveurs selon internetlivestats.com. Et près de 170 milliards d’emails avaient aussi été envoyés au cours des dernières 24 heures.

Toujours selon le compteur d’internetlivestats.com, la barre des 3 milliards d’internautes devrait aussi être franchie prochainement.

Le revers de la médaille est que l’électricité consommée pour faire fonctionner internet a généré au moins 2,17 millions de tonnes de dioxyde de carbone (CO2) rejeté dans l’atmosphère rien que pour la journée de mardi, selon internetlivestats.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »