Premier à dégainer, Orange a officialisé dans jeudi matin le lancement immédiat, sous sa marque Sosh, de trois forfaits échelonnés de 9,90 à 24,90 euros par mois. Dans la foulée, SFR, filiale de Vivendi, a dévoilé de nouvelles offres dans la même fourchette de prix pour sa gamme Red, qui seront disponibles sur Internet la semaine prochaine.
Les nouveaux tarifs Sosh sont en nette baisse par rapport à ceux pratiqués depuis le lancement de la marque à bas coûts d’Orange en septembre. Mais contrairement à Free, ils ne proposent que des appels en France métropolitaine. Nouveauté dans la gamme, le forfait à 9,90 euros/mois comprend deux heures d’appels, SMS illimités et accès wifi sur les 30 000 hotspots de l’opérateur historique. Le forfait « édition spéciale » à 14,90 euros propose deux heures d’appels, SMS et MMS illimités ainsi que l’internet mobile. Le troisième est un forfait appels et SMS/MMS illimités plus internet mobile, dont le tarif est ramené de 39,90 à 24,90 euros/mois.
La nouvelle gamme Red de SFR proposera elle aussi trois tarifs :
deux heures d’appels et SMS/MMS illimités à 9,90 euros ;
illimité sur les SMS/MMS et les appels vers les fixes de 46 destinations, principalement dans les DOM et en Europe, à 19,90 euros ;
illimité voix et SMS/MMS, plus internet mobile et accès aux hotspots wifi pour 24,90 euros.
Ces forfaits vont remplacer l’actuelle gamme qui va de 12 euros/mois, pour une demi-heure d’appels et SMS/MMS illimités, à 34 euros/mois pour deux heures d’appels, SMS/MMS illimités plus internet mobile. « La gamme Red est faite de séries limitées et a vocation à évoluer régulièrement », a déclaré à l’AFP le directeur marketing de SFR, Patrick Asdaghi.
Tant chez Orange que chez SFR, les forfaits à 24,90 euros comprenant l’internet mobile plafonnent le débit à 1 gigaoctet, contre 3 chez Free. Pour autant, la prodigalité des opérateurs sur le trafic de données et la téléphonie illimitée semble « surdimensionnée » à certains analystes. Les consommateurs n’utilisent en moyenne que 500 megaoctets, téléphonent 2 heures 30 et envoient 120 SMS par mois.
Contacté par l’AFP, Bouygues Telecom, le troisième opérateur de réseau, n’a pas encore dévoilé de nouvelle offre, et n’a pas souhaité s’exprimer jeudi (ndlr : Bouygues Telecom a annoncé depuis une baisse des tarifs de sa marque low-cost B&You via deux forfaits l’un à 9,99 euros et l’autre à 19,99 euros, ce dernier proposant les mêmes conditions que l’offre Free).
Du côté des opérateurs sans réseau propre (MVNO), les abonnés de Virgin Mobile (2 millions de clients), ont reçu mercredi dernier des SMS leur proposant un forfait « tout illimité à 19,99 euros par mois ». Mais aucune confirmation n’a été obtenue de ces tarifs ni de leurs conditions, dont le site internet de l’opérateur ne faisait pas mention à ce stade.
Free a bousculé le paysage français du mobile, en déboulant sur le marché avec une offre agressive à deux tarifs: 19,99 euros/mois avec internet, SMS/MMS illimités et appels illimités vers 40 destinations, et 2 euros mensuels pour 60 minutes de communications et 60 SMS. « Vous pouvez donner une leçon à votre opérateur en le quittant ou en lui demandant de baisser ses tarifs », a martelé mardi dernier Xavier Niel, le patron du nouvel entrant, qui réserve aussi aux abonnés à sa Freebox un tarif privilégié de 15,99 euros pour le premier forfait et la gratuité sur le second.
Pour l’Association française des utilisateurs de télécommunications (Afutt), cette dernière offre « déconsidère » les accords entre le gouvernement et les principaux opérateurs sur des tarifs dits « sociaux » (40 minutes d’appels et 40 SMS pour une dizaine d’euros par mois), en mettant à bas « les argumentaires de coûts de revient incompressibles ».
Une étude menée par des chercheurs de l’Institut des Nanosciences du Conseil National des Recherches, montre qu’en contrôlant le plissement du graphène, il est possible de lui faire absorber puis libérer de l’hydrogène. Le résultat a été publié dans la revue Journal of Physical Chemistry.
L’hydrogène, qui pourrait être le principal combustible du futur pour une énergie propre et efficiente, est difficile à accumuler et à conserver. Cette problématique occupe de nombreuses équipes de recherche à travers le monde, mais souvent, les solutions proposées se heurtent au problème de la phase finale, lorsque l’hydrogène doit être libéré, car cette manipulation nécessite des pressions et températures très élevées, et entraine un gaspillage énergétique important.
Valentina Tozzini et Vittorio Pellegrini, du Laboratoire Nest de l’Institut des Nanosciences du Cnr et de l’Ecole Normale Supérieure de Pise, ont démontré grâce à des calculs théoriques et des simulations, que le contrôle du plissement du graphène, matériel formé par une seule couche d’atomes de carbone disposés en nids d’abeilles en treillis (découverte qui a valu le prix Nobel de Physique en 2010 à Andre Geim et Konstantin Novoselov), permet de libérer l’hydrogène, même dans des conditions de pression et de températures normales.
Les calculs des chercheurs indiquent que lorsqu’une couche de graphène est compressée latéralement de manière à former des plis, l’hydrogène adhère chimiquement aux extrémités de ces sinuosités. En décalant les plis, de manière analogue au mouvement d’une vague, les anfractuosités se déplacent et l’hydrogène se retrouve dans une zone concave où l’adhésion est défavorisée. Ce mécanisme combiné à l’effet dynamique de la formation de vagues, provoque la libération de l’hydrogène. » L’hydrogène a une forte affinité pour les zones convexes du graphène, et très peu pour celles concaves « , explique Valentina Tozzini, » car l’énergie du lien est proportionnelle à l’incurvation du treillis atomique. Une fois capturé sur les extrémités, il est possible de libérer l’hydrogène en inversant l’incurvation. C’est un peu comme secouer un tapis de graphène plein de poussière d’hydrogène ».
Les chercheurs ont ensuite entrepris de produire des couches de graphène plissé en laboratoire et d’inverser les ondulations du matériau de manière contrôlée. » Utiliser l’incurvation du graphène pour absorber et libérer de l’hydrogène est une idée nouvelle « , explique Vittorio Pellegrini, co-auteur de l’étude, » la réalisation du dispositif dépend de nombreux paramètres techniques que nous avons à peine commencé à explorer, et les simulations de cette étude, montre que la route est semée d’embûches « .
Comme il a transformé le crédit immobilier et de très nombreux autres secteurs, l’internet bouleverse les règles du commerce. L’exemple le plus emblématique est constitué par Amazon qui invite ses concurrents sur son propre site, c’est aussi le cas d’eBay, enchères entre particuliers, Cdiscount, ventes promotionnelles, leboncoin, annonces gratuites. Les modes d’échanges et de commerce se multiplient et continueront à se multiplier.
Les coupons de réduction ont connu leur heure de gloire, ils font partie de ce paysage en plein bouleversement, en profitant du meilleur de l’internet : une audience considérable, une offre attractive et limitée dans le temps…
Groupon, société spécialisée en coupons de réduction, occupe la place enviée de la société qui a atteint le plus rapidement un milliard d’euros de chiffre d’affaires – en seulement 18 mois ! – et sa valorisation a atteint plus de 60 milliards de dollars. Ses concurrents, livingsocial et de nombreux autres, connaissent une croissance très rapide.
Le transfert de cet outil de promotion traditionnel sur Internet semblait promis à un succès considérable, mais il apparaît aujourd’hui, en analysant dans le détail le marché, que bien au contraire, les coupons ne vont pas résister durablement à l’internet.
En effet, si la promotion reste et restera toujours le moteur du commerce (sur Internet comme en boutiques), les coupons de réduction, pour être efficaces, doivent remplir trois objectifs :
Aider le marchand à absorber des coûts fixes en augmentant le volume vendu, même à une marge faible ou dans certains cas négative ;
Contribuer à la notoriété du commerçant en donnant une visibilité publicitaire autour d’une offre alléchante ;
Conquérir et fidéliser de nouveaux clients en les attirant une première fois par la qualité de l’offre, pour ensuite les conserver et générer ainsi des revenus récurrents.
Force est de constater qu’avec leur transfert et leur multiplication sur Internet, les coupons victimes de leur succès et de leur banalisation, perdent tout leur attrait…
Internet n’a pas seulement transposé le monde physique en monde virtuel, il a modifié le comportement des consommateurs et a supprimé les avantages des coupons pour les marchands :
Les marges sont largement négatives, le marchand doit à la fois réduire ses prix et rémunérer l’intermédiaire ;
La notoriété du marchand n’est pas améliorée, elle est même parfois dégradée, le client ne perçoit plus le coupon comme une marque d’attention personnelle mais comme un moyen de brader l’offre ;
La fidélisation s’avère inexistante, les consommateurs profitent des coupons et, attirés par de nouvelles offres, ne sont pas intéressés à continuer leurs achats à un prix normal.
Pour prendre une comparaison plus indirecte, la généralisation des coupons entraîne des changements de comportement similaires à celui des sites de rencontre ! L’Internet donne un éventail de choix plus vaste, des « offres » ciblées, et permet également de multiplier les rencontres… La rencontre change de nature, elle n’est plus un moment rare qu’il faut prolonger.
Les marchands se rendent compte que les coupons disponibles sur Internet ne remplissent aucun des trois objectifs qu’ils recherchent… bien au contraire ! Ils ne sont plus au service du marchand, mais au service exclusif des consommateurs et des sites qui les proposent.
Les coupons sur Internet, ont connu leur heure de gloire, un trafic exponentiel, une notoriété grandissante. Les marchands se sont laissés séduire, certains ont réalisé des chiffres d’affaires exceptionnels grâce à eux.
Mais les faits sont têtus et les marchands vont en prendre conscience. Ils vont progressivement arrêter de faire appel aux sites de coupon sous leur forme actuelle et rechercher de nouvelles formes de promotion, certaines plus traditionnelles, qui soient capables de valoriser leur image et d’attirer de nouveaux clients fidèles et heureux de profiter de leurs services sur le long terme.
Par Christophe Cremer, Directeur Général de PrestaShop / Experts IT
Christophe Cremer
Après avoir travaillé pour Citibank, Christophe Crémer crée en 1984 Sybel Informatique, un éditeur spécialisé dans les logiciels de gestion. Cette société devient l’un des leaders français en 1995 avec plus de 20 millions d’euros de chiffre d’affaires, revendue ensuite à Sage, l’un des plus gros acteurs du marché. En 1999, il crée la société Meilleurtaux.com, pionnier en France du courtage en ligne de prêts immobiliers par Internet. En 2007, Meilleurtaux.com réalise environ 50 millions d’euros de chiffre d’affaires avant d’être rachetée par un consortium piloté par la Caisse d’Epargne à la fin de cette même année. Fin 2010, il est nommé au poste de Directeur Général de PrestaShop.
La société G-Form en est convaincue : son étui de protection pour iPad est à toute épreuve. À tel point qu’elle a fait le test de lancer un iPad, recouvert de son étui, à une hauteur de plus de 30 kilomètres !
Le MIT vient d’élaborer une caméra capable de filmer à mille milliards d’images par seconde, suffisamment pour capturer le déplacement des photons ;
Clash est un « adorable » robot cafard hexapode, capable de grimper sur toutes sortes de textiles ;
Peu d’espèces peuvent se targuer d’avoir passé le test du miroir avec succès. Les robots font désormais partie du cercle très fermé des élus, grâce à leur représentant QBO ;
Est-ce une météorite de Noël, une boule de feu, un OVNI ou bien le dernier étage du lanceur russe « Soyouz » qui a traversé le ciel samedi 24 décembre ?
Une célèbre franchise de jeux-vidéo a décidé de se servir des récentes découvertes en lévitation quantique pour faire le buzz ;
Le gadget (inutile ?) de la semaine : « AntRoach », un robot gonflable particulièrement malhabile ;
Bonus : un peu de poésie grâce à la machine à écrire chromatique…
Un iPad lancé à une hauteur de 30 kilomètres :
La société G-Form, spécialisée dans la conception et la fabrication d’étuis de protection pour tablettes, a vu les choses en grand. Habituée aux coups marketing, elle n’a pas lésinée sur les moyens pour tester son nouvel étui de protection flexible G-Form Extreme Sleeve, qu’elle a envoyée avec la tablette à plus de… 30 kilomètres de hauteur !
Accrochée à un ballon météorologique (un ballon-sonde), la caméra nous montre l’ascension de la tablette protégée par l’étui de couleur jaune, atteignant ainsi près de 100 000 pieds d’altitude (un peu plus de 30 000 mètres), puis la chute du dispositif, caméra Go-Pro comprise. À l’aide d’un tracker, l’équipe de G-Form retrouve la tablette, dont la coque semble avoir résisté au choc. L’écran, lui aussi, semble avoir passé l’épreuve du feu avec succès.
Plusieurs choses sont à observer : le poids au dos du dispositif a permis à la tablette de tomber sur le « dos », et non pas côté écran ; à partir d’une certaine hauteur, la vitesse de chute atteint sa limite, dûe aux frottements de l’air. Il n’est donc pas nécessaire (sauf pour créer le buzz) de tester l’étui à une telle hauteur ; enfin, remarquons tout de même que la caméra Go-Pro n’est, elle, pas protégée et en parfait état de fonctionnement après la chute.
En bonus, voici une vidéo mettant en scène le même étui, afin de prouver qu’il peut supporter la chute d’une boule de bowling. Une fois encore, la tablette semble fonctionner parfaitement.
Une caméra capable de « capter » la lumière :
Le prestigieux Massachusetts Institute of Technology (MIT) a mis au point une caméra capable de filmer l’impossible : capter le déplacement d’une onde lumineuse. Pour réaliser ce tour de force, oubliez les ordres de grandeur habituels quant au nombre d’images par seconde, aux alentours du millier de FPS (Frames Per Second). La caméra du MIT joue, elle, dans une toute autre catégorie puisqu’elle est capable de capter… plus de mille milliards de FPS. Et donc capable à la fois de photographier des impulsions lumineuses ultracourtes comme de filmer ces impulsions laser en plein vol. La technique est baptisée « femto-photographie » (femto : 10-15, un millionième de milliardième), et se base sur de nombreux détecteurs réglés à la picoseconde, ainsi que sur différentes techniques de reconstruction mathématique. Un laser titane saphir sert de source lumineuse, émettant des impulsions toutes les treize nanosecondes, dont le but est double : éclairer la scène et déclencher la prise d’image.
« Clash », le robot cafard :
Bien que les termes « cafard » et « adorable » soient antinomiques, le petit robot « Clash » n’a pourtant rien de répugnant. Le robot miniature à six pattes, mis au point par la prestigieuse université américaine de Berkeley, en Californie, rappelle grandement son prédécesseur, le DASH (Dynamic Autonomous Sprawled Hexapod, acronyme qui signifie aussi « se précipiter » en anglais) conçu dans les laboratoires du Biomimetic Millisystems de la même université, deux ans plus tôt.
Mais à la différence de son grand-frère, Clash n’est pas seulement capable de se déplacer horizontalement, il peut aussi grimper verticalement, notamment sur des matières de type textiles. La clé du mouvement est assurée par les quatre pattes avant, les deux pattes arrière n’ayant qu’une fonction stabilisatrice. Le robot peut grimper sur les vêtements grâce à de petites griffes situées sous les pattes, tandis que son appendice lui permet d’assurer près d’une trentaine de pas par seconde. Sa vitesse maximale est de 24 centimètres par seconde, ce qui n’est pas rien eût égard à sa dizaine de centimètres de longueur.
QBO, le robot qui réussit le test du miroir :
Conçu par la société espagnole The Corpora, QBO est un petit robot open-source muni de deux roues motrices et disposant d’une caméra, lui permettant à l’aide d’un logiciel de reconnaître certains objets ou visages, lorsqu’un utilisateur le lui demande de manière explicite. La vidéo ci-dessous montre une petite expérience réalisée dans les locaux de la société : une fois passé en mode « reconnaissance d’objet » ou « reconnaissance de visage », et après avoir reconnu avec succès un des ingénieurs et une image de pingouin, le robot est confronté à sa propre image dans un miroir.
Développé dans les années 70 par le psychologue américain Gordon G. Gallup, le test du miroir est un moyen très connu pour mesurer la conscience de soi. Les animaux qui ont réussi ce test sont les chimpanzés, les bonobos, les orang-outans, les dauphins, les orques, les éléphants, ainsi que les corbeaux et les pies.
QBO, grâce à sa vision stéréoscopique, repère son image dans le miroir et, à l’aide d’un des ingénieurs, apprend à se reconnaître. Ce n’est évidemment pas encore une vraie conscience de soi, mais le résultat est intéressant et l’on peut désormais se demander si QBO serait capable de distinguer son image de celle d’un autre « QBO ».
Un morceau de Soyouz fait office de météorite de Noël :
Samedi 24 décembre 2011, entre 17h20 et 17h30, un étrange événement s’est déroulé devant les yeux tantôt ébahis, tantôt effrayés de millions de personnes se trouvant dans une zone couvrant l’Allemagne, la Suisse, la Belgique et le nord de la France. Ces spectateurs anonymes en sont certains : ils ont vu un OVNI, une météorite ou encore le chariot du père Noël…
Il n’en est pourtant rien. La très spectaculaire boule de feu s’est avérée n’être que la rentrée dans l’atmosphère terrestre du dernier étage de la fusée russe « Soyouz », lancée le mercredi précédent depuis Baïkonour, au Kazakhstan, et ayant connu de nombreux déboires. Parmi ces déboires, l’échec de la mise en orbite d’un satellite de communication russe, en raison d’une avarie et d’une panne. Comble de malchance, un morceau du satellite a tout de même atterri… sur le toit d’une modeste maison en Sibérie.
La vidéo qui suit a été filmée en Allemagne, dans la ville de Kusel, du Land de Rhénanie-Palatinat, à 17h26 :
Faire le buzz et surfer sur la lévitation quantique :
Vous vous souvenez sûrement de cette vidéo qui a fait le buzz il y a quelques mois, lorsqu’un groupe de chercheurs et d’étudiants de l’université de Tel-Aviv (Israël) a développé un disque supraconducteur capable de léviter, tout d’abord au-dessus d’un simple aimant permanent, puis sur tout un circuit circulaire composé d’aimants.
Le phénomène mis en cause ici s’appelait le « blocage quantique », bien que l’expression « lévitation quantique » soit plus utilisée. Nous vous en parlions ici.
Une agence de communication a eu la bonne idée de se servir du buzz suscité par ces travaux pour initier une campagne de publicité virale pour le jeu WipEout, jeu vidéo connaissant un immense succès critique et commercial depuis sa création. Les joueurs ici sont aux commandes de véhicules aérodynamiques futuristes et armés, utilisant une technologie fictive « d’antigravité », et participent à des courses ultra-rapides et au graphisme léché.
Présenté comme le fruit du travail du – fictif – « Japan Institute of Science and Technology », un circuit WipEout aux dimensions d’un circuit de modèle réduit voit évoluer dans une vidéo deux engins en supposée lévitation, mais cette vidéo n’est malheureusement qu’un… fake, pour promouvoir la sortie du prochain opus de la franchise. En dehors des graphiques fantaisistes, on imagine encore assez mal un circuit où des enfants seraient à même de manipuler de l’azote liquide. Dommage !
Le gadget (inutile ?) de la semaine : « AntRoach », le robot gonflable et malhabile
Pour conclure cette dix-huitième revue du Web, voici le gadget (inutile ?) de la semaine : « AntRoach », un robot gonflable particulièrement malhabile. AntRoach (nom formé à partir de « cockroach », cafard en français, et « ant », fourmi en français) pourrait être l’exacte antithèse de « Clash », le robot cafard présenté plus haut. Développé par Otherlab, un laboratoire de recherche américain basé à San Francisco spécialisé dans les équipements gonflables, ce robot pneumatique pèse un peu plus de trente kilos, mesure environ 4,50 mètres et peut transporter près de 500 kilos sur son dos et ses six pattes gonflables. Toutefois, « AntRoach » n’est pas le robot le plus mobile jamais construit, le transport semble donc rester problématique…
Avantage ? Il sait aussi se déplacer sur l’eau. Jugez plutôt…
Bonus : la machine à écrire chromatique :
En bonus, voici la fantastique invention de Tyree Callahan, un artiste-peintre américain qui, en modifiant une vieille machine à écrire Underwood 1937, – appareil mythique de l’âge d’or des écrivains américains –, l’a transformée en une « machine à écrire chromatique », ou une machine à « écrire des images ». Pour cela, il lui aura suffi de remplacer les touches et les lettres par des tampons de couleur et des dégradés, lui permettant d’écrire ainsi une toute autre histoire…
En regardant l’historique de ce blog, je me suis rendu compte que j’avais commis un ridicule petit article de prévisions à la fin de l’année 2010. Il m’était sorti de la tête, mais en relisant, je trouve qu’il n’était pas si mal : Android a bien dépassé l’iPhone en 2011 aux US et en France (je ne sais pas au niveau mondial), la croissance de Facebook décroît bien effectivement, la Freebox V6 n’était pas vraiment un monstre de stabilité sur le début de l’année. En revanche, Google+ est un vrai succès en nombre de profils, et je ne sais pas si Windows Phone 7 est un échec. Alors soyons joueur, et lâchons quelques nouveaux pronostics pour 2012.
Facebook atteint le milliard de profils. Un beau chiffre suivi de neuf zéros. Oui, mais la croissance ne se fait plus en Europe, elle se fait en Asie et en Amérique du Sud. L’Inde va devenir la 2nde nation sur Facebook, le Brésil connaîtra une très forte progression et finira à la 3e place d’ici la fin 2012.
Foursquare lance ses pages entreprise. L’univers des médias sociaux semble converger vers un modèle page perso / page entreprise, avec Facebook, Google+, Twitter et même LinkedIn. Foursquare ne peut rester de marbre et va jouer à ce petit jeu ridicule.
Groupon disparaît de la scène. Gros buzz en 2011, gros fiasco en 2012 ? Avec son modèle basé sur des remises intenables pour les annonceurs, Groupon ne peut jouer la carte du long terme. Le crash a déjà commencé, il se finalisera avant la fin de l’année.
Le téléchargement illégal revient à son niveau de 1999. La guerre contre le téléchargement illégal a connu de nombreux rebondissements, mais ce n’est pas tant en faisant peur au consommateur avec Hadopi, mais plutôt en frappant là où ça fait mal – au porte-monnaie – que le téléchargement se tarit : en brisant l’écosystème autour des sites de partage, en leur coupant les moyens de paiement, par exemple.
Amazon sort un Kindle vidéo. Je sais, c’est complètement abracadabrant, mais j’ai toujours été surpris par les idées d’Amazon, alors pourquoi pas celle-ci ? Un permettant d’acheter un DVD ou de le louer via Amazon, bien entendu. Service ouvert aux US en septembre 2012, puis un an plus tard en Europe. Un délai simplement dû aux négociations nécessaires avec les ayants-droit.
Viadeo signe un partenariat avec LinkedIn. Ce sera la première pierre sur le petit chemin caillouteux qui mènera cinq ans plus tard au rachat de Viadeo par LinkedIn. Les tentatives d’expansion en Russie et en Chine seront vaines, et la fusion avec LinkedIn sera la seule voie de sortie envisageable.
IBM rachète WordPress. Totalement irréaliste, bien sûr, à qui devrait-on faire le chèque ? Mais je me souviens de la vente de JBoss Inc. à RedHat en 2006, deux boîtes qui faisaient de l’open source. Et vu le succès de WordPress ces temps-ci, je me dis qu’il serait temps qu’une boîte sérieuse s’y intéresse.
Free / Iliad sort son propre téléphone mobile. Là aussi, totalement irréaliste, déjà qu’ils ont du mal à sortir leur offre mobile. Mais Iliad / Free est une boîte avec une certaine dose d’audace technologique, et je les verrais bien lancer leur propre smartphone, sur base Android bien sûr, avec un tas de services accessibles uniquement aux abonnés. Une sorte de Freebox du téléphone.
YouTube se lance dans le cinéma. Ou plutôt, après le direct, la VOD, YouTube se lance dans la production de films… distribués uniquement sur YouTube. Abracadabrant, sauf pour cette frange de cinéastes qui ont du mal à faire distribuer leurs films. De même qu’AdWords permet à n’importe quelle boîte de faire de la pub (même à petit budget), cette offre permettrait à n’importe quel cinéaste de se faire connaître et de gagner un peu d’argent par ce biais. Une sorte de micro-financement du cinéma. Fou, non ?
Les smartphones deviennent des moyens de paiement, grâce à une application qui associe un (ou plusieurs) compte en banque à un numéro de mobile. Bien sûr, une identification est nécessaire pour ne pas se faire vider son compte chaque fois qu’on égare son téléphone. Et bien entendu, American Express et Visa sortent deux applis rivales.
Pour la première fois, l’audience Internet des JO dépasse l’audience TV. C’est le grand événement interplanétaire de 2012, et les droits télévisuels ont atteint des records. Du coup, peu de chaînes ont eu les moyens de suivre économiquement, et paradoxalement, c’est Internet qui se taille la part du lion … mais en comptabilisant les contenus publiés par les spectateurs eux-mêmes depuis leurs smartphones.
EDF se lance dans la voiture électrique. C’est le coup de génie de Proglio d’ici la fin 2012, il annonce un partenariat avec Renault pour devenir distributeur de véhicules électriques, réalisant ainsi une intégration verticale complète. Disposant d’une connaissance parfaite de son réseau de distribution, EDF est capable d’ouvrir des bornes de ravitaillement qui correspondent exactement aux statistiques d’usage sur le long terme. Bien entendu, c’est le Qatar qui financera l’opération…
Bon, c’est certain, il y a des trucs complètement irréalistes là dedans. Mais qui sait, on est en 2012 ? (heureusement qu’on n’est pas en 2059 d’ailleurs, ça serait plus dur)
Blogueur, polytechnicien et entrepreneur, Hervé Kabla est un scientifique tombé très tôt dans le marketing et la communication. Passé par Dassault Systèmes, l’Inria et deux ou trois start up, il dirige blogAngels, agence 100 % médias sociaux et a cofondé Media Aces, association d’entreprises utilisatrices de médias sociaux.
« En 2008, on vous avait promis de diviser votre facture par deux. Depuis, les opérateurs présents sur le marché ont baissé leurs prix de seulement 10 %. Free propose aujourd’hui des offres qui divisent de deux à quatorze fois les forfaits existants », a martelé Xavier Niel, PDG de la maison-mère Iliad.
Free est le quatrième opérateur à avoir décroché une licence de téléphonie mobile 3G en France et a reçu son autorisation d’exploitation en décembre dernier.
Mardi, lors d’un show à l’américaine, Xavier Niel a dévoilé un forfait mobile sans engagement et sans téléphone à 19,99 euros, comprenant l’Internet illimité plafonné à 3 gigaoctets, les appels illimités vers 40 destinations ainsi que les SMS et MMS illimités. En parallèle, Free a proposé une offre dite « sociale », en référence au système mis en place par le gouvernement, mais qui sera accessible à toute personne sans condition de ressources. Pour 2 euros par mois, ce forfait donne accès à 60 minutes de communication et à 60 SMS par mois.
Le ministre de l’Industrie, Eric Besson, s’est félicité dans un communiqué « de cet engagement en faveur des citoyens les plus défavorisés » et a indiqué que « cette offre pourra être éligible au label tarif social mobile ».
Ces deux offres sont commercialisées dès ce mardi sur Internet, par téléphone et dans les deux boutiques que compte l’opérateur. Elles sont « limitées aux trois premiers millions d’abonnés », a précisé M. Niel, qui comptabilise 4,8 millions d’abonnés pour ses offres triple-play – télévision, Internet et téléphonie fixe. Pour tous les abonnés à cette FreeBox, le forfait à 19,99 euros sera commercialisé à 15,99 euros, et le forfait « social » sera gratuit.
« Free fait une entrée fracassante sur le marché aussi bien sur les prix que sur les contenus avec deux très bonnes offres, et il tient sa promesse en divisant par plus de deux les prix », a résumé à l’AFP Mathieu Drida, PDG du site de comparaison d’offres, meilleurmobile.com. « Mais c’est une offre qui ne s’adresse qu’à une partie de la population car elle est surdimensionnée, avec un internet plafonné à 3 gigaoctets alors que la moyenne des consommateurs n’utilisent que 450 ou 500 megaoctets, téléphonent 2H30 par mois et envoient 120 SMS par mois », a-t-il souligné. « Il ne faut cependant pas se précipiter, car les autres opérateurs vont répliquer », a estimé Mathieu Drida.
Réactions de la concurrence
« C’est le jour J pour Free et nous les laissons savourer. Mais que nos clients se rassurent, nous reviendrons vite vers eux pour parler des propositions que nous avons préparées », a réagi l’opérateur historique Orange. « C’est une offre de lancement réservée aux trois premiers millions, on verra ce qu’il se passe ensuite. Notre offre low-cost sur Internet n’a encore séduit que 14 000 consommateurs alors que nous avons vendu près de 500 000 forfaits smartphones en décembre », a de son côté commenté Frack Cadoret, directeur général de SFR.
« Vous avez le choix des armes, vous pouvez donner une leçon à votre opérateur en le quittant ou en lui demandant de baisser ses tarifs », a lancé Xavier Niel lors de sa présentation également retransmise en direct sur Internet. Avant son intervention, l’opérateur a diffusé un petit film parodique, moquant nommément les dirigeants des opérateurs concurrents et leurs affirmations tenues au fil des années concernant leur stratégies et leurs tarifs.
À la mi-journée, le site Internet de FreeMobile n’était déjà plus accessible, a constaté l’AFP. À 11H40, le titre Iliad gagnait 1,41 % à 96,34 euros, dans un marché en progression de 1,94 %.
La France compte plus de 16 millions de fans actifs sur Facebook
Fin 2011, 80 % des utilisateurs de Facebook sont membres d’au moins une page fan, qu’il s’agisse de la page Facebook d’une marque, d’une entreprise, d’une association, d’un personnage public… Et 80 % de ces fans sont « actifs » au sens où ils suivent les publications des pages dont ils sont membres. Par ailleurs, ces fans « actifs » sont de très gros utilisateurs de Facebook : plus de 80 % d’entre eux s’y connectent au moins une fois par jour. Ce sont ainsi près de 65 % des membres de Facebook en France qui suivent les actualités de pages dont ils sont fans, portant le nombre total de fans ayant de la valeur – puisqu’actifs – à plus de 16 millions !
Globalement, la répartition des fans actifs de pages sur Facebook – toutes catégories confondues – est très équilibrée, identique à celle des internautes français avec 51 % d’hommes et 49 % de femmes. En revanche, concernant l’âge, la « fan-attitude » touche prioritairement les plus jeunes internautes : sur Facebook, plus de trois fans actifs sur cinq ont moins de 35 ans et plus d’un tiers a moins de 25 ans. Les plus âgés ne sont cependant pas totalement en reste puisque 23 % des fans ont entre 35 et 49 ans mais seuls 14 % ont plus de 50 ans contre 28 % de l’ensemble des internautes français !
Parmi les catégories de pages Facebook les plus plébiscitées par les fans français, on retrouve en premier lieu celles des personnages publics, rassemblant près d’un fan sur deux (47 %) sur Facebook. Et parmi eux, les chanteurs et groupes musicaux (74 %) devancent nettement les acteurs, comédiens ou humoristes (57 %), ou les sportifs (32 %). À titre d’exemple, on peut citer les 26 millions de fans2 de David Guetta, même s’ils ne sont évidemment pas tous français…
Sans surprise, les 15-24 ans sont nettement plus représentés parmi les fans de personnages publics : ils constituent ainsi 45 % de l’ensemble des fans de pages Facebook de cette catégorie.
Vient ensuite l’univers des médias, suivi par plus de 40 % des fans Facebook. Les pages Facebook des chaînes TV (56 %) et de leurs émissions tirent l’audience de cette catégorie vers le haut comme le démontrent les records des pages de TF1 et de Canal+, avec respectivement 2 et 3 pages Facebook réunissant plus de 500 000 fans2 chacune. De même, les stations radio (35 %) à destination des jeunes, que sont Fun Radio, NRJ et leurs émissions, rassemblent chacune plus d’1 million de fans et Skyrock près de 800 0002…
Sans oublier le cinéma (36 %) qui rassemble également de très nombreux fans avides de mettre en avant leurs films préférés sur leurs profils Facebook. Par exemple, la page Facebook d’ « Intouchables », servant de site officiel au film français en tête du box office depuis sa sortie début novembre 2011, rassemble déjà plus de 380 000 fans2 !
En matière de profil, plus de 70 % des fans de pages de la catégorie des médias a moins de 35 ans.
En 3e position des catégories de pages les plus suivies sur Facebook, arrivent d’un côté les organismes et associations, et de l’autre les sites Internet , rassemblant chacune 35 % des fans Facebook. Les ONG et associations humanitaires sont suivies par près de 43 % des fans de leur domaine devant les fédérations et clubs sportifs (39 %) ; tandis que les sites culturels (36 %) et de jeux (35 %) sont ceux qui réunissent le plus de fans dans la catégorie des pages Facebook de sites Web. À titre d’exemples, nous pouvons citer la page du site culturel de la Mairie de Paris, paris.fr, dont la communauté rassemble près de 900 000 fans2, ou encore les pages Facebook des sites des jeux « Les Lapins Crétins » (près de 600 000 fans2) et « Assassin’s Creed » (plus de 300 000 fans2) édités par la société Ubisoft.
Si le profil des fans de pages d’organismes et d’associations est très proche de celui de l’ensemble des fans actifs sur Facebook, celui des fans de sites Internet est globalement plus jeune puisque composé à 43 % de 15-24 ans, et plus masculin avec plus de 57 % d’hommes.
Enfin, arrivent les pages de marques ou produits suivies par 29 % des fans de pages Facebook. Le secteur de l’habillement tire son épingle du jeu rassemblant 54 % des fans de marque. Il est suivi par le secteur des technologies et télécommunications dont les marques et produits attirent plus de 37 % de fans. Suivent les marques des secteurs de l’hygiène-beauté et de l’alimentation. À titre d’exemples dans ces secteurs, citons les communautés de fans des marques Oasis (plus de 2 millions de fans2), M&M’s France (plus d’1,2 million de fans2), Kiabi (près d’1 million de fans2), La Redoute (plus de 700 000 fans2), Effet Axe (plus de 650 000 fans2) ou SFR (près de 600 000 fans2).
À noter que le profil des fans de marques est nettement plus féminin (57 %) et jeune (47 % ont entre 15 et 24 ans) que celui des fans de pages sur Facebook dans leur ensemble.
* * * * * * * * * * * * * * * * * * * * * * *
(1) Méthodologie Enquête réalisée en ligne par l’institut Harris Interactive en 3 vagues successives du 16 au 23 novembre, du 30 novembre au 7 décembre et du 14 au 21 décembre 2011. Echantillon total de 3 000 individus représentatifs de la population des internautes français âgés de 15 ans et plus, à partir de l’access panel Harris Interactive. Méthode des quotas et redressement appliqués aux variables suivantes : sexe, âge, catégorie socioprofessionnelle et région d’habitation de l’interviewé(e).
(2) Nombre de fans relevé directement sur les pages Facebook mentionnées au 3 janvier 2012.
L’article est exactement ce que Feringa avait promis de livrer lorsqu’il a reçu le Prix Spinoza de la NWO [organisation de la recherche néerlandaise] en 2004. En 1999, il a inventé un moteur moléculaire propulsé grâce à la lumière, une découverte spectaculaire qui avait attiré l’attention du monde entier. Un de ses objectifs, avec l’aide des fonds Spinoza et d’une subvention ERC, a été d’utiliser ce moteur pour propulser un véhicule moléculaire. Ce véhicule devrait être en mesure d’effectuer un mouvement contrôlé sur une surface.
Moteur moléculaire
Le moteur moléculaire de 1999 se compose de deux parties : une fixe, statique, qui peut servir de point d’ancrage et d’une partie tournante unidirectionnelle qui peut fonctionner comme une vis ou une hélice. A la suite de ça, le chercheur a pensé que cela pourrait fonctionner comme un moteur hors bord fixé à une unité plus grande.
Toutefois, dans le « nanovehicle » décrit dans Nature, le moteur est utilisé comme une roue. La nouvelle molécule possède une longue section avec quatre roues tournant à chacune de ses extrémités. Ou peut-être serait-il mieux de les appeler des pagaies, vu que les extrémités ne sont pas complètement rondes. En conséquence, le véhicule a tendance à tituber légèrement.
Caténaires
La molécule à quatre roues reçoit l’énergie qui lui permet de se déplacer d’une pointe STM qui fonctionne comme un caténaire de locomotive. Un STM (scanning microscope à effet tunnel) se déplace sur une surface avec un fil pointu sans qu’aucun véritable contact « physique » ne se produise – l’extrémité est reliée par une charge électrique.
L’énergie de la pointe du STM passe par le « tunnel » dans la molécule, qui gagne alors de l’énergie, entraînant pas à pas la rotation des roues ; ce processus est analogue à un transfert d’énergie par photons.
Mauvaise direction
Dans l’article de Nature, les images du STM montrent la molécule se déplaçant sur une surface de cuivre. Après dix ‘pas’, elle s’est déplacée de 6 nanomètres suivant une ligne plus ou moins droite. Pour prouver que se sont bien les roues qui propulsent le véhicule, les chercheurs montrent dans le suivi des expériences ce qui arrive quand les roues tournent dans le mauvais sens. Les chimistes ont étudié des molécules qui permettent de faire tourner les roues arrières dans la direction opposée à celles de devant, ou d’autres qui permettent de faire tourner les roues de gauche dans le sens opposé à celles de droite ou vice versa. Les mouvements qui en résultent sont exactement ceux auxquels les chercheurs s’attendaient, – la molécule ne change quasiment pas de position ou tout simplement se déplace en zigzagant.
Preuve
Ces dernières expériences prouvent clairement que le mouvement est provoqué par la rotation des roues, comme le mentionnent les chercheurs dans leur conclusion. Peut-être la vitesse et les performances laissent à désirer, mais la preuve a été donnée: une molécule unique avec des fonctions intrinsèques du moteur est capable de transformer l’énergie provenant de l’extérieur en un mouvement, mono directionnel à travers une surface.
Curriculum vitae
En 2004, le professeur B.L. Feringa, professeur de chimie organique de synthèse, a reçu un Prix NWO Spinoza, la plus haute distinction académique aux Pays-Bas. En 2008, il est nommé professeur par l’Académie royale néerlandaise des arts et des sciences (KNAW) et a reçu une subvention du Conseil européen de la recherche (CER) pour le projet « moteurs moléculaires – contrôlant le mouvement à l’échelle nanométrique « .
Free, détenteur de la quatrième licence de téléphonie mobile après Orange, SFR et Bouygues, a l’obligation de dévoiler ses offres commerciales d’ici le 12 janvier, échéance fixée par l’Autorité des télécoms, l’Arcep.
Free remplit depuis plus de trois semaines les conditions réglementaires pour la mise sur orbite de cette offre fiévreusement attendue, avec un niveau de déploiement 3G de 27 %.
Les rumeurs se sont multipliées à travers les blogs et medias spécialisés depuis la mi-décembre sur la date de lancement des offres et leurs tarifs, alors que le PDG d’Iliad, Xavier Niel, promet depuis 2008 de « diviser par deux la facture des Français » en téléphonie mobile.
Vendredi, une fausse invitation circulait sur le Web, prévoyant pour Free Mobile un « décollage imminent jeudi 12 janvier à 14 heures au Pavillon Gabriel », une salle habituellement utilisée par la société pour ses conférences de presse. L’information avait immédiatement été démentie par le groupe.
Free, qui dispose déjà d’une base de près de 4,8 millions d’abonnés Internet, est très attendu sur le créneau des offres « quadruple play » qui proposent des abonnements groupés fixe-mobile-internet-télévision moyennant une baisse du tarif global.
La société allemande e-Wolf, spécialisée dans le développement d’utilitaires électriques, s’est associée à un géant de l’automobile, le constructeur japonais Toyota, pour mettre au point l’ « Alpha 1 SRF », un modèle de véhicule sportif électrique, désormais disponible à la vente. Forts de leur expérience en matière de motorisation électrique, les Allemands de e-Wolf comptent ainsi dynamiter les clichés entourant la lenteur supposée des modèles électriques.
Son moteur électrique de plus de 380 chevaux, développant un couple constant de près de 800 N/m, propulse le bolide jusqu’à 230 km/h, atteignant même les 100km/h en 3,9 secondes, et présentant une autonomie de près de 300 kilomètres.
Cette voiture est détentrice du record de vitesse du Nürburgring (« l’anneau de Nürburg », célèbre circuit de formule 1 allemand, toutefois délaissé en raison de sa grande dangerosité) pour une voiture électrique, avec un peu plus de 7 minutes et 47 secondes. L’Alpha 1 SRF pulvérise le précédent record, alors détenu par la futuriste EX1 du constructeur français Peugeot. La vente de cette voiture ayant établi ce record se fera au prix de 750 000 euros, bien qu’elle affiche près de 5 000 kilomètres au compteur, et qu’elle soit grimée à l’image de Toyota Motorsport Gmbh.
Le prochain modèle sportif, l’Alpha 2, toujours dans les cartons mais en phase de développement, devrait partager la même motorisation que l’Alpha 1 SRF, pour la somme de 250 000 euros.
Dans la course vers des systèmes de reconnaissance toujours plus perfectionnés, un groupe de chercheurs de l’ « Advanced Institute of Industrial Technology » de Tokyo a développé un siège pour automobile capable d’identifier le conducteur grâce à ses fesses. L’astuce réside dans le fait que ce siège auto est doté d’un système mesurant la pression qu’une personne exerce sur le siège, à travers un jeu de plus de 360 capteurs, créant une image 3D de son postérieur.
Plus de 360 capteurs de pression
Chacun de ces capteurs de pression mesure les variations de celle-ci, les convertissant en variations de tension électrique, information alors recueillie par un ordinateur de bord qui compile les données pour en tirer des informations clés (la plus grande valeur de pression, l’aire de contact sur le siège auto, etc.). D’après l’équipe japonaise, le système a été capable d’identifier près de 98 % des conducteurs lors des batteries de tests effectuées.
« L’empreinte de pression », suffisamment discriminante ?
D’après l’hebdomadaire économique japonais, The Nikkei Weekly, l’équipe de chercheurs a désormais pour objectif de travailler main dans la main avec les constructeurs automobiles, afin d’affiner puis de commercialiser leur technologie. Le but ? Créer un système de reconnaissance efficace, et donc à terme un antivol à toute épreuve, pour peu que l’on puisse prouver que, à l’instar d’une empreinte digitale, une « empreinte de pression » représente une caractéristique suffisamment discriminante pour assurer la sécurité du système.
Doublé d’un système de reconnaissance « standard » ?
Car le problème vient aussi du résultat : 98 % est bien évidemment un bon score, mais quid des 2 % restants ? Si jamais un conducteur ne réussit pas à aller au travail un matin, voire à rentrer chez lui, parce que sa voiture ne l’aura pas reconnu, pourra-t-on envisager un système de reconnaissance « standard », telle une clé, un code, ou autre ? Car cette hypothèse d’un circuit de reconnaissance alternatif pourrait alors rendre tout le système inopérant, si celui-ci n’est pas sécurisé.
Des variations à prendre en compte
Autres problèmes : qu’en est-il des variations de poids du conducteur ? Même si le poids n’est pas le seul facteur observé, il n’en reste pas moins déterminant. Faut-il alors envisager un système de reconnaissance dynamique et évolutif ? Et si l’on veut pouvoir prêter sa voiture, sera-t-il possible de créer plusieurs « profils » ? Ce sont quelques-unes des questions auxquelles vont devoir répondre le groupe de chercheurs japonais, qui se donne entre deux et trois ans pour faire évoluer sa technologie.
Cette semaine, dans la première revue du Web de l’année :
un distributeur automatique 2.0, au Japon, doté d’un écran tactile 65 pouces et d’un système de reconnaissance faciale, qui propose des publicités « personnalisées » ;
un tsunami de nuages, phénomène météorologique rarissime, survenu dans l’État américain de l’Alabama ;
un lézard et une grenouille doués pour les jeux-vidéos sur smartphone ? C’est possible ! ;
un robot flexible « étoile de mer » conçu par les chercheurs du MIT, pouvant se déplacer à l’aide d’un système pneumatique ;
un vélo permettant de prendre de la hauteur, conçu pour ceux qui ont le sens de l’équilibre ;
jouer la chanson « House of the Rising Sun » des Animals, avec de vieux éléments d’ordinateurs ? C’est possible aussi ! ;
le gadget (inutile ?) de la semaine : un seau à bières ayant la faculté de gâcher les photos compromettantes prises en soirée ;
et en bonus, un document d’archives exceptionnel de l’INA, présentant les prémices de la voiture électrique.
Un distributeur automatique 2.0 japonais
Voici le dernier né et le plus évolué des distributeurs automatiques, nous arrivant tout droit du Japon. Développé par les sociétés spécialisées en technologies Sanden et Okaya, avec la collaboration du géant américain Intel, ce distributeur du futur possède un écran transparent et tactile de 65 pouces, doté d’une résolution Full HD.
Ainsi, lorsqu’une personne se trouve en face de la machine, un système de reconnaissance faciale détermine de manière anonyme le sexe et l’âge approximatif de celle-ci, lui proposant alors des publicités « personnalisées ».
Le fabricant précise que la vitrine du distributeur peut aussi bien produire du texte, des images ou des animations 3D en qualité HD, permettant par exemple de fournir des informations nutritionnelles sur les produits vendus, voire même des informations en cas d’extrême urgence (issue de secours, consignes à respecter). L’appareil pourrait être disponible au Japon et aux États-Unis.
Un gigantesque tsunami… de nuages !
C’est à un spectacle tout à fait surprenant qu’ont été conviés les 200 000 habitants de la ville de Birmingham (Alabama) et des environs, le 16 décembre 2011. En effet, le ciel de cette ville américaine a accueilli un phénomène météorologique rarissime, qualifié de « tsunami géant de nuages » par le magazine Science News.
Ce tsunami, qui s’apparente à des nuages se comportant comme une série de vagues, aurait pour origine ce qu’on appelle « l’instabilité de Kelvin Helmhotz », déjà responsable de la formation des vagues « traditionnelles », les vagues d’eau. En effet, lorsque deux fluides superposés et thermiquement stables ont tous deux une vitesse différente à leur surface de contact, une structure tourbillonnante va alors se former, appelée « onde de Kelvin Helmhotz ». C’est ce phénomène que vous pouvez observer dans la vidéo amateur qui suit :
Un lézard doué pour les jeux vidéos
La vidéo qui suit présente un lézard, plus exactement un dragon barbu, une espèce endémique d’Australie, face à une application smartphone. L’application est un jeu, baptisé « Ant Crusher » (littéralement le « broyeur de fourmis »), dont le fonctionnement est assez simple : il suffit d’écraser les fourmis défilant de haut en bas sur l’écran, par une simple pression sur l’écran du smartphone.
Si un doigt humain peut le faire, pourquoi pas… la langue d’un dragon barbu ! On voit donc le lézard écraser les fourmis une par une, portant à chaque fois sa langue désespérément vide à sa gueule :
Dans le même genre, voici une grenouille-taureau face à la même application. Bien que la technique de chasse soit totalement différente, le lézard et l’amphibien partagent la même efficacité. Avec toutefois un peu plus de frustration du côté de la grenouille, comme le laisse penser la fin de la vidéo…
Un robot flexible, inspiré d’une étoile de mer
Les chimistes de la célébre université américaine de Harvard, dans le Massachusetts, ont mis au point un tout nouveau type de robot, dont la flexibilité est probablement l’atout maître. Publiés dans la revue scientifique Proceedings of the National Academy of Science, leurs travaux font état d’un robot très fortement inspiré par la nature, notamment par l’étoile de mer et le calamar. Privé de squelette, ce robot est constitué d’un polymère souple et élastique translucide, pourvu d’alvéoles qui, à l’aide d’un système pneumatique, peuvent être gonflées ou dégonflées à l’envi.
Chacun des membres du robot peut être contrôlé de manière indépendante, ce qui lui laisse une assez grande liberté de mouvement, aussi bien en terrain plat qu’en surface accidentée. Autre atout de taille : son très faible coût à la production, qui pourrait bien inciter ses créateurs à faire évoluer la bête.
Un vélo pour prendre de la hauteur
Voici maintenant le prototype d’un vélo pas tout à fait comme les autres : de type « chopper » (ces deux-roues américains caractérisés par une fourche relativement longue), ce vélo atypique peut passer d’une position basse, que l’on peut qualifier de standard, à hauteur de circulation, à une position « haute » permettant de dominer la circulation – à condition toutefois d’avoir un très bon sens de l’équilibre.
À l’aide d’un système de vérins avec un bras arrière oscillant et une fourche pouvant s’adapter autant à la position haute que basse, le vélo passe d’une position à l’autre en un instant, et même en pleine course. Lorsque le vélo est en position basse, il paraît impossible de deviner ce qu’il cache, laissant toute latitude au propriétaire de jouer sur la surprise. Pas de doute que l’inventeur russe de ce deux-roues est un sacré bricoleur.
Jouer « House of the rising sun » avec de vieux éléments d’ordinateurs
Les vidéos de reprises de chansons empruntées aux répertoires pop, rock, folk ou autres pullulent sur le net. Dernière en date, une reprise de la célèbre chanson des années 60 « House of the rising sun », du groupe anglais The Animals, et popularisée en France par la version de Johnny Hallyday, « Les portes du pénitencier ». Ici, un internaute s’est servi de vieux éléments d’ordinateurs comme instruments de musique alternatifs, donnant une seconde vie à la plupart d’entre eux, et ajoutant une patine métallique et industrielle au morceau.
Ainsi, pour faire office d’orgue, rien de tel qu’un vieil Atari 800XL, couplé à un oscilloscope EiCO. La partie guitare, elle, est assurée par un ordinateur Texas instrument Ti-99/4A, l’un des premiers ordinateurs familiaux apparu dans les années 80, et couplé ici à un oscilloscope Tektronix. En guise de batterie, un disque dur et un microcontrôleur PIC16F84 ont été choisis. Enfin, la voix est assurée par un scanner HP Scanjet 3P et une carte Adaptec SCSI, pilotés par un ordinateur sur Ubuntu 9.10.
Chaque instrument a été enregistré séparément, puis les pistes ont été mixées sans l’ajout de samples ou d’effets audio. Jugez plutôt par vous-même :
Le gadget (inutile ?) de la semaine : un seau à bières qui garantit l’anonymat
Pour conclure cette dix-septième revue du Web, voici le gadget (inutile ?) de la semaine : en surfant sur l’éventuel danger que représentent les photos compromettantes prises en soirée, puis postées sur les réseaux sociaux tels Facebook ou Twitter, l’agence de communication argentine Del Campo / Nazca Saatchi & Saatchi a eu l’idée, pour assurer la promotion d’une bière du Colorado – Norte Beer, brassée « à la mexicaine » – , de créer un gadget : un seau à bière rafraîchissant, le Norte Photoblocker, ayant la faculté de rendre impossible tout prise de photo.
Son secret ? Le seau est capable de détecter le flash de l’appareil photo, ce qui a pour conséquence de déclencher à son tour un autre flash, gâchant ainsi la photo. Pour que le slogan « what happens at the club, stays at the club » (« ce qu’il se passe en boîte reste en boîte », dérivé du célèbre « what happens in Vegas, stays in Vegas ») puisse être respecté, il faut toutefois se trouver à proximité d’un « Photoblocker ». Alors, à moins de le garder constamment avec soi, les paparazzades ont encore de beaux jours devant elles…
;
Document INA : « À quand la voiture électrique ? »
En bonus, voici un document d’archives exceptionnel, présentant les prémices de la voiture électrique : de la « Jeanteaud » en 1894 (phaëton biplace, roues en bois, 4 chevaux) à la Kriéger (l’une des toutes premières tractions avant de l’histoire de l’automobile) en passant par Paul Arzens (créateur français, à qui l’on doit notamment les locomotives de types BB et CC) et la « Jamais Contente » et ses 105 km/h.
On y parle déjà de propreté, d’aspect pratique, de petit gabarit pour la ville, de pile à combustible… et de pénurie de pétrole. Si loin et pourtant toujours d’actualité, à l’heure où les modèles électriques et hybrides tentent de se faire une place sur le marché automobile.
Qui n’a pas entendu cette faribole : « l’entreprise ce n’est pas la démocratie » ? Qui n’a jamais entendu dire que, si l’on tenait à sa carrière, il valait mieux apprendre à se taire ? Combien d’entreprises acceptent-elles qu’une équipe de collaborateurs prenne l’initiative d’une réunion de coordination sans y inviter le management ? Beaucoup d’entre elles interpréteraient cette initiative comme un acte de mutinerie qualifié.
Toute entreprise doit apprendre à manager le changement, ne serait-ce que pour rester apte à vivre avec son temps. Ceci est d’autant plus vrai en ce XXIe siècle où le rythme des innovations technologiques s’accélère et bouleverse chaque jour encore plus nos habitudes. Mais comment une entreprise peut-elle espérer réussir ses mutations si elle ne sait pas s’attacher la confiance de ses collaborateurs ? Une entreprise qui ne sait pas libérer l’expression publique, aura de grandes difficultés à se mobiliser vers un avenir différent.
Comment une organisation peut-elle s’enrichir de l’expérience réelle de ses constituants, fût-elle chargée d’incertitudes, de doutes ou de vérités pas toujours bonnes à dire ? Comment favoriser l’ouverture, la réciprocité et la confiance entre les managers et les managés ?
Process group
Le process group, également connu sous le nom de groupe personnel d’exploration (GPE), est une disposition visant à établir et à cultiver la confiance au sein d’un groupe d’individus. En privilégiant la simplicité, les membres d’un process group travaillent à établir un niveau de confiance propice à une communication ouverte et honnête.
La démarche :
Concrètement, un process group se présente sous une forme bien particulière de réunion. Pour son bon fonctionnent, il est indispensable de s’assurer que chaque participant accepte les 3 règles suivantes :
Interdiction de sortir de la salle ou de faire autre chose pendant toute la durée de la réunion (autour d’une heure pour un groupe d’une dizaine de personnes).
Il n’y a pas de relation de hiérarchie à l’intérieur de la réunion.
Aucun sujet ou objectif n’est assigné au groupe.
Dino Ragazzo
Dino Ragazzo a plus de 25 années d’expérience opérationnelle en milieu industriel notamment chez CEGELEC, Groupe ATANTIC, FRAMATOME (mise en service d’installations nucléaires).Il a été successivement Technicien commercial, Ingénieur d’essais, Directeur Technique, chef d’entreprise (PME d’ingénierie électrique et maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.Dino Ragazzo est également l’auteur de l’ouvrage :
MANAGER D’ELITE – Gestalt guide du leadership dans les organisations du XXIe siècle
Bénéficiez de 20% de réduction immédiate sur l’achat de cet ouvrage grâce à Instantanés Techniques en cliquant ici (code réduction : 1IT11).
Pendant le temps de la réunion de groupe, chaque membre est responsable d’engager une conversation sur le sujet (événement, phénomène, expérience…) qui le préoccupe. Le fond et la forme de la discussion dépendent de la motivation des participants à nourrir le débat. Les membres sont encouragés à se donner du feedback et du soutien et à travailler à partir des réactions et des réponses que les contributions des autres membres suscitent en eux. Les membres du groupe peuvent servir de modèles à la communication efficace, offrir des stratégies de résolution des problèmes, et valoriser l’auto-acceptation et l’auto-appui. Au fur et à mesure des séances, la confiance du groupe augmente et chacun se sent responsable de la qualité de son environnement ainsi que de la forme d’entraide qu’il souhaite offrir et recevoir.
Lorsque, en entreprise, le groupe est accompagné par des facilitateurs expérimentés (fortement recommandé pour les premières séances), ces derniers mettent l’accent sur les compétences relationnelles qui caractérisent cette communauté professionnelle. A travers leurs feedback positifs, les accompagnateurs peuvent également suggérer quelques micro expérimentations. Celles ci permettent aux participants d’acquérir et de développer de nouvelles aptitudes. En développant ses capacités relationnelles, le groupe apprend à renforcer la sécurité et la satisfaction à l’intérieur et à l’extérieur du système qu’il forme. C’est ainsi qu’il améliore son efficacité.
Dans la vie sociale, les sentiments non exprimés recèlent de précieuses indications concernant la détresse et les difficultés personnelles rencontrées par les individus. Dans le process group, le climat de confiance, qui se construit au fur et à mesure, favorise un environnement où les membres se sentent en sécurité pour partager leurs épreuves et travailler en équipes. À mesure que les personnes augmentent la conscience de leur propre fonctionnement interpersonnel, développent de nouvelles compétences relationnelles, et apprennent de nouveaux comportements adaptatifs, elles accomplissent de nouveaux progrès vers leurs objectifs personnels et professionnels. Le process group est donc un moyen peu coûteux et très bénéfique au développement de l’efficacité des organisations.
Les difficultés les plus courantes
Le bon déroulement d’un process group peut se trouver compromis dans les circonstances ci-après :
Imposition d’objectifs
Maintien du pouvoir hiérarchique
Incapacité à s’exprimer avec authenticité et avec respect
Difficulté à accepter que sa suggestion ne soit pas suivie
Incapacité à accepter de longs silences
Incapacité à dire que l’on n’est pas d’accord avec son collègue (conflit de loyauté)
Non respect des trois règles du process group (voir ci-dessus)
Il est de la responsabilité de chacun des membres d’attirer l’attention du groupe sur les risques auxquels il peut s’exposer.
Un exemple
L’équipe de management d’une division d’une entreprise, spécialiste mondial de la recherche clinique, pratique le GPE à raison d’une réunion mensuelle d’environ une heure depuis ces 2 dernières années. Cette équipe a accepté de partager son expérience du Process Group avec nos lecteurs.
« Nous avons décidé de mettre en place ces GPE à la suite d’avancées intéressantes obtenues dans le cadre d’une formation au développement du Leadership de notre équipe. Notre objectif était d’instaurer des moments d’échanges nous permettant de prendre du recul par rapport au rôle de notre équipe managériale.
Au début, il y avait beaucoup de méfiance, de longs silences et toutes sortes d’évitements. Les sujets abordés étaient désespérément neutres (la pluie et le beau temps) ou extérieurs à notre groupe. Puis, petit à petit, les langues ont commencé à se délier. Aujourd’hui, certains membres de l’équipe n’hésitent plus à challenger leurs supérieurs hiérarchiques, les yeux dans les yeux, même à leur donner du feedback négatif. Les difficultés personnelles sont plus facilement mises sur le tapis. On sent bien que les membres redoutent moins les réactions des autres et qu’ils hésitent maintenant beaucoup moins à parler d’eux-mêmes. Il y a davantage de prises de risques, chacun a compris que notre process group offrait de nombreuses opportunités pour faire connaître ses positions et mieux se faire connaître. Outre le développement de l’authenticité, de l’intégrité, de l’intensité, du leadership constructif, valeurs fondamentales pour notre activité, on voit également naître davantage de solidarité entre les managers de l’équipe.
En effet, la confiance qui se développe favorise les déclarations de ralliements pour telle ou telle position et stimule donc l’expression des opinions et le courage de les défendre. Notre esprit d’équipe s’est renforcé et la compétition interne a reculée. Si nous sommes conscients du chemin parcouru, nous sommes également conscients de celui qui nous reste à parcourir. Nous devons apprendre, par exemple, à réduire certains atermoiements pour aller plus directement au sujet de fond, à la vraie préoccupation. La présence de différents niveaux hiérarchiques a tendance à provoquer certains clivages ; nous devons apprendre à les surmonter. Nous devons également oser réclamer davantage de feedback pour vérifier les interprétations de nos collègues… Enfin, nous aimerions recommander la mise en place d’un GPE à toutes les organisations qui souhaitent fluidifier la circulation transversale de l’information et combattre les silos qu’elles auraient laissé développer en leur sein »
Le Process group est l’instrument par excellence du « lâcher prise ». C’est comme un saut en parachute en groupe. Il invite les participants à se confronter au vide et à inventer quelque chose de nouveau pour stimuler leur énergie constructive, leur efficacité et leur satisfaction au travail.
Par Dino Ragazzo
Pour aller plus loin :
Participez à la formation Techniques de l’Ingénieur : INGÉNIEUR MANAGER
Luis Von Ahn : ce nom vous est peut-être familier. Si ce n’est pas le cas, il le sera bientôt. Le créateur de l’outil collaboratif d’apprentissage des langues et de traduction du web « Duolingo » n’en est en effet pas à son premier coup de maître. Ce professeur d’informatique de l’université Carnegie-Mellon, à Pittsburgh, en Pennsylvanie, est notamment responsable des fameux CAPTCHA, ainsi que des reCAPTCHA, deux solutions innovantes nous donnant la possibilité de nous distinguer d’un bot ou d’un ordinateur. Duolingo ne se veut pas moins innovant, et a pour vocation de tenir la dragée haute, voire même de supplanter les outils traditionnels d’apprentissage d’une langue étrangère. Tout d’abord parce qu’il est gratuit ; ensuite parce qu’il associe à l’apprentissage de la langue, une fonction et un outil de traduction du web pédagogique et collaboratif.
De CAPTCHA à reCAPTCHA, de reCAPTCHA à Duolingo, l’enchaînement dont voici la genèse est on ne peut plus logique.
La création de CAPTCHA :
Acronyme de « Completely Automated Public Turing test to tell Computers and Humans Apart », le CAPTCHA est une forme de Test de Turing inversé permettant de différencier une intelligence artificielle d’un humain, dont l’algorithme le plus usité donne ces très reconnaissables mots gondolés. Le CAPTCHA a pour vocation première d’empêcher un bot ou un ordinateur de soumettre un formulaire un très grand nombre de fois. Il pourrait aussi permettre, comme nous vous en parlions déjà au mois d’avril dernier ici, de simplifier les mots de passe tout en les rendant plus sûrs.
Le principal problème d’un CAPTCHA est qu’il fait perdre du temps (presque) inutilement, de l’aveu même de son co-créateur Luis Von Ahn. Ce temps, une fois cumulé est gigantesque : environ dix secondes pour chacun des 200 millions de CAPTCHA tapés chaque jour… Près de 560.000 heures par jour…
Une démarche limpide et logique : de CAPTCHA à reCAPTCHA
Conscient de cet état de fait, mais dans l’impossibilité d’enlever les CAPTCHAs sans grever la sécurité des formulaires numériques, il décida de travailler à la bonne utilisation du temps jusqu’ici « perdu », explorant la piste du calcul distribué à l’aide d’humains. Le fruit de ces recherches donnèrent alors naissance au reCAPTCHA, dont la trame se trouve être la même que celle de son aîné. Grosse différence néanmoins : le temps passé devant un CAPTCHA n’est plus perdu puisqu’il permet aussi d’aider à la numérisation des livres. En effet, deux mots vous sont proposés, un dont le système connait déjà la réponse et permettant de vous identifier comme humain, et l’autre issu des nombreux livres en cours de numérisation, mais n’ayant pas réussi à être décrypté par la reconnaissance optique de caractères. Le coup de maître est ici : si une dizaine d’utilisateurs à travers le monde sont authentifiés comme étant humain par le premier CAPTCHA et donnent une réponse identique pour le second, le système peut alors en toute simplicité en déduire que le mot à numériser est bien le bon !
La technique, tenant du crowdsourcing, a depuis largement fait ses preuves, ce qui n’est pas passé inaperçu aux yeux du géant américain Google, qui a acquis la société en septembre 2009, pour affiner le processus de numérisation d’ouvrages amorcé par Google Books.
Création de Duolingo :
Explorant plus loin encore la piste du calcul distribué à l’aide d’humains, Luis Von Ahn et son équipe a voulu mettre au point un outil permettant de rendre le web en le traduisant en toutes les langues majeures. Bien qu’il soit possible d’utiliser un ordinateur pour cette tâche, les traductions ne sont pas au jour d’aujourd’hui suffisamment bonnes. Il reste toujours possible de faire appel à des traducteurs professionnels, mais le temps nécessaire et le prix ont vite semblé complètement rédhibitoires. L’idée d’associer alors l’apprentissage gratuit d’une langue et la traduction d’une page web a donc vu le jour, faisant d’une pierre deux coups. D’après les estimations de Luis Von Ahn, « si un million d’utilisateurs apprennent l’espagnol sur Duolingo, l’intégralité de Wikipedia pourrait être traduit en cette langue en seulement… 80 heures ! ».
Les traductions proposées par les internautes seront évaluées par d’autres internautes apprentis élèves, et lorsqu’une dizaine de personnes en viennent à la même traduction pour une phrase donnée, le système pourra alors estimer qu’il y a une forte probabilité que la traduction soit correcte.
Pour l’heure en phase de développement, Duolingo est disponible en version beta privée. Pour ajouter votre pierre à l’édifice et apprendre ou parfaire par la même occasion votre connaissance d’une langue étrangère (pour le moment, seuls l’espagnol et l’allemand sont disponibles, à partir de l’anglais), inscrivez vous sur http://duolingo.com/#.
« Alpha Dog », la nouvelle mule-robot de la société Boston Dynamics, successeur de « Big Dog », plus impressionnante que jamais ;
La planète Mars, à travers les yeux d’Opportunity, le deuxième rover de la mission « Mars Exploration Rover », qui a pris 309 photos de la planète rouge ;
Le « Levitron Revolution » est un jouet permettant de faire léviter n’importe quel objet pesant moins de 340 grammes, grâce à la force magnétique ;
Une tempête a détruit une éolienne en Écosse le weekend dernier : l’occasion de revenir sur quelques destructions impressionnantes de ces turbines géantes ;
Un internaute ingénieux a réussi à concevoir un écran modifié dont l’affichage ne peut être vu qu’avec une paire de lunettes polarisées ;
« Ferrite », un gadget revisitant les fameuses lampes à lave, se sert des propriétés ferromagnétiques pour créer un objet innovant et ludique ;
et enfin, le gadget (inutile ?) de la semaine : un bar londonien a installé dans ses toilettes hommes un jeu vidéo, dont le contrôle se fait de manière tout à fait particulière…
« Alpha Dog », la nouvelle mule de Boston Dynamics :
Pour débuter cette seizième revue du Web, voici la nouvelle mule de la société américaine Boston Dynamics. Baptisé « Alpha Dog LS3 » (pour Legged Squad Support System), ce robot dont nous vous parlions déjà en détail ici est le digne successeur du BigDog, déjà très impressionnant.
Cette mule mécanisée, réalisée à l’aide de financements de la DARPA (Defense Advanced Research Projects Agency), agence dépendante du Pentagone chargée de la recherche et du développement, montre des capacités d’adaptation et de résistance hors du commun. Capable de se mouvoir sur de très nombreux terrains (comprenant la glace et la boue), le prototype Alpha Dog peut transporter jusqu’à 180 kilos sur son dos, sur plus d’une trentaine de kilomètres, avec une autonomie de près de 24 heures.
Présenté comme une version plus silencieuse que son prédécesseur, Alpha Dog résiste avec succès aux poussées répétées des testeurs de Boston Dynamics, et est désormais capable de se relever tout seul, pour peu qu’il tombe. Les US Marines fondent beaucoup d’espoir sur cette mule, qui pourrait s’avérer utile pour le transport de munitions et de vivres en terrain difficile.
Horizons de la planète Mars, pris par le rover Opportunity :
Alors que le rover Curiosity a été lancé avec succès ce samedi 26 novembre par la fusée Atlas V, intéressons-nous au rover Curiosity, astromobile de la mission « Mars Exploration Rover » ayant atterri sur la planète rouge le 25 janvier 2004. Il a dépassé de loin son espérance de vie, les Américains n’ayant au départ pas prévu plus de trois mois d’utilisation.
Son rover jumeau avait eu en effet moins de chance : après une avarie avec une première roue, puis une seconde, Spirit avait fini par s’ensabler dans un cratère, pour finalement ne plus pouvoir se positionner vers le Soleil et recharger ses batteries, sonnant le glas de son aventure céleste en mars 2010.
Le 16 novembre dernier, l’astromobile Opportunity avait déjà parcouru plus de 34 kilomètres, s’apprêtant à positionner ses panneaux solaires dans le but de passer la saison hivernale en toute sécurité. La vidéo suivante compile 309 photos prises à la fin de chaque progression du rover, du cratère Victoria au cratère Endeavour, donnant à voir divers horizons de la planète Mars à travers les « yeux » d’Opportunity.
Le « Levitron Revolution », ou la lévitation à (presque) petit prix :
Le « Levitron Revolution », composé d’une base et d’un disque magnétique, est un petit appareil ayant la capacité de faire entrer en « lévitation » et en rotation tout objet de moins de 340 grammes (12 onces) posé sur le disque « magique » flottant au dessus de sa base. D’après le fabricant, l’appareil fonctionne grâce à la technologie EZ Float, qui permet de gérer le champ magnétique généré par quatre aimants, chacun se trouvant à un angle de la base. Le phénomène de lévitation magnétique est créé par ces électro-aimants régulés. Cette sustentation électromagnétique voit son intensité calculée et corrigée plus d’un millier de fois par seconde, autorisant l’utilisateur à faire varier le poids de l’objet qui lévite (par exemple, remplir un verre d’eau).
Lorsque la base est branchée au secteur, il suffit de disposer le disque de telle manière que les quatre diodes se trouvant aux angles de la base soient allumées. Le disque entre alors en lévitation magnétique et une simple pichenette peut le faire entrer en rotation, jusqu’à ce que la résistance de l’air ne finisse par l’arrêter définitivement. Il est même possible de faire pivoter doucement le boîtier, le disque restant comme bloqué. Si le boitier n’est plus alimenté, la lévitation cesse.
Régulièrement en rupture de stock, le dispositif est vendu en ligne pour près de 100 dollars, ici.
i
Destruction d’éolienne :
Le week-end dernier, une éolienne n’a pas résisté aux assauts répétés d’un vent très violent, à l’ouest de l’Écosse, dans la région du North Ayrshire. La tempête a balayé un parc éolien, comprenant une quinzaine de ces turbines géantes (100 m de hauteur) faisant face à la côte écossaise. Une seule des quinze éoliennes a été détruite, ayant explosé. Ce parc alimentait près de 20 000 foyers en électricité.
On peut s’étonner qu’aucune disposition n’ait été prise durant la tempête, ne serait-ce que l’utilisation du système de frein (peut-être défectueux), ou l’arrêt complet des turbines. Un gouvernail et une pâle de désorientation, articulés ensemble, peuvent aussi permettre de mettre une éolienne à l’abri, lors d’un coup de vent trop violent.
Seul témoignage de l’incident, la photo suivante prise par un voisin :
Profitons de cet incident pour voir ou revoir deux vidéos du même accident d’une éolienne, près de Hornslet, au Danemark, dont le frein défectueux ne lui a pas permis de résister à une tempête :
Un écran « seulement pour vos yeux » :
Un internaute ingénieux a mis au point, en bricolant légèrement un écran LCD et une simple paire de lunettes, un écran à usage exclusif : en effet, seul le porteur d’une paire de lunettes spécifique est à même de voir ce qu’affiche cet écran.
Pour ce faire, il suffit d’enlever la pellicule polarisée du moniteur, puis de remonter l’écran LCD, ne laissant alors visible qu’un fond blanc sur l’écran, tout du moins à l’oeil nu. Vous l’avez compris : il ne reste plus qu’à adapter la pellicule polarisée à vos lunettes, en la découpant à la taille des verres. Une fois collée sur vos lunettes, l’affichage de l’écran redevient visible, comme par magie, pour le porteur des lunettes.
« Ferrite » : le successeur des lampes à lave
Vous vous souvenez sans aucun doute des lampes à lave : ces lampes de décoration à la mode, formées d’un globe de verre allongé, contenant un liquide transparent et de la cire. Le principe de ces lampes est simple : une fois chauffée par l’ampoule à incandescence, la cire fond et perd en densité (et donc se met à monter), puis une fois éloignée de la source de chaleur, regagne en densité (et donc se met à redescendre). « Ferrite » bien que n’ayant absolument rien à voir avec le fonctionnement de ces lampes, nous rappelle à leur bon souvenir.
« Ferrite » se base sur les incroyables propriétés ferromagnétiques de ce que l’on appelle les ferrofluides, un colloïde (comme le lait) de nanoparticules ferromagnétiques d’une taille avoisinant les dix nanomètres, dans une solution aqueuse. Lorsque les nanoparticules du ferrofluide entrent dans un champ magnétique suffisamment grand, le ferrofluide forme des structures tout à fait surprenantes.
À l’aide d’aimants de différents calibres, il devient donc possible de jouer avec le ferrofluide enfermé dans sa capsule cylindrique, lui faisant prendre tous types de formes caractéristiques de ce colloïde, notamment en se hérissant de pointes spectaculaires. Le gadget, conçu par des universitaires américains est disponible à la vente, mais il ne peut toutefois pas traverser l’Atlantique, en raison de sa grande fragilité.
Contrôler un jeu vidéo… en urinant !
Le gadget (inutile ?) de la semaine est pour le moins atypique. L’Exhibit Bar est un bar se situant à Balham, dans le sud de Londres, et le nouveau et heureux propriétaire d’un jeu-vidéo pour le moins inattendu. Dans les toilettes hommes du bar, un écran au dessus de chaque urinoir attend les clients venus soulager leur vessie. Pour s’adonner aux plaisirs de ce jeu vidéo, nul besoin de joysticks ou de manettes standards. Le contrôle se fait… en urinant ! Pour tuer ou éviter les pingouins, il faut diriger le jet d’urine à gauche, à droite ou encore au centre, pour maintenir l’équilibre de votre avatar.
Plus vous urinez, plus vous marquez de points. Les concepteurs du jeu ont même dans leurs cartons une version 3 D connectée, pour pouvoir jouer… en couple, où que vous soyez.
Le premier perturbateur endocrinien inscrit dans la liste candidate pour l’autorisation
(14/12/2011) Le Comité des Etats membres de l’ECHA a identifié douze nouvelles substances extrêmement préoccupantes (SVHC) qui vont être ajoutées à la liste candidate et pourront, le cas échéant, rejoindre la liste des substances soumises à autorisation. Parmi ces substances, le 4-tert-octylphénol a été identifié comme substances SVHC en raison de ses propriétés de perturbateur endocrinien causant des effets sérieux probables à l’environnement. Ceux-ci sont considérés comme pouvant être aussi graves que ceux présentés par des substances ayant des propriétés cancérogènes, mutagènes ou toxiques pour la reproduction (CMR), ou persistantes, bioaccumulables et toxiques pour l’environnement (PBT ou vPvB). Ces douze nouvelles substances, de même que huit autres substances qui ne nécessitent pas l’accord du Comité des Etats membres, ont été incluses à la liste candidate le 19/12/2011.
Le Comité a donné également son accord de principe sur le projet de recommandation de l’Agence visant à ajouter de nouvelles substances à la liste d’autorisation (annexe IX). Il s’agit de sept composés du chrome, cinq composés du cobalt et le trichloréthylène. Cependant, quelques membres ont considéré que le diacétate de cobalt ne devait pas faire partie des substances prioritaires pour l’inclusion dans cette liste, tandis que d’autres s’opposaient à toute inscription des composés du cobalt. L’ECHA indique qu’elle prendra en considération l’opinion du Comité des Etats membres pour finaliser sa recommandation sur l’annexe XIV qui sera ensuite communiquée à la Commission. Le Comité est également parvenu à un accord unanime sur quatre projets de décisions d’évaluation de dossier : http://echa.europa.eu/web/guest/view-article/-/journal_content/e62ab2f9-090b-4677-817b-a16bc7094fb9
Nouveau site de l’ECHA
(15/12/2011) Le nouveau site de l’ECHA http://echa.europa.eu est disponible : plus simple, plus fonctionnel.
L’ECHA mène une enquête sur les intentions d’enregistrement pour juin 2013
(15/12/2011) L’ECHA a lancé une enquête sur les intentions des entreprises à enregistrer des substances pour la deadline de juin 2013. L’enquête est destinée à toutes les entreprises qui ont pré-enregistré une substance, et indiqué leur intention d’enregistrer en 2013. Le but de cette enquête est de recueillir des informations sur l’identité et le nombre de substances destinées à être enregistrée et sur le nombre de dossiers qui devrait être reçu. A la suite de l’enquête, l’ECHA publiera une liste des substances destinées à être enregistrées avant le 31 mai 2013. Une première version de la liste sera publiée au cours du premier trimestre 2012.
Report de l’nventaire de la classification & étiquetage des substances
(16/12/2011) L’ECHA a décidé de retarder le lancement de l’inventaire de la classification et étiquetage afin de pouvoir s’assurer que les renseignements fournis par les entreprises puissent être rendus publics d’une manière précise, avec un accès facile et fonctionnel. L’ECHA annoncera la nouvelle date de lancement mi-janvier 2012. C’est un projet clé pour l’ECHA car le public aura, pour la première fois, accès à l’information sur la classification des substances chimiques. http://echa.europa.eu/web/guest/346
20 nouvelles substances SVHC sur la candidate list pour l’autorisation
(19/12/2011) Vingt nouvelles substances SVHC ont été ajoutées à la liste candidate pour l’autorisation. Les substances concernées sont :
Fibres céramiques réfractaires en aluminosilicate de zircone (Zr-RCF)
Arsénate de calcium (N° CAS : 7778-44-1 et N° CE : 231-904-5)
Oxyde de bis(2-méthoxyéthyle) (N° CAS : 111-96-6 et N° CE : 203-924-4)
Fibres céramiques réfractaires en aluminosilicate (RCF)
Hydroxyoctaoxodizincatedichromate(1-) de potassium (N° CAS : 11103-86-9 et N° CE : 203-924-4)
Dipicrate de plomb (N° CAS : 6477-64-1 et N° CE : 229-335-2)
N,N-dimethylacétamide (N° CAS : 127-19-5 et N° CE : 204-826-4)
Acide arsenique (N° CAS : 7778-39-4 et N° CE : 231-901-9)
2-Methoxyaniline; o-anisidine (N° CAS : 90-04-0 et N° CE : 201-963-1)
Diarsénate de triplomb (N° CAS : 3687-31-8 et N° CE : 222-979-5)
1,2-dichloroéthane (N° CAS : 107-06-2 et N° CE : 203-458-1)
Octahydroxychromate de pentazinc (N° CAS : 49663-84-5 et N° CE : 256-418-0)
4-(1,1,3,3-tétraméthylbutyl)phenol (N° CAS : 140-66-9 et N° CE : 205-426-2)
Formaldéhyde, produit de réaction oligomérique avec l’aniline (N° CAS : 25214-70-4 et N° CE : 500-036-1)
Phtalate de bis(2-méthoxyéthyle) (N° CAS : 117-82-8 et N° CE : 204-212-6)
Diazoture de plomb, azoture de plomb (N° CAS : 13424-46-9 et N° CE : 236-542-1)
2,4,6-trinitro-m-phénylenate de plomb (N° CAS : 15245-44-0 et N° CE : 239-290-0)
4,4′-méthylènebis[2-chloroaniline] (N° CAS : 101-14-4 et N° CE : 202-918-9)
Phénolphtaléine (N° CAS : 77-09-8 et N° CE : 201-004-7)
Tris(chromate) de dichrome (N° CAS : 24613-89-6 et N° CE : 246-356-2)
L’ECHA recommande 13 nouvelles substances SVHC pour l’autorisation
(21/12/2011) Treize nouvelles substances SVHC ont été ajoutées à la liste des substances candidates pour l’autorisation. Les substances concernées sont :
Trichloroethylene
Trioxyde de chrome
Acides générés par le rrioxyde de chrome et ses oligomère
Directement inspiré de l’« Hoverboard », le skate volant utilisé par Marty McFly dans la célèbre trilogie « Retour vers le futur », le Mag Surf est remis à disposition du public par les chercheurs du département Physique du Palais de la Découverte et les scientifiques de l’Université Paris Diderot-Paris 7, à l’occasion des 100 ans de la supraconduction.
Cette planche de bois en lévitation à quelques centimètres d’un rail magnétique, contient des pains de matériaux supraconducteurs, et un réservoir liquide d’azote.
« Nous avons construit un objet idéal pour faire découvrir au grand public les manifestations spectaculaires de la physique quantique », a déclaré Alain Sacuto, directeur du département de physique de l’université où ce premier surf en lévitation a été mis au point. Jusqu’alors, « personne n’avait réalisé de mobiles à lévitation humaine », a-t-il expliqué, rappelant que des objets ludiques de la taille de jouets ont été fabriqués.
La supraconductivé, découverte il y a cent ans par le physicien néerlandais Heile Kammerlingh-Omnes, connaît déjà plusieurs applications : train en lévitation magnétique au Japon, imagerie IRM, accélérateurs de particules. Les matériaux supraconducteurs conduisent le courant électrique sans perdre une miette d’énergie. Autre propriété fondamentale : un supraconducteur expulse le champ magnétique qui le traverse, ce qui permet les effets spectaculaires de lévitation.
Pour devenir supraconducteur, le MagSurf doit être refroidi avec de l’azote liquide à -195°C. Son réservoir peut en contenir environ 4 litres. Il commence alors à léviter à 2 centimètres au-dessus d’un rail magnétique, sans le moindre frottement.
Un diplôme de lévitation est remis à ceux qui auront réussi à dompter l’engin durant quelques minutes de vol !
Palais de la Découverte : 20, 21 et 22 décembre à 11h, 13h, 15h et 17h.
Making-of de Retour vers le futur 2, scènes d’Hoverboard :
Innover pour regagner des points de croissance et conquérir de nouveaux marchés : telle est l’idée forte qui a mobilisé un groupe de travail sur l’identification des technologies prioritaires en mécanique à l’horizon 2015 et composé du Cetim (Centre technique des industries mécaniques) et de la FIM (Fédération des Industries Mécaniques) en partenariat avec le Cetiat (Centre Technique des Industries Aérauliques et Thermiques), l’Institut de soudure et le LRCCP (Laboratoire de recherche et de contrôle du caoutchouc et des plastiques). Ce nouvel exercice de prospective permet d’identifier les technologies qui font ou feront demain la différence. Il fait suite aux travaux « Technologies prioritaires 2010 en mécanique » édité en 2006.
Pour déterminer ces pistes d’avenir, les groupes d’experts mobilisés (universitaires, scientifiques, représentants des centres techniques, des syndicats professionnels et des industriels) se sont appuyés à la fois sur l’analyse des grandes avancées technologiques au niveau mondial, les projets de recherche et de développement initiés par les pôles de compétitivité et les centres techniques, et les besoins des marchés. C’est cette triple approche (avancées technologies, recherche et marchés) qui a permis de faire émerger les quarante-et-une technologies prioritaires et se répartissant en sept briques interdépendantes. Chaque technologie fait l’objet d’une fiche descriptive avec les secteurs de la mécanique concernés, l’impact compétitif, la feuille de route, etc.
Mécatronique et développement durable en tête
On constate tout d’abord que ce nouvel exercice s’inscrit dans la continuité de son prédécesseur. Certaines technologies, jusqu’à présent simplement évoquées, prennent de plus en plus d’importance à mesure qu’elles se diffusent. C’est notamment le cas des technologies faisant appel à la mécatronique ou concernant le développement durable. Ce dernier domaine monte en puissance au travers, notamment , de l’éco-conception, de l’éco-fabrication ou de l’efficacité énergétique. Le Grenelle de l’environnement est évidemment passé par là.
Autre constat : 75 % des technologies prioritaires identifiées en sont au stade industriel ou préindustriel. Il faut dire que ces perspectives s’adressent en priorité aux PME, plus sensibles aux technologies diffusantes qu’aux technologies émergeantes. Pour cette nouvelle édition, l’amélioration de la productivité et la performance dès la conception restent une tendance forte. Il convient d’ailleurs, dans ce domaine, de noter que c’est le concept plus général d’entreprise performante qui est mis en avant par les experts, avec notamment des fiches sur les « méthodes et outils de la performance», la « gestion de l’information stratégique de l’entreprise » et l’ « entreprise étendue ». Les experts n’en ont pas pour autant fini avec cet exercice. Leur veille permettra en effet de réactualiser les fiches chaque année.
Ces technologies prioritaires pour les cinq années à venir constituent les thématiques centrales de progrès pour l’industrie mécanique et autant de pistes de travail pour les ingénieurs et les scientifiques qui exerceront dans ces domaines.
Je viens d’achever la lecture du Rapport d’information de M. Jean-Pierre SUEUR, fait au nom de la Délégation à la prospective n° 594 tome I (2010-2011) du 9 juin 2011.
Ce rapport a été motivé par le constat que « l’avenir des villes est trop peu présent dans les débats politiques. Pourtant, c’est sans doute dans les villes que se jouera une partie du destin de l’humanité, car déjà plus de la moitié de la population de notre planète – près de trois milliards d’individus – est aujourd’hui composée de citadins. Dans trente ans, c’est-à-dire demain, ils seront cinq milliards vivant dans plus d’une trentaine de mégapoles et de nappes urbaines de plus de dix millions d’habitants.
Ce sont les villes qui poseront à l’avenir les problèmes les plus sérieux à l’humanité : utilisation des ressources en eau de plus en plus rares, lutte contre les gaz à effet de serre et contre la pollution atmosphérique, remise en question de certains modes de transport du fait de la raréfaction des carburants fossiles, prise en compte des changements climatiques et de leurs conséquences en terme d’inondations ou de climatisation des lieux de vie, problèmes posés par les fractures sociales, par les catastrophes industrielles et par l’insécurité, phénomènes de ghettoïsation…
Les sociétés pourront-elles faire face à ces défis grâce à de nouvelles solidarités, à de nouveaux choix financiers, à l’action des puissances publiques au niveau des villes, des Etats et au plan mondial, grâce à l’innovation, à l’initiative économique, aux réseaux intelligents, aux progrès des moyens de déplacement, à de nouvelles formes de gouvernance et de citoyenneté adaptées à la maîtrise du phénomène urbain ? Quelle sera la vie des femmes et des hommes dans les villes du futur ? Les réseaux de villes sont-ils des alternatives crédibles au gigantisme urbain ? Quels scenarii prendre en compte pour agir dès maintenant sur les facteurs qui façonneront la ville de demain ? »
Cependant ce Rapport ressemble plus un constat qu’une étude prospective sur ce que doit être la ville de demain, même si il propose « 25 pistes pour l’avenir du monde », ce qui reste dérisoire au regard des enjeux.
Ce Rapport a le mérite tout de même de rappeler les recommandations émises par le Conseil mondial de l’énergie :
la promotion de l’efficacité énergétique, en faisant appel à tous les moyens possibles, tout au long de la chaîne de l’énergie, de l’exploration à l’utilisation finale de l’énergie : campagnes de sensibilisation des consommateurs, incitations financières, adoption de normes et réglementations ;
la sensibilisation du public au rôle que peut jouer le secteur des transports pour une utilisation plus efficace de l’énergie, par une évolution de l’urbanisme, l’adoption de mesures encourageant l’efficacité énergétique et le progrès technologique ;
la fixation d’un prix mondial du carbone susceptible d’avoir un impact sur les prix et d’induire des changements de comportement.
La planification urbaine -en particulier celle portant sur les infrastructures collectives- reste ainsi déterminante pour le bon fonctionnement de la ville du futur. Il est ainsi contreproductif dans les villes de l’Inde de recourir à des groupes électrogènes, comme le font la plupart des boutiques, pour remédier aux coupures fréquentes de courant électrique qui résultent de l’état de vétusté des réseaux. Comme le souligne un rapport récent de la Fédération internationale des Sociétés de la Croix rouge et du Croissant Rouge : « Ce n’est ni la taille d’une ville ni la vitesse à laquelle elle pousse qui déterminent l’état de son environnement mais la qualité de sa gestion et des relations entre les autorités et la population économiquement faible ».
S’agissant des transports, les solutions permettant de substituer des combustibles renouvelables aux combustibles fossiles dépendent largement des conditions dans lesquelles pourra être atteint l’objectif tendant à permettre des déplacements à des coûts raisonnables avec le moins de pertes de temps pour les usagers. De ce point de vue, les solutions les moins émettrices de particules fines et de gaz à effets de serre sont les véhicules électriques ou les véhicules à motorisation hybride pour les longues distances ».
Le transport est, chacun le sait, le grand enjeu des villes du futur !
Le pic de production de pétrole et de gaz n’est pas le seul que nous sommes susceptibles de rencontrer dans un futur proche. Il semble que le pic de production de phosphate provenant du phosphate de calcium minéral soit également proche.
Une étude récente de Cordell et de son équipe laisse entendre que celui-ci se produira entre 2030 et 2040. C’est d’autant plus inquiétant que si le pétrole et le gaz peuvent être remplacés par d’autres sources d’énergie, le phosphate, qui entre dans la composition de nombreux engrais agricoles, n’a pas de substitut.
Une diminution des ressources de phosphate aura donc des conséquences sur les coûts agricoles. Certains signes précurseurs de ce qui nous attend peuvent déjà être relevés. Ainsi que Cordell et son équipe le soulignent, le prix du phosphate de calcium minéral a augmenté de 700 % sur une période de 14 mois en 2007 et 2008, entraînant une augmentation des prix alimentaires et des biocarburants.
Une diminution des ressources de phosphate pourrait également limiter la productivité de l’agriculture. Un scénario catastrophe dont la réalisation dépend de nos efforts d’améliorer le recyclage du phosphate (notamment en maintenant le phosphate ajouté en circulation), ainsi que de notre capacité à exploiter des sources de phosphate externes non conventionnelles.
Nourrir correctement 9 milliards d’habitants en 2050
Ces deux points sont primordiaux dans la mesure où, comme le démontre Newman (1), les rendements agricoles vont chuter dans le cas contraire. Les rendements annuels de céréales dans les pays industrialisés dépassent aujourd’hui les 5 tonnes par hectare. Mais en absence d’une source externe de phosphate, les rendements annuels étaient de l’ordre de 1 tonne de céréales par hectare. Il est ainsi probable que sans une compensation du phosphate provenant du phosphate de calcium minéral par des sources alternatives de phosphate, la productivité agricole chutera à un niveau qui ne lui permettra pas de nourrir correctement 9 milliards d’habitants en 2050.
Les problèmes liés au pic de phosphate s’ajoutent au changement climatique et à la diminution des ressources d’eau et de terres qui menacent de limiter de façon substantielle la production agricole dans le futur. Pour commencer, il serait urgent de transformer les pratiques actuelles à l’origine de pertes importantes de phosphate dans l’environnement en développant son recyclage.
Par Lucas Reijndres est professeur en sciences environnementales à l’Université d’Amsterdam depuis 1988 et à l’Université ouverte des Pays-Bas depuis 1999, et éditorialiste à Scitizen.com.
Sources :
(1) E.I. Newman. Phosphorus balance of contrasting farming systems, past and present. Can food production be sustainable ? Journal of Applied Ecology 1997; 34: 1334-1347.
La survenue des organismes génétiquement modifiés (OGM) sur le marché de l’agroalimentaire pose deux problèmes majeurs : la traçabilité des matières premières et des produits dérivés, et l’information du consommateur. La séparation des filières traditionnelle et transgénique s’avère difficile à mettre en place, principalement du point de vue économique. C’est pourquoi des méthodes de détection ont été développées afin de répondre aux exigences du législateur.
Profitant de techniques récentes de biologie moléculaire, les laboratoires ont appliqué la PCR (Polymerase Chain Reaction) à l’analyse des produits issus d’OGM. Basées sur l’identification et la quantification de l’ADN des denrées alimentaires, les services proposés aujourd’hui sont en mesure de répondre aux attentes des intervenants de ces filières depuis les semenciers jusqu’aux consommateurs.
Le combustible au plutonium mis au point pour les réacteurs à eau légère est aujourd’hui un produit industriel utilisé par les exploitants de centrales en Belgique, en Allemagne, en Suisse et en France.
Le MOX (« Mixed Oxides ») est le nom couramment utilisé pour désigner ce combustible. Il se présente sous la forme d’une céramique dans laquelle l’oxyde de plutonium (PuO2) est intimement mélangé avec une matrice d’oxyde d’uranium (UO2), cet uranium pouvant être naturel, appauvri ou issu du retraitement.
Le plutonium n’existe pas dans la nature. Il est formé en réacteur par capture de neutrons. Une partie est consommée par fission in situ, le reste est présent dans le combustible usé déchargé du réacteur.
Le plutonium est une matière fissile à fort potentiel énergétique. Un gramme de plutonium dans le MOX produit la même quantité d’électricité qu’une tonne de pétrole.
Initialement prévu pour être utilisé dans les réacteurs à neutrons rapides, le plutonium peut se substituer à l’uranium 235 dans les réacteurs à eau. Cette utilisation, qui nécessite le retraitement du combustible irradié, contribue à la fermeture du cycle du combustible et valorise les matières fissiles récupérables.
Cet article n’a pas pour objet de traiter de façon exhaustive tous les aspects de l’utilisation du plutonium dans les réacteurs à eau légère, mais seulement de mettre en évidence les faits marquants.
Après un rappel de la démarche qui a conduit à la situation actuelle, les principaux domaines techniques spécifiques au MOX sont développés et des voies d’évolutions sont évoquées.
Pour des raisons évidentes, les études et développements présentés s’appuient largement sur les réalisations en France. Sur le plan national, une coordination efficace entre les acteurs principaux qui sont les laboratoires de recherche, les industriels du nucléaire et l’exploitant EDF, a permis à l’utilisation du plutonium dans les réacteurs de devenir une réalité industrielle.
A l’horizon 2050, serons-nous 9 milliards d’individus sur Terre ? Cette estimation repose sur « plusieurs hypothèses qui peuvent être contestées », comme l’explique cette note du Centre d’études et de prospective du Ministère de l’Alimentation, de l’agriculture et de la pêche.
C’est là une projection que l’on pensait établie : à l’horizon 2050, nous serons 9 milliards d’individus sur Terre. Reste que cette estimation repose sur « plusieurs hypothèses qui peuvent être contestées » telles que les taux de fécondité dans les pays développés et en développement ou encore l’espérance de vie, particulièrement dans les pays touchés par l’épidémie du SIDA.
Et les estimations de varier selon le poids des divers facteurs, comme l’explique cette note du Centre d’études et de prospective du Ministère de l’Alimentation, de l’agriculture et de la pêche, dont la Mission Agrobiosciences se fait l’écho.
9 milliards d’habitants à nourrir en 2050 : est-ce si sûr ?
« Le chiffre de 9 milliards d’habitants en 2050 est si souvent repris, dans les médias ou les rapports de prospective, qu’il en devient une certitude, une donnée de base à partir de laquelle penser l’avenir. Or, on oublie souvent que ce chiffre est issu de projections (en l’occurrence, celles de la division Population des Nations unies), et que comme toutes les simulations démographiques celles-ci présentent une grande part d’incertitude.
Comprise entre 8 et 11 milliards à l’horizon 2050, la fourchette des futurs démographiques est en réalité très large, ce qui ne sera pas sans conséquence pour la sécurité alimentaire et le pilotage des politiques publiques ».
Sources :
Une note de Céline Laisney, chargée de mission Veille du Centre d’études et de prospective
Si chacun s’accorde à louer les avantages de la motorisation électrique quant au faible niveau des émissions, il n’en va pas de même pour les performances du stockage d’énergie électrique. En effet, si les niveaux de puissance sont comparables entre véhicules électriques et véhicules thermiques, la faible énergie embarquée dans le cas des sources d’énergie électriques limite fortement l’autonomie quel que soit le type de technologie rechargeable électriquement envisagé (batteries, supercondensateur, volant d’inertie, etc.). Afin de pallier cet inconvénient, des hybrides ont été développés, pour lesquels une source possédant une forte réserve d’énergie (chimique) est combinée à une source de puissance (électrique).
Dans cet article sont détaillés et évalués les différents types de batteries ainsi que d’autres sources ayant été utilisées dans des véhicules électriques.
C’est du moins le bruit qui court dans certains milieux concernés par ce type d’outil. Crainte existentielle exagérée ou véritable signal d’alerte pour les experts des médias sociaux, voici quelques pistes de réflexion pour bien comprendre de quoi il s’agit. Quatre phénomènes menacent en effet la pérennité des médias sociaux : l’explosion exponentielle des contenus, la saturation des utilisateurs, l’évolution des interfaces et la banalisation du Web conversationnel.
L’explosion des contenus est la menace la plus tangible. Le Web conversationnel a la mémoire longue, et les contenus que nous publions à longueur de journée commencent à former une sorte de pollution numérique. Quel que soit le produit recherché, une requête sur Google le concernant génère des centaines, voire des milliers d’articles : lequel lire, lequel nous sera vraiment utile ? Difficile de le dire. La profusion des articles de blogs, d’avis de consommateurs et de statuts publiés sur les réseaux sociaux endigue le Web. Même Google doit revoir ses algorithmes d’indexation (c’est son métier, soit), au risque de déstabiliser le référencement de sites au contenu pourtant apprécié. Qui plus est, la même requête lancée sur deux machines différentes génère désormais des résultats différents, selon l’historique de navigation, l’adresse IP ou l’identité de celui qui recherche l’information. Ce non-déterminisme est un vrai souci, et la confiance des internautes dans les contenus risque fort d’en sortir ébranlée.
La saturation des utilisateurs est tout aussi perceptible. La multiplication des réseaux sociaux (Facebook, Twitter, LinkedIn, Viadeo, Foursquare, Google+, etc.) finit par agacer même les plus passionnés. Doit-on publier sur un compte, sur deux, sur tous ? Et la redondance de l’information ne risque-t-elle pas d’exaspérer mes amis, mes lecteurs ? Qui plus est, l’homme se lasse facilement, par nature. Combien de vos proches ne se sont pas déclarés fatigués de Facebook, d’y retrouver les mêmes statuts, les mêmes paroles, les mêmes contenus à longueur de temps ? Sur le long terme, seuls les services vraiment utiles perdurent : les réseaux sociaux ont-ils vraiment atteint la maturité nécessaire pour cela ? Et si l’on quitte une plateforme, le fait-on en moyenne après un an ? deux ans ? cinq ans ? Si la population globale sur les réseaux sociaux croît mois après mois, aucune étude ne mesure la durée moyenne d’utilisation de ces outils sur le long terme. Et un exode massif des principales plateformes pourrait très bien se produire en quelques mois ; nous l’avons déjà vu avec MySpace et Friendster.
La troisième menace est portée, quant à elle, par les plateformes sociales elles-mêmes. À force de se concurrencer, ces plateformes évoluent à marche forcée, indépendamment des besoins réels de leurs utilisateurs. Prenez Facebook : de nouveaux profils, un flux d’actualité revu et « amélioré » lors de la dernière conférence F8. Mais à quoi bon ? Qui utilise vraiment le flux en temps réel ? Qui n’a pas senti, en réalité, une baisse sensible de son lectorat parmi ses amis ? Quant aux marques, elles éprouvent de plus en plus de peine à faire grandir leurs communautés, pénalisées par une viralité passablement en berne. Et que dire du nouvel habillage YouTube, ou de la nouvelle interface de Twitter ? Les évolutions les plus évidentes manquent, celles les plus stupides et indigestes nous sont parfois imposées. Ce n’est pas tant l’exposition de la vie privée, au demeurant limitée aux proches si on le souhaite, que la pertinence des usages qui priment. Au final, à trop vouloir jouer avec les mécaniques internes, les plateformes prennent le risque de faire fuir leurs utilisateurs les plus fidèles.
Enfin, la banalisation du Web conversationnel est peut-être la menace qui mettra fin à la mode des médias sociaux, sous une forme de glorification christique. C’est une voix difficile, pénible même, car les communautés de lecteurs ou de consommateurs ne sont pas toujours tangibles. Il faut du temps pour créer une relation de confiance, et si Facebook ou Twitter le permettent à plus d’un titre, rien n’empêche les entreprises de développer ce type de relation sur leur propre espace – quitte à utiliser les mécanismes d’identification universelle proposés par Facebook ou Twitter eux-mêmes ! Ce sera un juste retour des choses : aux généralistes les couches basses du Web, aux spécialistes les contenus évolués. En intégrant des fonctionnalités sociales dans leurs propres sites, les entreprises précipiteront un jour la chute des plateformes généralistes. Ce serait une bonne chose pour tout le monde. Mais rassurez-vous, ce n’est pas pour demain : la majorité des entreprises restent encore très frileuses vis-à-vis de ces pratiques.
Alors 2012 marquera-t-elle la fin des médias sociaux ? Peut-être, et les différents acteurs de la net économie – agences, annonceurs et internautes – feraient bien de penser dès maintenant au Web de demain : un Web où le conversationnel sera nativement proposé par tous les sites Web…
Par Hervé Kabla, Directeur Général, co-fondateur de blogAngels
Hervé Kabla
Blogueur, polytechnicien et entrepreneur, Hervé Kabla est un scientifique tombé très tôt dans le marketing et la communication. Passé par Dassault Systèmes, l’Inria et deux ou trois start up, il dirige blogAngels, agence 100 % médias sociaux et a cofondé Media Aces, association d’entreprises utilisatrices de médias sociaux.
Se ranger dans l’espace dédié, éteindre le moteur, et profiter de la superbe vue sur le front de mer, tandis qu’un ascenseur de verre vous emmène, vous et votre voiture, jusque devant la porte de votre appartement… Non, ce n’est pas tiré d’un scénario de film futuriste. C’est ce que vont vivre les futurs heureux propriétaires d’un appartement, dans la tour Porsche Design Tower, au nord de Miami, en Floride. Ce projet de tour ultra-moderne vient en effet tout juste d’être autorisé à la construction.
560 millions de dollars
Cette tour futuriste, bientôt érigée dans le quartier de Sunny Isles Beach, devrait couter la bagatelle de 560 millions de dollars (près de 430 millions d’euros), coût que devraient se partager les Allemands de Porsche Design Group et un promoteur immobilier du cru, Gil Dezer, associés sur le projet. Ce sera la toute première tour comprenant un système d’ascenseurs transportant à la fois une voiture et son propriétaire, au volant de cette dernière.« Vous n’avez pas besoin de quitter votre voiture, tant que vous n’êtes pas sur le seuil de votre appartement », s’amuse le PDG du groupe allemand.
57 étages
Le fonctionnement est relativement simple : une fois que le conducteur range sa voiture à l’endroit dédié et que le moteur est coupé, un bras robotique muni d’un plateau métallisé soulève la voiture jusqu’à l’un des ascenseurs de verre, donnant une vue imprenable sur la ville ou sur l’océan. Une fois arrivé à l’étage désiré, le bras robotique opère de la même manière, mais en sens inverse, et gare ainsi la voiture juste devant l’appartement. Les 57 étages de la tour devraient être parcourus en moins de 90 secondes.
Le promoteur immobilier, Gil Dezer, ironise sur le fait que c’est la combinaison de deux technologies déjà existantes, l’ascenseur et le bras automatique, qui rend ce système possible.
De deux à quatre box par appartement
La tour, de forme cylindrique, sera érigée au 18555 Collins Avenue, seront alors à disposition pas moins de 132 appartements, auxquels seront alloués de deux à quatre espaces de parking, cumulant en tout et pour tout 284 espaces, desservis par trois ascenseurs. Les appartements les plus chers couteront 9 millions de dollars, pour presque 900 mètres carré. Les voitures seront alors même visibles… depuis le salon de l’appartement.
Parkings automatiques
La problématique du manque de place en zone urbaine, ainsi que celle du stationnement, a vu naitre un panel de solutions, parmi lesquelles les parkings automatiques, véritables flops en France malgré quelques projets arrivés à leur terme. Il en existe deux sortes : les « norias », roues verticales à plateaux, et les parking à transbordeurs, combinant ascenseur et palette. L’échec commercial est en grande partie dû aux temps de stationnement et de récupération de la voiture, jugés trop longs, à tort ou à raison, par les usagers.
D’autres tours comme la Porsche Design Tower, ou d’autres parkings automatiques pourraient donc bientôt voir le jour…
Toucher son écran tactile du bout des doigts, et sentir… autre chose que le plat de l’écran : ce qui était encore impossible il y a peu est en passe de devenir réalité, grâce à la prouesse des Finlandais de Senseg. La petite entreprise vient de dévoiler une tablette tactile permettant de ressentir différentes textures ou reliefs, tels que la soie, la roche ou encore le plastique, en passant tout simplement le doigt dessus pour l’éprouver. Vous avez bien compris : alors que l’écran affiche une matière d’apparence rugueuse, il suffira de toucher cet écran pour avoir la sensation correspondant à cette texture. Idem pour, par exemple, une matière à l’apparence veloutée ou soyeuse.
Feel Screen
Cette petite révolution n’est pas uniquement liée à l’univers des tablettes tactiles. La technologie développée par Senseg est à même de transformer n’importe quel appareil possédant un écran plat, en ce qu’ils appellent un « Feel Screen », ce fameux écran permettant de reproduire différentes sensations de texture, tout comme le contour ou les bords de l’objet affiché sur l’écran. Ces écrans peuvent être intégrés de manière indifférente à un smartphone, une télévision, une tablette, un écran d’ordinateur, et donc de manière générale à tous les appareils de notre quotidien possédant un écran.
L’haptique
Pour comprendre le fonctionnement de la tablette tactile conçue par Senseg, il faut tout d’abord se pencher un petit peu sur ce qu’est l’haptique. L’haptique correspond à la science du toucher, par analogie avec l’optique ou l’acoustique. Aussi appelée perception tactilo-kinesthésique, la perception haptique est liée à la stimulation de la peau qu’entraine l’exploration active d’un objet, comme en suivant le contour d’un objet pour en apprécier la forme. C’est cette exploration active qui est ici importante, et qui différencie la perception haptique de la simple perception cutanée, la main et la peau répondant à un stimulus ne résultant pas d’une exploration.
La technologie haptique
Si vous êtes familiers des claviers virtuels, vous faites déjà l’expérience de cette technologie à travers les retours haptiques, qui sont ces vibrations permettant de savoir si la touche a effectivement été frappée, souvent couplées à un son et / ou à une indication lumineuse. Les Finlandais de Senseg vont pourtant bien plus loin que cette seule idée de retour haptique. En effet, leur technologie se base, d’après les concepteurs, sur l’idée d’une illusion… haptique. Cette illusion tactile repose sur le fait que nous puisons tous dans notre mémoire pour reconnaître une texture, tout comme nous puisons dans notre mémoire pour reconnaître une couleur, ou un son. Reconnaître une texture soyeuse, c’est la comparer avec d’autres textures et d’autres matières touchées et éprouvées jusqu’ici, et alors l’identifier comme soyeuse. Lorsque le « Feel Screen » simule une texture, l’illusion haptique joue à plein son rôle, l’écran tactile créant une sensation normalement identifiable, puisque déjà cataloguée. La zone la plus sensible de la main, à savoir la pulpe du doigt, est la seule partie suffisamment sensible et fine pour pouvoir apprécier les différentes textures, et c’est bien cette zone qui est sollicitée par l’écran de Senseg.
Comment ça marche ?
La sensation ultra-sophistiquée créée par les Finlandais se base sur la loi de Coulomb, en électrostatique, énoncée par le physicien français Charles Augustin de Coulomb de cette manière : « L’intensité de la force électrostatique entre deux charges électriques est proportionnelle au produit des deux charges et est inversement proportionnelle au carré de la distance entre les deux charges. La force est portée par la droite passant par les deux charges. » Se servant de ce principe d’attraction des charges électriques, et en faisant passer un courant électrique très faible à travers le texel (de l’anglais « texture element », plus petit élément d’une texture appliqué à une surface), on crée une petite force d’attraction. C’est en modulant cette force de manière locale qu’un panel de sensations peut être généré. On en déduit qu’à la différence des effets créés par des vibrations mécaniques ou encore par des solutions piézoélectriques, la technologie développée par Senseg peut se targuer d’être totalement silencieuse.
Le « Tixel » de Senseg
Le « Tixel » est le support de transmission du stimulus électro-vibrant. Il est constitué d’un revêtement ultra-fin et résistant que l’on dispose au-dessus de l’écran ou de la surface choisi, plat ou incurvé, dur ou mou, transparent ou opaque. Le temps de réponse est immédiat, car il n’y a pas d’inertie mécanique. Le module électronique prend en charge l’envoi des signaux électriques vers la surface, le Tixel, et en varie l’intensité localement. Enfin, un logiciel équivalent à un kit pour développeur permet de se familiariser avec la technologie, et de l’intégrer à des applications de manière ludique.
Encore au stade de prototype
Bien qu’encore au stade de prototype, l’utilisation de la technologie haptique par Senseg laisse rêveur, et l’entreprise basée à Espoo (vivier finlandais abritant déjà nombre de sociétés à la pointe de l’innovation technologique telles que Nokia, Tieto ou encore le producteur d’énergie Fortum) estime qu’il lui faudrait moins de deux ans pour améliorer son bijou, et éventuellement le commercialiser. Les débouchés pourraient être innombrables, tant dans le domaine des jeux, que dans celui des applications ludiques ou encore… vers de futures tablettes en braille. Alors que les tendances fortes nous entrainent vers des appareils au son plus clair, dont l’écran haute-définition supporterait la 3D, les technologies haptiques pourraient bien, elles aussi, tirer leur épingle du jeu.
En novembre 2011, en France, on comptabilisait seulement 250 immatriculations de véhicules électriques dont 150 rien que pour Autolib’ – système d’autopartage permettant d’avoir accès en libre-service à des voitures électriques, lancé le 5 décembre en Ile-de-France.
Une étude de l’observatoire Cetelem de l’Automobile rendue publique le 15 décembre montre que la France est le pays dans lequel l’intérêt est le moins fort pour cette technologie, à 54 %. Si 71% des Européens se disent intéressés par la voiture électrique, et sont 49 % à ne pas envisager de faire un effort financier pour acquérir un véhicule électrique, ils sont une majorité (57 %) en France à ne pas vouloir dépenser plus pour acheter un véhicule propre.
Voitures électriques, à quel prix ?
Du côté des constructeurs, la voiture électrique semble au contraire promise au plus bel avenir.
Selon Eric Besson, ministre de l’industrie, le « marché mondial de la voiture électrique est estimé à près de 4,5 millions d’unités par an à l’horizon 2025 » et il devrait générer en France « plus de 12 milliards d’euros d’activité par an ». Il devrait permettre ainsi « de réduire de 3 % les émissions de CO2 et de 4 millions de tonnes équivalents pétrole nos importations d’énergie fossile ».
Pour les industriels, le prix élevé de la voiture électrique ne devrait pas effrayer les potentiels acheteurs. Le bonus écologique doit en outre leur donner un coup de pouce en attendant la baisse des prix.
Ainsi, pour une Peugeot Ion, et une Citroën C0 il faut débourser la somme d’environ 30 000 euros ; pour une Renault Fluence ZE, 21 300 euros ; un peu plus de 20 000 euros pour la Kangoo ZE ; et autour de 19 000 euros pour la Mia. Le tout, bien sûr, hors frais de location de la batterie, sous peine de rendre quasi inabordable le prix d’achat de ces véhicules.
Chez Renault, la location de batterie vous coûtera entre 72 et 82 euros par mois, le tout agrémenté d’une assistance gratuite 24 heures sur 24. « On la changera quand elle commencera à donner des signes de faiblesse », déclare un porte-parole de Renault. Ce qui veut dire après 4-5 ans d’existence. D’autres constructeurs proposent des véhicules électriques à la location. Ainsi, la nouvelle Jazz que Honda lance aux États-Unis sera proposée en location pour l’équivalent de 300 euros par mois. Même tarif de location chez Mia. Quant à PSA, le constructeur français propose déjà des offres de leasing (location avec option d’achat).
Changer ou charger la batterie ?
Le temps de charge d’une batterie varie entre 6 et 8 heures pour une charge optimale sur une prise domestique. Mais si l’on veut pouvoir regonfler 80 % de sa batterie en vingt minutes, il faut des bornes plus puissantes, ce qui implique un déploiement vaste et coûteux.
En 2010, le gouvernement s’est saisi de la question, faisant appel à 12 villes pour déployer un réseau de bornes publiques de recharge avec, pour objectif, la création de 75 000 points de recharge accessibles à tous dès 2015 et 400 000 à l’horizon 2020. Douze collectivités (Bordeaux, Grenoble, Rennes, Nice, Angoulême, Aix-en-Provence, Orléans, Paris, Rouen, Strasbourg, Le Havre et Nancy) ont donc signé une charte avec les constructeurs Renault et PSA, qui, de leur côté, se sont engagés à commercialiser 60 000 véhicules électriques en 2011 et 2012. Pouvoir recharger sa batterie partout et sans attendre des heures ne devrait donc plus relever de l’utopie…
Quelle autonomie ?
Pour Jean Syrota, ancien président de la Cogema et auteur d’un rapport publié au printemps, la promesse annoncée des constructeurs – une autonomie de plus ou moins 150 kilomètres – ne serait réalisable qu’à condition de rouler sans embouteillage, sans chauffage et sans radio. Ce que conteste Vincent Bolloré, PDG du groupe du même nom dont la Bluecar a remporté l’appel d’offres pour Autolib’, pour qui les 225 kilomètres tout compris sont facilement atteignables. Grâce à la capacité de stockage de sa batterie nouvelle génération lithium-métal-polymère (LMP), cinq fois supérieure à celle de ses concurrents, la Bluecar est ainsi censée pouvoir rouler pendant 250 kilomètres.
D’autres constructeurs préfèrent considérer le problème sous un autre angle. Selon eux, « 87 % des Européens parcourent moins de 60 kilomètres par jour », les déplacements en ville ou suburbains étant leur priorité avant tout. Reste que selon l’étude de l’observatoire Cetelem de l’Automobile, sur les 82 % d’Européens effectuant moins de 100 km par jour, 55 % d’entre eux n’envisagent pas l’achat d’un véhicule électrique dont l’autonomie est inférieure à 250 kilomètres.
Sans bruit et sans émissions polluantes, la voiture électrique est donc loin de faire l’unanimité. Lino Guzzella, ingénieur spécialisé en moteurs nouvelle génération et enseignant à l’Ecole polytechnique fédérale de Zurich, rappelle que « plébisciter lesvoitures électriques à grande échelle, [revient à] plébisciter les centrales nucléaires et les centrales à charbon. »
D’où un regain d’intérêt récent pour l’hydrogène. Hier, l’équipementier FAM présentait à Paris le premier modèle français doté d’un réservoir à hydrogène et d’une pile à combustible. Les ingénieurs de Mia annoncent aussi un prototype hydrogène pour mars 2012.
2012, année de la voiture électrique ?
Malgré tout, 2012 s’annonce comme une grande année pour la voiture électrique en France et en Europe. Dans l’Hexagone, aux Peugeot iOn et Citroën C-Zéro viendront s’ajouter l’utilitaire Renault Kangoo ZE lancé récemment, puis la berline Zoé au second semestre. Parallèlement, le service Autolib devrait monter en puissance pour atteindre 3 000 véhicules fin 2012, contre 250 attendus d’ici la fin de cette année.
Les constructeurs étrangers ne seront pas en reste, avec notamment la Leaf de Nissan, la Mini de BMW et les Chevrolet Volt et Opel Ampera de General Motors. Carlos Ghosn, PDG de Renault, prévoit que la voiture électrique pèsera 10 % du marché automobile en 2020. Le constructeur automobile a annoncé vouloir atteindre une production de plus de 200 000 unités de véhicules électriques d’ici 2015-2016. PSA penche plutôt pour 5 %, mais ce dernier mise aussi parallèlement sur la motorisation hybride, technologie mixte associant un moteur thermique classique à un autre, électrique.
(Sources : Smartplanet ; Le Nouvel Observateur ; Ginkoo ; Automobile Propre ; Le Temps ; EcoCO2, L’Expansion, 20 minutes)
Environ trente personnes travaillent dans Le Laboratoire de Biochimie Métabolique et Nutritionnelle (LBMN) que dirige le professeur Norbert Latruffe au sein de l’Unité Mixte de Recherche 866 de l’INSERM de Dijon qui compte 9 équipes de recherche, dont certaines sont impliquées dans des projets labellisés par le pôle de compétitivité Vitagora.
Si certains chercheurs de cette équipe s’intéressent au devenir des acides gras à l’intérieur des cellules cérébrales, dans le cadre de pathologies spécifiques telles que les leucodystrophies, d’autres travaillent sur les effets bénéfiques sur la santé de ces molécules, présentes notamment dans le vin, que sont les polyphénols. Aujourd’hui, la revue internationale Molecular Nutrition & Food Research publie les résultats d’une étude menée par l’équipe de Norbert Latruffe, en collaboration avec le Centre hospitalier de Montbard et le docteur Jean-Pierre Rifler, médecin urgentiste, résultats qui tendent à montrer les effets positifs d’une consommation modérée de vin chez des patients post-opérés d’un infarctus du myocarde.
Cela fait une vingtaine d’années que Norbert Latruffe est venu s’installer en Bourgogne pour y travailler initialement sur la toxicité de certaines molécules sur l’environnement comme des résidus de l’agrochimie, de la chimie et de la chimie pharmaceutique et ayant une activité de prolifération hépatique des peroxysomes. « Ces recherches en toxicologie nous ont conduit à développer des tests fiables qu’il nous a été facile ensuite d’adapter aux domaines de l’alimentation et de la nutrition », explique-t-il. Dans cette région qui abrite l’un des vignobles les plus réputés de la planète, c’est donc tout naturellement que la route de ce bourguignon d’adoption a croisé celle des polyphénols ce qui l’a amené à s’y intéresser de plus près il y a une douzaine d’années. « Toutes les plantes de la Terre produisent des polyphénols.
On en compterait de 5.000 à 10.000 types différents dans la nature. C’est pour elles un moyen de se défendre vis-à-vis d’agents infectieux, du rayonnement et du stress hydrique, mais aussi un moyen de communication lié à fécondation via les insectes et les oiseaux », rappelle Norbert Latruffe. Beaucoup plus sensible qu’une majorité de plantes à son environnement, aux pathogènes de type champignons microscopiques, et capable de pousser dans des endroits très ensoleillés qui connaissent la sécheresse, la vigne produit un nombre important de ces polyphénols. « Très rapidement je me suis donc pris au jeu », reconnaît-il.
Après l’infarctus du myocarde, les maladies dégénératives
L’intérêt pour les polyphénols n’a cessé de grandir au cours de ces dernières années, en particulier parce qu’ils sont d’excellents anti-oxydants. De retour de la cinquième édition de l’International Conférence on Polyphenols and Health qui s’est déroulée à Sitges près de Barcelone du 17 au 20 octobre, Norbert Latruffe note ce véritable engouement pour cette famille de molécules. « La communauté scientifique mais également l’industrie s’intéressent de plus en plus à cette famille de molécules qui semblent jouer un rôle important dans le domaine de l’alimentation », observe-t-il. D’où la nécessité de s’y investir de plus en plus comme n’a cessé de le faire l’équipe dijonnaise depuis plus d’une décennie avec, à la clé, des résultats significatifs notamment sur un polyphénol spécifique de la vigne, le resvératrol.
Dernier exemple en date, ceux que publient la revue internationale Molecular Nutrition & Food Research (vol 55, octobre 2011), fruits d’une étude tout à fait originale menée par l’équipe de Norbert Latruffe en collaboration avec le Centre hospitalier de Montbard et l’un de ses médecins urgentistes, le docteur Jean-Pierre Rifler. Il s’agissait d’explorer les effets de la prise de vin rouge sur les paramètres sanguins chez des patients post-opérés d’un infarctus du myocarde. « L’originalité de cette étude était de voir si l’on observait une prévention secondaire chez ces sujets qui avait fait un infarctus du myocarde », précise l’universitaire bourguignon.
29 personnes volontaires, des hommes et des femmes d’une soixantaine d’années ou plus, ayant tous fait un infarctus du myocarde, ont participé à cette étude. Réparties en deux groupes, l’un de 14 personnes, l’autre de 15, celles-ci ont été soumises durant 3 semaines, dans un milieu hospitalier, à un régime alimentaire apparenté au type dit « méditerranéen », c’est-à-dire constitué pour l’essentiel d’huile d’olive, de poisson, de fruits et légumes, la consommation de fromage étant relativement peu élevée. Chaque personne du groupe test recevait un verre de vin rouge à chaque repas, alors que les personnes du groupe témoin ne buvaient que de l’eau. « Nous avons pu observer que la cholestérolémie totale a diminué de façon significative chez les personnes du groupe test.
Par ailleurs, les tests de Michel Prost, de l’entreprise locale Lara Spiral, nous ont permis de constater une augmentation, là encore significative, des antioxydants. Parallèlement, le laboratoire a noté une amélioration de la fluidité de la membrane des globules rouges au sein du groupe des buveurs de vin », résume-t-il. Des résultats extrêmement encourageants qui incitent l’équipe de Norbert Latruffe à proposer une nouvelle étude, en cours de gestation. « Nous envisageons de faire un suivi de personnes du troisième âge, dans des maisons de retraite, notre objectif étant de voir si une consommation modérée de vin pourrait avoir des effets bénéfiques sur le vieillissement et les dégénérescences dues à l’âge », indique-t-il.
Clean Tech Open 2011 : quelles sont les startups les plus prometteuses des technologies propres ?
Le Clean Tech open, compétition internationale pour jeunes entreprises innovantes du secteur des technologies propres, s’est tenu les 15 et 16 Novembre derniers à San Jose. Devant un parterre d’investisseurs, c’est la crème des startups du monde entier qui a défilé pendant 2 jours, en pleine semaine mondiale de l’entrepreneuriat. Les français – sélectionnés pour la finale – ont été sur le devant de la scène jusqu’à la dernière ligne droite.
Le Clean Tech Open est, comme il se définit depuis 2005, « l’Academy Awards des technologies propres »; cet évènement se tenait dans une des capitales mondiales de l’innovation : San Jose, au coeur de la Silicon Valley. Le principe de l’open est simple : décerner la palme de la meilleure startup dans le monde des cleantechs. En pratique ce n’est pas si simple car les sujets sont variés. Les technologies propres n’étant pas un secteur industriel en soi, la compétition a été décomposée en différents domaines industriels : transports, énergie intelligente, efficacité énergétique, « air, eau, déchets », bâtiments verts, et énergies renouvelables. Dans chaque secteur des vainqueurs sont nommés, avant de sélectionner un lauréat tous secteurs confondus.
La compétition était de plus divisée en deux sous-catégories :
une catégorie nationale : la « Business Competition » pour les 21 sociétés/startups américaines choisies parmi les 300 dossiers reçus suite à un processus de sélection régional (groupe d’états).
une catégorie internationale : La « Global Ideas Competition » pour les 25 sociétés gagnantes de la compétition de leur pays ou de leur région d’origine. Le CleanTech Open n’est pas encore présent partout dans le monde et cherche à se développer. La compétition française a été organisée par le groupe Ecosys, et la remise des prix s’est tenue le 14 novembre dernier au Ministère de l’Ecologie. Parmi 12 jeunes entreprises éco-innovantes lauréates des meilleurs concours et prix régionaux et nationaux c’est Biométhodes (dirigée par Gilles Amsallem) qui a été sélectionnée pour représenter la France.
Toutes ces sociétés sont en compétition pour la gloire et la visibilité qu’un tel évènement peut apporter. Mais surtout certaines cherchent des investisseurs et des partenaires pour se développer. Les gagnants bénéficient d’ailleurs de dotations en services et en financement allant jusqu’à 250k$ pour le vainqueur du prix américain.
Que retenir de cet évènement ?
La présence Française : l’hexagone était bien représenté à cet évènement international : Parmi les 6 entreprises finalistes du Global Ideas Competition se trouvait Biométhodes, lauréate du chapitre français de l’Open. Une autre américaine, Resolute Marine Energy, était représentée par le français Olivier Ceberio, qui présentait des projets de désalinisation d’eau à l’aide d’énergie provenant de centrales houlomotrices. Au final c’est la startup chilienne Biofiltro qui remporta la compétition internationale, avec ses unités de traitement des eaux usées à l’aide de vers de terre!
Des exercices de présentation variés : pendant ces deux jours les startups auront pu présenter leurs projets de plusieurs manières :
par le fameux elevator speech d’une minute très prisé des capitaux-risqueurs,
puis par une présentation de la technologie en 3 minutes,
enfin par des présentations approfondies de 30 minutes comportant une session de questions/réponses.
Il était difficile pour les présentateurs de réussir parfaitement ces trois exercices, mais tout le monde s’y prêtait dans une ambiance à la fois dynamique et décontractée. Pour l’elevator speech, l’exercice peut-être difficile : condenser en une minute le marché, la différenciation et donc les opportunités devant un public non expert dans la technologie n’est pas simple. L’aisance des intervenants américains dans ce domaine, ou l’on pouvait les voir ajouter une note humoristique à un discours technique et commercial rodé, était flagrante, même si certains intervenants étrangers leur tenaient la dragée haute.
Au contraire, pendant les présentations de 30 minutes le jury en apprenait suffisamment pour cerner les problèmes éventuels mais les candidats n’avaient pas suffisamment de temps pour argumenter leurs points de vue. Mais l’exercice est obligatoire pour qui veut aborder et convaincre les capitaux-risqueurs.
L’un des plus prestigieux dans le domaine des technologies propres, Khosla Ventures, était présent: Andrew G. Chang, tout nouveau partenaire, était venu pour faire la promotion du portfolio technologies propres de ce fonds et également pour donner ses recommandations aux entrepreneurs. La philosophie de Khosla Ventures pourrait se résumer à marier des technologies de rupture à des « rockets scientists », mais plus pratiquement, 6 critères sont pris en compte :
une technologie en rupture,
de grands marchés,
un modèle financier innovant,
adaptatif aux flux de capitaux,
faisabilité de la mise sur le marché,
des entrepreneurs de premier rang.
Evidemment remplir tous ces critères n’est pas évident et peu de startups y arrivent concrètement. Cette présentation se terminait sur une note d’optimisme : « Continuez à entreprendre car vous allez améliorer la société, l’économie et vous même ». En effet, voir autant de startups venues concourir sur des sujets aussi variés permet d’espérer que ces technologies auront effectivement un impact positif sur la société.
Une grande variété dans les sujets et technologies
L’innovation ne connaît pas la crise, et les idées présentées étaient aussi diverses qu’originales et concrètes. La liste complète est disponible sur le site web de l’open [1] mais voici une petite sélection des nos préférées :
Silicon Solar Solution, société commercialisant un procédé de cristallisation du silicium amorphe des panneaux solaires qui permet d’obtenir des grains 30 fois plus grands, plus rapidement et en utilisant une température deux fois plus faible. Le patron de cette jeune société était le « roi » de l’elevator speech.Zrid Test Systems fourni une valise de test aux installateurs et producteurs de bornes de recharge de voiture électrique. Cette valise permet d’homogénéiser cette procédure, d’avoir un rapport de test homologué tout en utilisant un outil fiable et performant.
Indow Windows propose une méthode permettant rapidement et économiquement d’ajouter une deuxième vitre sur une fenêtre déjà existante. La solution repose sur une mesure précise ainsi qu’un joint flexible assurant une isolation sonore et thermique. Cette solution d’une facilité déconcertante convient particulièrement bien au marché américain ou le double vitrage n’est vraiment pas courant.
Me-Mover est un tricycle repliable destiné au transport urbain. Entre la trottinette et le step, l’énergie du conducteur est récupérée par un système de pédales minimisant les efforts.
Biométhodes a développé un procédé pour une exploitation durable de la biomasse végétale appliquée à la chimie renouvelable et aux biocarburants de seconde génération. Le procédé biochimique, baptisé OPTALYSIS permet de fragmenter la biomasse non alimentaire pour en extraire séparément les composants à forte valeur ajoutée pour diverses applications (biocarburants, bioplastiques, fibres de carbone, colles…).
Resolute Marine Energy propose un système simple, modulaire et compacte pour récupérer l’énergie des vagues pour la réutiliser directement pour la désalinisation, coupé du réseau. Ce système s’adresse notamment à la population n’ayant pas d’accès à l’eau potable (1.2 milliards de gens), alors qu’une grande partie de la population mondiale vit près des cotes. Cela en faisait un très intéressant projet avec un impact humanitaire énorme.
Au final, il est clair que l’éventail des sujets couverts par les différentes startups était extrêmement large. Le dynamisme des entrepreneurs venus de tous les pays était vraiment communicatif et donne à penser que nous allons voir fleurir beaucoup d’innovations dans les technologies propres dans les années à venir, et cela dans le monde entier. En attendant la prochaine édition, la recherche de la nouvelle grande idée peut continuer. En savoir plus : http://www.bulletins-electroniques.com/actualites/68403.htm
La pollution entraînerait des transformations génétiques chez l’homme : l’exemple d’Ostrava
Une recherche récente, menée par une équipe de chercheurs tchèques, a démontré que la population de la ville tchèque d’Ostrava (Moravie-Silésie) s’est génétiquement adaptée au niveau élevé de la pollution de l’air. Les conclusions de cette recherche ont démontré que la dite population se montre plus résistante à la pollution qu’une population vivant dans un environnement plus sain. Le corps humain aurait donc la capacité de s’adapter à, et de se protéger contre, la pollution dans un laps de temps très court.
L’équipe de chercheurs, menée par le Dr Pavel Rossner [1], de l’Institut de Médecine expérimentale de Prague [2], a testé environ 150 habitants de la ville Ostrava et de sa région, qui est une des villes les plus polluées du pays, voire d’Europe, et ont comparé leurs résultats avec ceux du même test passé à 50 habitants de Prague. La recherche s’est concentrée sur la réaction du corps humain à de très petites particules de suie et à d’autres polluants, comme les hydrocarbures aromatiques polycycliques (HAP), qui montrent une forte toxicité. L’équipe de chercheurs a constaté qu’un gène clé, le XRCC5 qui stimule les tissus du corps humain à réparer les dommages causés par la pollution, était beaucoup plus présent au sein de la population de la région d’Ostrava qu’auprès de l’échantillon praguois. La recherche suggère que d’autres gènes sont susceptibles de s’être adaptés face à un niveau élevé de pollution.
Une question reste en suspend. Il s’agit de savoir si les citoyens d’Ostrava et leurs ancêtres, ont vécu pendant une longue période ou non dans la région. Cela permettrait de répondre à la question du temps d’adaptation du corps humain à un niveau élevé de pollution. Il s’agit de savoir si cette adaptation se fait sur plusieurs générations. L’équipe suppose que cela ne peut se faire sur une seule vie.
Cette question pourrait toutefois rester sans réponse. En effet, l’équipe du Dr Pavel Rossner de l’Institut de Médecine expérimentale indique que leurs travaux sont menacés par un manque de subventions. Le ministère tchèque de l’Environnement, principal financeur jusque là, a décidé de ne plus subventionner cette recherche à l’avenir. L’équipe devra donc trouver par elle-même une somme de 20 millions de couronnes tchèques (environ 800.000 euros) prochainement.
En attendant, la population de la troisième plus grande ville du pays, souffre du pire niveau de pollution atmosphérique en Europe [3]. Les effets de cette pollution sur la santé ne sont pas anodins : on estime que la population de la région d’Ostrava vivrait quelques années de moins que le reste de la population tchèque.
Viticulteurs et papillons : une relation en devenir
Il y a un siècle vivaient dans les monts de la région de Palava (zone située sud de Brno, en Moravie) environ 145 espèces de papillons, mais ce nombre a désormais diminué d’un quart, et le reste est en danger. Le chef de la Fédération de production intégrée, Milan Hluchy, et les chercheurs Zdenek Pospisil et Zdenek Lastuvka sont convaincus que ces disparitions sont dues à l’usage d’herbicides et de fertilisants, ainsi qu’à l’érosion chimique des sols. Leur hypothèse a été confirmée par les résultats du projet ECOWIN, qui a concerné non seulement les vignobles tchèques, mais également les vignobles autrichiens de l’autre côté de la frontière.
L’objectif de ce projet était de créer des conditions permettant le retour dans le paysage agricole de papillons et d’autres espèces d’insectes rares et presque éteintes. Environ soixante producteurs ont renoncé à utiliser la plupart des produits chimiques pour leurs cultures, ce qui a provoqué une augmentation des types de papillons présents sur leurs exploitations, mais également une augmentation de la population de papillons dans son ensemble. Il a également été noté que les cultures non soumises aux produits chimiques résistaient davantage aux maladies.