6,4% de l’électricité italienne a été d’origine solaire en mars 2012

L’Italie est devenue en 2011 le premier marché mondial du photovoltaïque avec 6,9 GW installés, contre 3,6 GW en 2010,  et la percée du solaire ne fait que commencer. Dans certaines régions du sud de l’Italie, où les conditions d’ensoleillement sont optimales, les experts des Nations Unies soulignent que le solaire PV a dès à présent atteint la parité réseau. Cela qui signifie que le coût de production du kWh solaire est devenu inférieur ou égal au prix de l’électricité conventionnelle (majoritairement d’origine fossile) délivrée au détail. Ceci sans aucune subvention. Toujours selon l’ONU, le solaire  aura atteint la parité réseau dès 2015 dans la moitié des pays du monde, dont la France.

Les deux-tiers des emplois crées dans la filière photovoltaïque concernent la partie aval de la chaîne de valeur : même si l’intégralité des panneaux étaient produits en Asie, la filière resterait largement créatrice d’emplois en Europe. L’Asie, et en particulier la Chine, a lourdement investi dans la R&D et dans de très grandes usines de production de panneaux photovoltaïques.

Par effet d’échelle, et aussi en partie grâce et prix des terrains et aux taux d’intérêt particulièrement bas qui sont accordés aux acteurs chinois de la filière, la Chine a pris une avance industrielle qu’il sera très difficile de rattraper par les européens. La compétition est très rude, les chinois parviennent à mettre sur les marché des panneaux trois fois moins coûteux qu’il y a cinq ans, à tel point que l’allemand Q Cell, le seul européen faisant partie du top 10 de l’industrie photovoltaïque à l’échelle mondiale, vient de déposer le bilan. Un coup de tonnerre pour l’ensemble des acteurs européens.

Selon les enquêtes d’opinion, 92% des italiennes et des italiens considèrent que le solaire sera la première source d’énergie pour leur pays dans les années à venir. Suite à un référendum d’initiative populaire, le pays a définitivement dit non au nucléaire en juin 2011.

Par Olivier Danielo

Innovation dans le recyclage des matières plastiques spéciales

Les matières plastiques spéciales ciblées par Dyneon GmbH font partie du groupe des polymères fluorés et se caractérisent, entre autres choses, par une forte résistance à la chaleur et aux produits chimiques. Elles sont utilisées par exemple dans la construction automobile au niveau des conduites d’alimentation ou, dans le secteur de la technologie environnementale, pour la fabrication de joints et de canalisations dans les usines de désulfuration. Jusqu’à aujourd’hui, il n’existait pas de système de recyclage efficace et de haute qualité pour le traitement des déchets de polymère fluoré.

Dans la nouvelle usine de recyclage, les déchets de polymère fluoré seront exposés à des températures comprises entre 400 et 700 °C et seront ainsi complètement désagrégés. L’objectif est de ne récupérer que le produit de base (le monomère) qui, une fois nettoyé, pourra intégrer et alimenter de nouveau le processus de fabrication. L’usine pilote est actuellement conçue pour traiter 500 tonnes de déchets de polymère fluoré qui proviennent d’une part de l’entreprise elle-même, et d’autre part de ses clients.

Tout l’intérêt du projet repose sur une économie d’énergie de 7 500 KWh et de 10 000 tonnes de déchets d’acide chlorhydrique nécessaires au recyclage habituel de ces matières plastiques spéciales, sans compter une réduction significative des émissions de CO2 qu’entraîne ce genre de traitement. Par ailleurs, ce projet a une dimension bénéfique pour certaines ressources précieuses, comme la fluorine, qu’il tente de protéger et conserver en développant des méthodes de traitement et de recyclage moins abrasives qu’à l’accoutumé.

Le « Programme pour l’innovation dans le domaine de l’environnement » du BMU permet pour la première fois le développement et le financement à grande échelle de technologies et d’applications innovantes dans ce secteur. Le projet sélectionné doit aller au-delà de la pure innovation technique, il doit avoir un caractère de démonstration d’une technologie nouvelle ou d’un procédé nouveau, qui pourra être applicable par la suite à d’autres projets.

Source : bulletins électroniques

Les réseaux sociaux pour scientifiques

[Cet article a été publié initialement sur le blog MyScienceWork]

Une nouvelle approche des outils numériques et de la veille bibliographique

La diffusion de l’information par internet nous a noyés dans un océan de connaissances. Afin d’éviter de braver seul ce flot chaotique, il est judicieux de s’entourer d’une communauté aux intérêts similaires. Nous avions récemment publié un aperçu des outils numériques à utiliser pour la recherche scientifique. Ce texte s’arrêtait à l’évocation des réseaux sociaux scientifiques, une catégorie nouvelle et à part entière qui reflète les nouvelles pratiques de recherche. Parmi les aspects pratiques des réseaux sociaux, on peut citer la mise en commun d’outils numériques pour le travail collaboratif au sein de communautés.

Le travail collaboratif est particulièrement pratique lors de veille bibliographique. La plupart des doctorants ont d’ailleurs commencé leur thèse en accumulant sur leur table tous les indispensables articles suggérés par chaque membre du groupe de recherche récemment intégré. Certains logiciels de gestion bibliographiques comme Mendeley et Zotero proposent d’étendre cette pratique à la Terre entière. Disponibles en ligne, ces sites permettent de générer automatiquement des bibliographies compatibles avec les autres gestionnaires de références (EndNote, BibTeX) ainsi que des éditeurs de texte (Microsoft Word, OpenOffice). Mais ces deux plateformes, Mendeley et Zotero, se distinguent des logiciels classiques (EndNote, JabRef, Papers) par leur aspect social. Elles offrent des fonctionnalités de partage de bibliographies et de documents. Elles permettent aussi l’annotation de textes et favorisent le post-reviewing, c’est-à-dire l’évaluation des articles après publication. Le regroupement des individus par thématiques donne lieu à une sélection des sujets pertinents aux membres de ces communautés. Ceci permet à chacun, étudiants comme chercheurs, de bénéficier de la sélection avisée d’articles de qualité par des spécialistes de tous les domaines (voir « Science et Curation : nouvelle pratique du Web 2.0 »). Des applications Iphone/Ipad sont disponibles et Zotero, développé en open source, est aussi disponible sur Androïd.

Ce partage de veille scientifique est une activité que l’on retrouve aussi sur certains réseaux sociaux généralistes, Facebook, LinkedIn, Viadéo et surtout Twitter (voir notre article Twittos scientificus). Ces pratiques favorisent les échanges interdisciplinaires et les pratiques collaboratives. Elles ouvrent aussi de nouvelles voies de communication pour les universités et les laboratoires.

Réseaux de collaborations scientifiques

Les médias sociaux classiques, Facebook et Twitter en premiers, sont de plus en plus utilisés par les universités. Leur usage est particulièrement fréquent dans les pays anglo-saxons mais il varie encore suivant les disciplines scientifiques.

Par ailleurs, depuis un peu plus de deux ans, des plateformes de réseaux sociaux se sont développées spécifiquement dans le but de répondre aux besoins des chercheurs en termes de visibilité, de collaborations et d’accès à l’information et à la connaissance. Elles centralisent les informations relatives aux personnes et aux centres de recherche grâce à des profils académiques détaillés : institutions, positions professionnelles, liste des publications scientifiques etc. Chaque plateforme s’utilise de façon spécifique et offre diverses fonctionnalités.

SciVal experts semble être la plateforme de collaboration scientifique la plus utilisée par les universités nord-américaines. Développée à l’origine par la société Collexis, elle a depuis 2010 été rachetée par la très controversée Elsevier. C’est une plateforme payante dont la version gratuite s’appelle BioMedExperts. Ces plateformes facilitent la recherche d’informations à propos de scientifiques. Ce sont des plateformes favorisant les collaborations scientifiques inter et intra-entités de recherche. A noter cependant qu’elles souffrent de certaines restrictions dues à la politique commerciale de la société Elsevier. Les universités américaines évoquent notamment le fait que leur contenu soit restreint aux bases de données d’Elsevier : Scopus et PubMed. Ce sont donc essentiellement les centres de recherche en médecine et en biologie qui peuvent intégrer cette solution.

VIVO est, par contraste, une application web développée en open source par les universités de Cornell et de Floride. Elle offre la possibilité aux institutions de mettre en place leur propre réseau social. Son contenu est particulièrement adapté au partage des publications multidisciplinaires et en en open access. Très flexible, elle accepte toutes sources de contenus libres de droit : bases de dépôts institutionnelles, revues en open access, sources gouvernementales, revues auxquelles les institutions sont abonnées, conférences, appels d’offres. VIVO est aujourd’hui utilisé dans une cinquantaine d’universités mais son installation est complexe et demande des efforts en terme de développement technique.

De nombreuses universités et fondations ont en parallèle tenté de développer leurs propres plateformes de communication comme par exemple LatticeGrid, proposée en open source par l’université de Northwestern. Mais leur isolement vis-à-vis des autres plateformes et le manque d’accès aux bases de données commerciales limitent leur utilisation. En France, l’université Paris Descartes est l’une des premières à s’être dotée d’un réseau social efficace nommé Carnets2.

Social science space, développé par le journal de sciences sociales SAGE, et SSRN offrent tous deux des espaces de débat et de discussion autour des sciences humaines et sociales, des politiques de financement, de la gouvernance de la recherche etc. Encore plus spécifique, e-sciencetalk est la communauté des systèmes de grilles de calculs partagées et de cloud computing.

Spécifique à la côte ouest des Etats-Unis, la plateforme Academia.edu regroupe environ un million d’utilisateurs académiques. Sa mission première est de permettre un échange rapide des publications scientifiques. Il est notamment utilisé par les étudiants universitaires.

Facebook pour les scientifiques ?

Malgré la dénomination « réseau social », aucune de ces plateformes professionnelles ne propose de fonctionnalités pour échanger et communiquer à l’image de LinkedIn ou Viadeo. Il n’est généralement pas possible d’y suivre l’activité d’autres membres mais seulement de consulter les informations contenues dans leurs profils. ResearchGate est le réseau le plus proche de ce que l’on pourrait appeler un « Facebook pour scientifique ». Ce site permet aux chercheurs de se créer manuellement un profil professionnel. Chacun peut ensuite ajouter des contacts, suivre les activités des utilisateurs partageant les mêmes centres d’intérêts etc. Les profils proposent un fil de discussion comme Facebook (récemment renommé « timeline »). Des groupes de discussion permettent de débattre de sujets précis, par exemple les mesures IRM ou l’analyse de données complexes.

Un article du blog @ccess présentait les réseaux sociaux scientifiques comme la continuité logique de l’émergence de l’accès libre aux publications scientifiques. Ceci est d’ailleurs l’axe principal du projet MyScienceWork, premier réseau social scientifique dédié à l’open access. Ce réseau est centré autour d’une bibliothèque en open access personnalisable couplée à un moteur de recherche sémantique. L’objectif de MyScienceWork est de permettre une recherche ciblée, spécifiquement calibrée pour répondre aux besoins de l’exploitation des articles scientifiques issus des revues en open access. En effet, le modèle économique de l’édition scientifique se trouve aujourd’hui à un tournant (voir « L’édition scientifique, son modèle, ses scandales »). Avec l’accès libre aux publications scientifiques (voir « L’open access : vers une nouvelle pratique de la communication scientifique »), la diffusion des contenus et leur évaluation doivent adopter de nouveaux modèles. C’est en fait le travail du chercheur dans son ensemble qui se voit modifié par les nouveaux outils numériques et par les nouveaux modèles de publication. Les réseaux sociaux scientifiques accompagnent l’ouverture actuelle de la science. Ils développent les outils de la science de demain, plus ouverte, plus internationale, plus multidisciplinaire.

Réseaux multidisciplinaires ou réseaux spécialisés ?

Parmi les exemples mentionnés ci-dessus, plusieurs plateformes sont réservées aux sciences du vivant et aux sciences médicales (SciVal, Biomed experts etc). L’avenir nous dira si les communautés scientifiques adopteront plus facilement les plateformes spécialisées ou bien les plateformes généralistes. Parmi les plus spécialisées, nous avons relevé la communauté MalariaWorld. Cette plateforme regroupe plus de 7 000 professionnels spécialistes de la malaria. Dans la région de Boston (USA), le réseau Epernicus propose quant à lui des réseaux sociaux pour les centres de recherches cliniques et médicales. Dans un genre différent, plusieurs communautés scientifiques se sont créées autour de l’open access, par exemple OAD (Open Access Directory). D’ailleurs, il faut probablement chercher l’origine des communautés de spécialistes en ligne du côté du développement informatique en open source. La communauté des utilisateurs de l’éditeur de texte LaTeX est d’ailleurs parmi les plus actives.

Des réseaux sociaux pour l’éducation supérieure

Les environnements numériques de travail (ENT) sont les extensions des intranets universitaires et autres plateformes d’échange de ressources pédagogiques numériques. Unisciel par exemple regroupe une trentaine d’établissements d’enseignement supérieur français. De nombreuses informations y sont disponibles à propos des formations mais aussi des métiers. Celui plus local, de l’université Paris Descartes est maintenant couplé au réseau social de l‘université. Grâce à ces plateformes de communication, les enseignants et enseignants-chercheurs disposent d’un lieu pour interagir avec leurs étudiants. Ils leur font parvenir des documents de cours mais peuvent aussi sonder l’état de compréhension des concepts abordés et recueillir, par une nouvelle voie, les interrogations des étudiants. Le fossé entre le corps enseignant et les étudiants dispose donc aujourd’hui d’une passerelle par laquelle les jeunes peuvent entrevoir le métier d’enseignants-chercheurs et aborder autrement leur éducation. La revue Nature propose aussi le réseau éducatif Scitable qui regroupe des blogs, des forums thématiques et des ebooks, introductions aux principaux sujets de recherche en biologie. Il met l’accent sur les opportunités de carrière pour jeunes diplômés. Les universités numériques et le e-learning sont aussi des tendances émergentes en termes d’éducation qui sont en train de modifier en profondeur les méthodes d’apprentissage.

Un peu à part, Synapse est une plateforme issue de la Commission Européenne. Elle regroupe de nombreuses communautés d’établissements d’enseignements, d’organismes de recherche et d’administrations publiques. C’est un lieu numérique favorisant les consultations et les débats entre les expertises et les pouvoirs de décision à l’échelle européenne.

Ils s’appellent Openwetware, biostar, UniPHY pour les physiciens, direct2experts et Harvard Catalyst Profiles pour les universités du Massachussets… Les réseaux sociaux pour scientifiques sont trop nombreux pour être tous cités. Certains comme LabMetting ont déjà disparu, d’autres n’ont soulevé qu’un intérêt limité. Pourquoi tant de réserve ? Pourquoi Facebook a-t-il trouvé sa place dans nos activités quotidiennes mais que la science n’adopte pas de nouveaux modèles de communication ?

Il semble qu’à l’image de l’open access les réseaux sociaux scientifiques soient en train d’expérimenter un domaine en évolution. La science se fait chaque jour plus internationale. Chaque sujet de thèse innovant abat une frontière interdisciplinaire. Les universités adaptent leurs cursus aux évolutions. Elles collaborent pour créer des filières multidisciplinaires. Les futurs scientifiques, issus de la génération Y, ont vécu les débuts de l’ère du numériques. Ils ont grandi dans une société profondément marquée par le partage d’information sur les réseaux. Ils arrivent dans la sphère professionnelle en période de crise. Ils voient leurs gouvernements s’engluer dans des problématiques trop récentes pour les pouvoirs actuellement en place. Ils sont les premiers à militer contre le contrôle d’internet et ne craignent pas de s’exposer en ligne. Ils sont conscients des dérives et maîtrisent leur image en ligne. Enfin, ils ont aiguisé leur sens critique grâce à internet. Il est plus que probable que nous verrons bientôt les réseaux sociaux remplacer les sites web classiques. Et nous verrons bien, au cours de cette passionnante évolution, le ou les réseau(x) sociau(x) qui répondront au mieux aux besoins des scientifiques.

Par Laurence Bianchini / Blog MyScienceWork

My ScienceWork

legende

Le blog My ScienceWork est dédié à l’actualité multidisciplinaire de la recherche. L’équipe MyScienceWork vous invite à découvrir ses articles d’actualité/recherche/portrait/opinion en français et en anglais.

 

 

 

 

 

 

 

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

 

La nouvelle productivité au travail

Coment évaluer le temps de travail réel d’un travailleur typique. Un article met en lumière une étude fait par une firme française, et qui explique que globalement, il est impossible de rester concentré plus de 12 minutes sur son travail sans être interrompu !

Les statistiques concernent les travailleurs en France, mais pourraient probablement s’appliquer au monde du travail en général, et à l’explosion des nouvelles technologies du web en particulier.

En effet, l’étude réalisée par l’entreprise Sciforma note ainsi que :

  • 93,3 % des Français passent plus de 4h par jour sur leur ordinateur (70 % + de 6h)
  • 70 % déclarent utiliser leur ordinateur pour gérer leurs affaires personnelles au bureau
  • Plus d’1 Français sur 2 se connecte à des réseaux sociaux durant ses heures de travail
  • Près d’1 message sur 3 revêt un caractère non professionnel
  • 75 % avouent interrompre leur travail pour regarder le contenu d’un nouveau message qu’ils viennent de recevoir
  • Pour plus des deux tiers des Français, ce qui est urgent passe avant ce qui est important, et 25 % des sondés estiment ne travailler que dans l’urgence

On voit que les nouveaux outils web ne sont pas sans affecter le monde du travail, mais est-ce en bien ou en mal ? Que penser alors de la productivité ? Devons-nous redéfinir de nouvelles mesures de la productivité ?

Le sujet est abordé depuis quelques années déjà, mais il se pose de manière encore plus ostensible aujourd’hui.

Bien entendu, être interrompu à cause d’un contact (peu importe le moyen) n’a rien d’exceptionnel au travail, et est même recommandé. Cela fait partie du travail en somme.

« La conclusion de notre étude est simple mais d’une portée étonnante : l’entreprise est de moins en moins un lieu de production au sens classique du terme. Le travail devient une interaction, un échange, un dialogue permanent. L’entreprise favorise et exige cette interactivité dont elle fournit les outils. Cette évolution est profonde et pourrait bien changer fondamentalement notre relation au travail, son organisation et ses valeurs » commente ainsi Jérôme Anrès, PDG de Sciforma.

Par Caroline Gagnon

Source : NSISolutions

Project Glass : les lunettes à réalité augmentée de Google

Mercredi matin, Google a levé un peu plus le voile sur l’un de ses projets les plus attendus pour l’année 2012. Sobrement baptisé « Project Glass », le projet de lunettes du géant américain alimentait les rumeurs de la presse spécialisée depuis le début de l’année 2012, et impressionne à plus d’un titre.

Le prototype de lunettes présenté dans la vidéo de démonstration offre à l’utilisateur tout un éventail d’applications lors d’une simple promenade en ville. Ces applications lui fournissent par exemple des indications de direction et d’orientation tenant compte de la position en temps réel de l’utilisateur, des informations sur l’état du trafic ou sur l’état du service dans les transports en commun (proposant alors une alternative), gèrent son emploi du temps ou lui permettent encore d’interagir avec ses contacts, en allant jusqu’à indiquer où ils se trouvent (pour peu qu’ils utilisent un smartphone avec système de géolocalisation, ou Google Latitude)…

Application de la réalité augmentée

Lorsque l’utilisateur revêt ces lunettes, une barre d’icônes flottantes apparaît sur le petit écran situé juste au-dessus de l’œil droit pour ne pas entraver la vision. Une fois les lunettes connectées à un smartphone (probablement via Bluetooth), le système d’exploitation, de type Android, est contrôlé vocalement, à l’aide d’un microphone et, plus surprenant, par la vue. En dirigeant ses yeux vers le haut, l’utilisateur joue avec les icônes pour connaître la météo, envoyer un message à ses amis ou faire à peu près ce que propose déjà la plupart des smartphones.

Plus fort encore, le prototype permet d’interagir avec le monde extérieur, en « augmentant » ainsi la réalité perçue par l’utilisateur. Ce que l’on appelle « réalité augmentée » consiste en la superposition de la perception que l’on a de la réalité avec n’importe quel modèle virtuel en lien avec la réalité perçue, en temps réel. Ici l’incrustation d’objets virtuels dans l’environnement se fait à travers le fameux petit écran blanc, aidé en cela par les caméras miniatures situées sur le côté des lunettes, qui permettent en parallèle de reconnaître et d’analyser des éléments de l’environnement extérieur (ici, une affiche de concert) et d’y adjoindre des informations récupérées sur internet, voire de réserver pour ledit concert.

 Google X, le laboratoire top-secret de Google 

Alimentant les rumeurs les plus folles, c’est le laboratoire de recherche top-secret du géant américain, Google X, qui est à l’origine de « Glass Project ». Le laboratoire, dans lequel les deux fondateurs de Google, Sergey Brin et Larry Page, seraient très impliqués, pourrait se nicher quelque part aux alentours de San Francisco.

D’après des sources anonymes citées par le New-York Times en novembre 2011, les scientifiques de ce laboratoire travailleraient sur une centaine de projets très divers, axés sur la robotique. Les chercheurs du laboratoire travailleraient également sur des projets d’ampoules, de cafetières ainsi que divers autres appareils pouvant être allumés ou éteints à distance à l’aide d’un téléphone fonctionnant sous le système d’exploitation Android.

« Golden-I », de Kopin Corp

Ce projet présente un certain nombre de ressemblances avec Golden-I, de la société Kopin Corp, élaboré en collaboration avec Verizon et Motorola Solutions et présenté au dernier Consumer Electronics Show de Las Vegas, le plus important salon consacré à l’innovation technologique en électronique grand public. Golden-I se présente sous la forme d’un casque fonctionnant sous Windows CE, doté d’un petit écran de 0,44 pouces placé au niveau de l’œil droit, d’un accéléromètre et d’un micro à réducteur de bruit ambiant pour les commandes. Ce prototype est toutefois plus massif et moins élégant que le dispositif imaginé par Google.

Google a annoncé que les lunettes ne pourront en aucun cas être disponibles à la vente avant la fin de l’année. Toutefois, il est possible de suivre l’évolution du projet à travers une page Google + dédiée, que vous trouverez ici.

Par Moonzur Rahman

La fonte des glaces de l’Arctique pourrait changer la donne sur le plan géopolitique

Dans l’éventualité où, comme les scientifiques le prévoient, certaines voies maritimes du pôle Nord aujourd’hui inaccessibles le deviendraient dans les décennies à venir, elles pourraient définitivement redessiner les routes commerciales et changer la donne sur le plan géopolitique. L’été prochain sera témoin de l’activité humaine la plus intense qu’il n’y ait jamais eu dans cette région. Le géant pétrolier Shell devrait en effet lancer des opérations majeures d’exploration et les activités de la pêche, du tourisme et du transport maritime devraient également se développer. Les experts affirment toutefois que cette affluence comporte des risques pour l’environnement et pourrait faire fleurir des activités criminelles liées à la pêche illégale, à la contrebande et au terrorisme.

« Intensifier l’activité humaine dans l’Arctique aura des conséquences aussi bien positives que négatives », a déclaré la semaine dernière le lieutenant général Walter Semianiw, commandant du Commandement Canada. « Des changements seront perceptibles, qu’on le veuille ou non ». Selon les populations indigènes, les chercheurs et les militaires sur place, la fonte des glaces s’avère plus rapide que prévu. Certaines estimations laissent entendre que la calotte glaciaire pourrait disparaître totalement pendant la saison estivale dès 2040 et potentiellement bien plus tôt.

Cela pourrait réduire de plus d’une semaine le trajet entre l’Europe et les ports chinois ou japonais et potentiellement affecter le trafic de l’itinéraire sud du canal de Suez. Mais dans la mesure où bon nombre de ces routes maritimes clés traversant des eaux déjà disputées contiennent probablement la majorité des réserves énergétiques non exploitées de la planète, certains craignent l’émergence de conflits.

Malaise persistant

Il existe des signes incontestables de coopération croissante, comme la réunion des chefs d’état-major de la région qui aura lieu au Canada ce mois-ci ou les exercices communs de simulation d’opérations de recherche et de sauvetage sous la houlette du Conseil de l’Arctique. Mais il est clair qu’un sentiment de malaise gagne également du terrain. La Norvège et le Canada, par exemple, ont passé ces dernières années à mettre discrètement en œuvre des programmes de rééquipement militaire et à déplacer leurs troupes et d’autres forces vers des bases du nord agrandies ou nouvellement construites.

Quant aux États-Unis qui avaient retiré la plupart de leurs forces présentes dans cette région suite à la guerre froide, il semblerait qu’ils s’intéressent à nouveau à ce territoire. Certains officiers américains craignent que Washington ne perde son influence dans l’Arctique, au profit de nouveaux concurrents comme la Chine. « Nous sommes à bien des égards un État de l’Arctique sans stratégie pour cette région », a déclaré le commandant adjoint des gardes-côtes des États-Unis, Brian Salerno.

Les États-Unis doivent encore ratifier la convention de l’ONU sur le droit de la mer utilisée par la plupart des pays comme point de départ pour les discussions sur la question épineuse du territoire arctique.

Conflits territoriaux

Des experts de cette région ont dénombré au moins neuf conflits territoriaux distincts. La Russie est considérée comme particulièrement disposée à affirmer sa présence dans cette région éloignée riche en ressource où elle pourrait facilement dissimuler ses sous-marins équipés de missiles balistiques. Moscou gère presque tous les brise-glaces du monde, soit environ 34, bien que la plupart soient de vieux vaisseaux rouillés. Certains sont toutefois alimentés par des réacteurs nucléaires.

La Norvège et la Russie tiennent depuis longtemps des discussions tendues sur les îles Svalbard, largement considérées comme Norvégiennes, mais qui accueillent de plus en plus d’émigrés russes. Oslo a annoncé cette année la création d’un « bataillon de l’Arctique » explicitement lié à une formation similaire mise en place par l’armée russe de l’autre côté de la frontière.

En 2010, l’Islande a refusé de vendre une vaste parcelle de son territoire à un homme d’affaires chinois qui souhaitait y développer un projet de loisirs et des terrains de golf. Le pays avait alors invoqué des raisons de sécurité nationale. Le Groenland s’attend à son tour à recevoir des offres d’investisseurs, souvent asiatiques, suite à l’octroi récent de droits d’exploration et d’extraction de minéraux. Certains experts affirment pourtant que cette ouverture de l’Arctique, si elle était correctement supervisée, pourrait s’avérer bénéfique pour de nombreux pays concernés.

« Je vois l’Arctique comme une opportunité de coopération plutôt que de confrontation », a déclaré Christian Le Miere, chargé de recherches dans les affaires maritimes pour l’Institut international d’études stratégiques à Londres. L’étendue de la région, ses ressources difficilement exploitables et les obstacles à la navigation (comme les icebergs ou la cartographie approximative) continueront toutefois de représenter une menace.

« Je ne crains pas un conflit armé dans l’Arctique », a expliqué le capitaine Bert, garde-côte américain. « Je crains en revanche que nous ne soyons pas prêts à gérer les catastrophes majeures qui pourraient s’y produire. C’est de plus en plus probable dans la mesure où de plus en plus de gens s’y rendent. »

Source : Euractiv.com

Infinite, le téléphone mobile cinétique et solaire

On connaissait déjà le téléphone portable fonctionnant à l’énergie solaire. En 2009, Samsung proposait le Blue Earth, doté d’un panneau solaire qui permettait la recharge. En 2010, Umeox présentait son Apollo, un smartphone qui au terme de 2h30 de soleil s’utilisait une journée entière. Puis, plus récemment, la start-up française SIPA avait fait grand bruit en dévoilant lors d’un concours d’innovation, un film transparent photovoltaïque, capable de recharger un téléphone à la lumière du jour.

Le concept aujourd’hui présenté pousse encore plus loin l’innovation. D’où son nom : Infinite. Un nom significatif et représentatif de l’aptitude que devrait posséder le mobile, à savoir une autonomie infinie. Pour ce faire, le portable combine deux sources d’énergies vertes quasiment inépuisables. Énergies vertes, donc propres et renouvelables. Un atout qui devrait convaincre les écologistes.

La première énergie est l’énergie solaire. Mais à la différence des exemples cités plus haut, l’appareil est ici fourni avec un socle muni d’un panneau photovoltaïque rétractable, qui n’est autre qu’un chargeur à induction. Enfin, la seconde source est l’énergie cinétique. Infinite se charge à chaque contact de l’écran tactile par l’utilisateur ou dès lors qu’il le fait bouger. Du fait de ce mouvement sur le portable, l’énergie cinétique est fabriquée puis exploitée par des nanogénérateurs.

Aucune date pour ce mobile autosuffisant n’a été donnée. La création du designer taïwanais Tony Deng figure dans le cadre des options proposée dans le futur. Reste à savoir, s’il sera proche ou lointain.

Par Sébastien Tribot

 

À lire aussi :

Wysips : des films solaires sur les smartphones

Revue du Web #23 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Robojelly, une méduse robotique utilisant l’hydrogène de son environnement comme carburant ;
  • Une mousse isolante et comestible, pas ou peu nocive pour la santé et l’environnement ;
  • Le flyboard, jetpack équipé d’un propulseur à eau et permettant de se mouvoir comme un dauphin ;
  • Une vidéo mise en ligne par la NASA, présentant l’évolution de la Lune suivant l’hypothèse la plus en vogue, dite « de l’impact géant » ;
  • Tek RMD, un appareil dépoussiérant les bases du fauteuil roulant ;
  • Et enfin pour conclure, le gadget (inutile ?) de la semaine, le robot barbier.

« Robojelly », la méduse robotique

Pour débuter cette vingt-troisième revue du Web, voici la dernière trouvaille d’une équipe de chercheurs de l’université de Virginia Tech et de l’université du Texas, à Dallas. Les deux universités ont collaboré avec d’autres établissements afin de développer une méduse robotique alimentée par l’eau de mer. « Robojelly » (de « jellyfish », méduse en français) imite le mouvement d’une méduse, utilisant un mélange d’oxygène et d’hydrogène afin de contracter ses « muscles », composés de plusieurs épaisseurs de feuilles de nanotubes de carbone et de platine, enrobées dans un alliage nickel-titane à mémoire de forme (AMF).

Ce type d’alliage a, entre autres capacités, celle de garder en mémoire une forme initiale et d’y retourner même après une déformation, ce qui en fait un composant idéal pour imiter la contraction, puis la relaxation d’un muscle. Comme son alter ego naturel, cette méduse robotique utilise ses « muscles » circulaires pour se déplacer, la contraction des fibres musculaires de l’ombrelle propulsant la méduse par bonds. « Robojelly » serait d’autre part le premier robot utilisant avec succès l’hydrogène de son environnement comme carburant, et devrait donc théoriquement ne jamais tomber en panne sèche. L’US Navy serait d’ores et déjà intéressée par cette découverte, notamment pour des opérations de reconnaissance.

Une mousse isolante… et comestible !

La mousse isolante utilisée dans la vidéo qui suit est particulièrement impressionnante… au moins tout autant que la confiance de l’homme effectuant la démonstration. Après s’être emparé d’une grosse poignée de mousse isolante dont il assure le mélange quelques instants plus tôt, le démonstrateur utilise un puissant chalumeau dont il dirige la flamme sur sa propre main, recouverte d’une couche de la fameuse mousse. Après une vingtaine de secondes sous le feu du fer à souder (que l’on peut estimer à près de 1 500 degrés, car il n’utilise pas la partie la plus chaude de la flamme), non content de son exploit, le démonstrateur… mange la mousse à même le seau.

Cette dernière partie n’est évidemment pas anecdotique, lorsque l’on pense aux mousses de polyuréthanes ou autres mousses isolantes habituellement utilisées pour leur faible conductivité thermique, en général autour de 0,02 W/m.K. Ces dernières sont en effet très nocives pour la santé et pour l’environnement, alors que la mousse développée par la fondation Aarmourtherm est, elle, biodégradable. Le démonstrateur précise d’ailleurs que cela fait plus de cinq ans maintenant qu’il mange cette mousse…

Le « flyboard », ou comment se mouvoir comme un dauphin

Conçu par le le champion français de jet ski Franky Zapata, le « flyboard » est le parfait compromis entre un jetpack et un costume permettant de se mouvoir dans et hors de l’eau, d’effectuer des sauts et des pirouettes comme un dauphin, à près de 40 km/h. Pou rappel, un jetpack (« réacteur dorsal » en français) est un équipement portable, ressemblant à un (gros) sac à dos et permettant de décoller et de voler pendant un laps de temps très réduit. Les jetpacks existent sous plusieurs formes, comme le « Jetlev », déjà commercialisé, qui fonctionne lui aussi à l’eau et dont l’autonomie est d’environ deux heures, ou bien le Martin Jetpack développé par les Américains de Martin Airways.

Ici, point de réacteur dorsal, les pieds sont reliés à une planche équipée de propulseurs à eau, alors que deux autres propulseurs d’appoint fixés aux poignets servent à stabiliser l’ensemble, qui est lui-même relié à un flotteur équipé d’un moteur de jet ski. Le « Flyboard » est déjà disponible à la vente, pour un peu moins de 5 000 euros.

L’évolution de la Lune

Mise en ligne par la NASA, la vidéo suivante présente l’histoire supposée de la Lune, sous forme d’une animation retraçant les 4,5 milliards d’années de notre satellite, grâce aux données recueillies par la sonde spatiale américaine Lunar Reconnaissance Orbiter (LRO). La sonde spatiale, lancée en 2009 et de type orbiteur, a pour mission d’observer la Lune depuis son orbite, une cinquantaine de kilomètres autour du satellite.

Les données recueillies par la sonde LRO semblent corroborer l’hypothèse généralement retenue quant à l’origine et l’évolution de la Lune, à savoir « l’hypothèse de l’impact géant ». Selon cette hypothèse, la Lune se serait formée après qu’un corps de la taille de Mars soit entré en collision avec la Terre, alors toute jeune. L’impact, qui pourrait avoir eu lieu 42 millions d’années après la naissance de notre système solaire, aurait projeté dans l’espace de très nombreux débris provenant du manteau terrestre et de l’impacteur. Une partie de ces débris aurait produit un anneau en orbite qui, par accrétion, aurait donné naissance à la Lune.

Tek RMD, le fauteuil roulant nouvelle génération

Tek RMC : retenez bien le nom de cette société turque qui risque bien de révolutionner l’univers du fauteuil roulant. Après avoir remis à plat tous les besoins d’une personne à mobilité réduite, les scientifiques de cette jeune entreprise ont décidé de dépoussiérer les standards du fauteuil roulant en développant Tek Robotic Mobilization Device (RMD), un appareil se basant sur un tout autre type de plateforme. Tek RMD offre l’opportunité aux personnes paraplégiques de se redresser en position verticale de manière indépendante, facilitant ainsi leurs mouvements et l’accomplissement des tâches quotidiennes en intérieur, chez l’utilisateur comme au bureau ou encore au supermarché.

Yusuf Akturkoglu, un jeune turc de 28 ans paralysé depuis une mauvaise chute de cheval, fait la démonstration du Tek RMD dans la vidéo qui suit. Un des points cruciaux et totalement innovants de cet appareil est de pouvoir y entrer par l’arrière, contrairement aux fauteuils classiques qui nécessitent souvent l’assistance d’une tierce personne pour pouvoir s’y installer par l’avant.

Tek RMD est d’ores et déjà disponible dans cinq modèles de tailles différentes en Turquie, et la jeune société est à la recherche de points de ventes et de distributeur en Europe et aux États-Unis, pour un prix de vente estimé à 11 200 euros (15 000 dollars).

Le gadget (inutile ?) de la semaine : le robot barbier

Pour conclure cette vingt-troisième revue du Web, voici le gadget (inutile ?) de la semaine, le « Multi-Arm UGV » (Unmanned Ground Vehicle), à savoir un véhicule terrestre motorisé doté de plusieurs bras, mais servant ici de… robot barbier. Afin de récolter des fonds pour la fondation Saint-Baldrick, une organisation caritative impliquée dans le financement de la recherche contre le cancer des jeunes enfants, le Multi-Arm UGV tente de raser la tête d’un cobaye qui s’est porté volontaire, sans grand succès.

Équipé de caméras au niveau de chaque bras articulé et doté d’une interface robotique primaire, le Multi-Arm UGV peine laborieusement à raser la tête du cobaye, bien que le système soit entièrement télécommandé. Le robot peut fonctionner dans d’autres situations (telles que les opérations en terrain contaminé ou encore les déminages), mais il est loin d’être adapté à la tonte des cheveux.

Par Moonzur Rahman

 

À lire aussi :

Revue du Web #21

Revue du Web #20

Revue du Web #19

La première méga-centrale solaire sans subvention va naître en Espagne

Alors que jusqu’à présent la viabilité des projets photovoltaïques dépendait de tarifs d’achat (feed-in tarifs), l’électricité produite par la centrale de Talaván sera vendue sur le marché selon le régime ordinaire, c’est-à-dire le même que celui de l’électricité d’origine conventionnelle, fossile ou fissile.

Compte-tenu du gisement solaire local, particulièrement généreux, la centrale, qui occupera une surface de 7,5 kilomètres-carrés, produira environ 400 millions de kWh par an, assez pour répondre aux besoins électriques de 100 000 foyers. Gehrlicher Solar  a déjà acquis les terrains nécessaires et dispose d’un point de raccordement sur le réseau électrique. L’entreprise s’est engagée à investir 250 millions d’euros dans ce projet pionnier dans le régime non subventionné. Un accord vient d’être signé avec le président du gouvernement de la région Extremadura, José Manuel Monago. L’étude topographique pour installer les panneaux solaires commence actuellement.

Gehrlicher Solar développe ce projet depuis un an, c’est-à-dire avant la mise en place du moratoire décidé par le nouveau gouvernement espagnol. Guillermo Barea, délégué de Gehrlicher Solar en Espagne, a indiqué que le groupe est resté discret concernant ce projet jusqu’à ce qu’il soit vraiment solide, ce qui est le cas à présent.

Un business-model novateur

Tous les contacts établis avec les banques pour le financement se sont révélés positifs, malgré les incertitudes inhérentes à ce projet au business-model novateur.  Selon Guillermo Barea, la phase de construction de la centrale va générer 2163 emplois. Puis 105 emplois permanents seront créés pour la maintenance une fois la construction achevée.  La première tranche, de 50 MW, entrera en service dès fin 2013.

Selon Red Eléctrica de España (l’équivalent espagnol de RTE), plusieurs centaines de MW sont actuellement en attente de raccordement en Espagne, ceci alors que le gouvernement espagnol ne subventionne plus le solaire photovoltaïque depuis quelques mois. Gehrlicher Solar  n’est donc pas la seule entreprise à entrer dans cette dynamique en régime non aidé. Ceci constitue la démonstration que la filière photovoltaïque, de plus en plus mature, entre dans une nouvelle phase de son histoire.

Si les très grands projets deviennent compétitifs dans les régions bien ensoleillées, la situation est différente pour les projets plus modestes dans des régions moins ensoleillées, comme par exemple en France, où les subventions seront encore nécessaires durant quelques années pour accélérer la transition vers les énergies inépuisables.
 
Gehrlicher Solar, qui compte aujourd’hui 400 salariés du Brésil à l’Allemagne en passant par l’Inde et les USA, et qui appartient au top 10 des intégrateurs de systèmes photovoltaïques au niveau international, envoie cependant dès à présent un message fort et encourageant : un monde où l’énergie solaire sera aussi bon marché que les énergies sales approche à grands pas.

Par Olivier Danielo

Dématérialisation : non aux fuites d’informations !

La dématérialisation de documents permet de transformer l’information en données électroniques, afin de la diffuser ou de la  rendre accessible, en vue d’être traitée ou partagée.

Pour l’entreprise, la donnée a une valeur inestimable, elle est le fruit de recherches, d’études de marché… Elle renseigne sur l’entreprise elle-même, les clients, les fournisseurs… Sur un marché, c’est elle qui fait toute la différence pour une entreprise face à ses concurrents. L’information doit donc être de bonne qualité, à jour, accessible à ceux qui en ont besoin et cela à tout moment.

Un projet de dématérialisation de documents est une réelle opportunité pour l’entreprise car il lui permet de gagner en productivité, en efficacité, en qualité et en satisfaction client. Il est aussi pour l’entreprise une occasion de repenser son organisation, la sécurité de ses informations et les droits d’accès associés ainsi que l’ensemble de ses processus fonctionnels.

Ainsi, pour qu’un projet de dématérialisation ne soit pas synonyme de fuite d’informations (et les exemples sont nombreux ces derniers temps : hacking de Bercy, piratage de comptes chez Sony…), il est nécessaire de mettre en place des règles et des politiques de sécurité physique et informatique permettant de garantir la sécurité des données.

 

Protéger l’information consiste à garantir sa disponibilité, son intégrité, sa confidentialité et sa traçabilité.

Cette sécurité des données n’est possible qu’avec un environnement informatique maîtrisé grâce à la mise en place de procédures et de moyens :

 

La mise en place ou le renforcement de la sécurité physique

Dans la pratique, la dématérialisation doit reposer sur une sécurité efficace. Le contrôle d’accès est la première étape indispensable qui s’accompagne désormais d’innovations technologiques efficaces et dissuasives telles que la lecture des empreintes digitales ou la génération de codes personnels à la volée via des téléphones mobiles.

 

La mise en œuvre d’un système d’information sécurisé

Les systèmes d’information doivent faire l’objet d’une attention particulière. Leur mise sous surveillance grâce à des solutions de supervision permet d’assurer un contrôle aussi bien au niveau du réseau qu’au niveau du poste de travail et donc de l’utilisateur. Par ailleurs, des solutions permettent d’empêcher certaines opérations telles que l’impression des documents ou encore la sauvegarde de fichiers. Pour être efficace, la sécurisation du système d’information doit s’étendre du réseau jusqu’aux applications.

 

Garantir la traçabilité des données 

Une fois dématérialisées, les informations ne sont plus disponibles autrement que sous forme de fichiers électroniques. Il est donc facile de se les procurer à l’aide d’une clé USB ou par l’envoi d’un e-mail au départ d’un simple ordinateur portable.

Pour pallier ce risque, les entreprises doivent mettre en place des solutions qui permettent de garantir la traçabilité des données, comme des solutions de journalisation des accès ou encore le tatouage numérique (watermarking). Cette technique permet d’ajouter des informations de copyright ou d’autres messages de vérification sur un fichier mais aussi un signal audio, vidéo voire une image, sur tout type de document numérique. Grâce à ces systèmes de traçabilité, il est possible de savoir qui a consulté les documents et ce que cette personne en a fait. En cas de fuite d’information, l’entreprise est donc à même d’identifier l’indiscret et de savoir ce qu’il a réellement fait et quand.

 

Le contrôle régulier des règles et des politiques de sécurité

Les mises à jour du système d’information tout comme les évolutions organisationnelles indispensables au bon fonctionnement de l’entreprise doivent donner lieu à des contrôles réguliers pour permettre de garantir continuellement la bonne application des règles et politiques de sécurité. On parle également de phase de pilotage et de contrôle de conformité des politiques mises en place par l’entreprise.

 

La prise en compte de la protection des données à caractère personnel 

Les législations française et européenne sont très strictes en matière de protection des données à caractère personnel. Les préconisations de la CNIL fournissent aux entreprises les règles à mettre en place en matière de données à caractère personnel et les principes de sécurité à respecter en termes d’accès et de conservation des données.

La dématérialisation de documents doit systématiquement être associée à une réelle politique de sécurité pour remplir toutes ses promesses : productivité, efficacité, qualité du travail, amélioration de la relation client et réduction des coûts.

La sécurité ne doit pas être uniquement une question de technologies ou de procédures. Elle doit être prise en considération par l’ensemble des individus : l’encadrement, les utilisateurs qui manipulent les informations personnelles et sensibles, sans oublier les informaticiens qui automatisent et hébergent les traitements. Chaque individu doit faire évoluer ses comportements pour une sécurité pleinement efficace.

Pour sécuriser son projet de dématérialisation, l’entreprise (publique ou privée) peut également s’appuyer sur un référentiel des bonnes pratiques édité par la révision générale des politiques publiques (RGPP) et sur la norme ISO27 001 qui définit un cadre de processus d’amélioration continue.

Cette norme permet de mettre en place, de maintenir et de faire évoluer le système de management de la sécurité de l’information afin d’assurer la protection des biens sensibles d’une entreprise sur un périmètre défini.

L’objectif est de garantir la protection des actifs informationnels.

 

Par Olivier Zanon, Directeur des Opérations de FEDASO

 

A lire également :

Conférence Media Aces : Les médias sociaux sont-ils en train de mourir ?

En décembre 2011, Hervé Kabla, directeur de Blogs Angels et co-fondateur de Media Aces France, avait déjà jeté un sacré pavé dans la Toile. Dans une chronique iconoclaste mais très pertinente, il s’interrogeait ouvertement sur une possible phase terminale des réseaux sociaux. Une réflexion gonflée à l’heure où Facebook conquiert plus que jamais des fans et prépare fébrilement son entrée en Bourse. Et si l’hypothèse n’était pas si farfelue de prime abord ?

D’abord, remettre de l’ordre dans la boutique !

Qu’on se rassure, Hervé Kabla et Yann Gourvennec, l’autre co-fondateur de Media Aces, n’ont pas prononcé l’oraison funèbre enterrant les médias sociaux par six pieds sous terre en ouvrant cette 6ème conférence. En revanche, le discours a été sans ambages : un ménage salutaire devient urgemment nécessaire pour enrayer les dérives qui émaillent de manière croissante les médias sociaux.

En soi, le phénomène n’est pas totalement nouveau. Yann Gourvennec a ainsi rappelé le flop désastreux que la marque cosmétique Vichy a enregistré à ses dépens en … 2005 en lançant un blog apocryphe baptisé « Le journal de ma peau » et animé par 4 blogueuses dûment rétribuées pour ne dire que du bien. Toutefois, ce qui avait à l’époque suscité un tollé général de la blogosphère, a parfois tendance aujourd’hui à passer inaperçu ou pire comme une technique marketing presque comme une autre.

Achat de fans à tour de bras, commentaires élogieux en pagaille, dopage d’abonnés sur divers comptes, les pratiques contestables ont plutôt redoublé d’intensité ces derniers mois à mesure que les marques, les agences et autres acteurs influents ont désormais compris l’intérêt de mettre un pied dans le Web social. L’objectif de la conférence Media Aces était par conséquent de rappeler les intrinsèques fondamentaux des réseaux sociaux avant que ceux-ci ne soient définitivement pollués et discrédités par ce genre de dérives. Un état des lieux d’autant plus important que les médias sociaux ont désormais acquis une légitimité même s’ils n’ont pas fini d’évoluer.

Capture d’écran en quelques chiffres

Pour mieux se figurer la progression des réseaux sociaux en France, Philippe Gérard, directeur de la communication digitale de la Cegos, a livré les résultats d’une enquête menée par son entreprise en novembre 2011 auprès de 1 200 salariés et 300 responsables de médias sociaux issus de sociétés de plus de 50 salariés. Les chiffres sont éloquents et confirment un fait majeur : les salariés français ont adopté les réseaux sociaux ! 48 % s’y connectent quotidiennement avec une franche inclinaison pour Facebook (61 %) et loin devant Viadeo (9 %), Linkedin (6 %) et Twitter (6 %).

Si l’usage est établi, les raisons diffèrent néanmoins entre catégories socio-professionnelles. Les cadres ont recours à 46 % aux réseaux sociaux pour des motifs professionnels tandis que les employés et ouvriers s’y connectent à titre personnel. De même, l’activité a tendance à être relativement « passive ». 59 % fréquentent les réseaux pour augmenter leur carnet de contact, 44 % pour y trouver des informations et 41 % pour communiquer. En revanche, les proportions s’inversent nettement dès lors qu’il s’agit de pratiques plus actives et contributives.

Un autre point intéressant à relever est l’absence de crainte de s’exprimer sur les dits réseaux. 45 % n’ont absolument pas peur et 20 % supplémentaires pas vraiment peur. Un score qui permet de relativiser l’ampleur médiatique portée à certaines affaires comme le cas Alten où trois salariés ont été licenciés pour propos diffamants envers leur hiérarchie.

Une autre histoire en interne

Les réseaux internes d’entreprise ont paradoxalement plus de peine à s’imposer auprès de ces mêmes salariés. Ainsi, 40 % déclarent ne pas savoir s’il existe de tels outils disponibles au sein de leur entreprise alors qu’une entreprise sur deux le propose à l’heure actuelle. Et lorsqu’on parle de réseau en interne, ce sont avant tout des outils collaboratifs, le cloud computing et la messagerie instantanée qui sont privilégiés. Les autres comme les wikis, les blogs, etc recueillent nettement moins les faveurs des salariés.

Ces derniers manifestent de surcroît une vraie réticence à l’égard des réseaux sociaux d’entreprise et dans leur envie d’échanger. 32 % craignent ainsi une exploitation abusive de leurs données personnelles. 28 % redoutent des failles dans la protection de données confidentielles relatives à l’entreprise. Un même pourcentage s’estime mal à l’aise avec la possibilité d’être évalué et/ou jugé via ces outils. Autant dire qu’un profond travail d’évangélisation et de conviction doit encore être mené par la communication interne et les ressources humaines !

Alors fin du début quand même ?

 

Lire la suite ici

 

 

Par Olivier Cimelière / Le blog du Communicant 2.0

 

À lire aussi :

2012, la fin des médias sociaux ?

700 millions de profils Facebook, et moi et moi et moi…

Qui sont ces Français fans de pages sur Facebook ?

 

Inscrivez-vous dès à présent à la Formation sur les réseaux sociaux au sein de l’entreprise. Prochaines sessions à Paris les 30 mars et 19 octobre 2012.

 

 

 

 

News informatique : mars 2012

IPv6, le Royaume-Uni n’est pas prêt

Le 6 juin 2012 a été désigné par l’Internet Society « Jour mondial de lancement de l’IPv6 ». A cette date, les principales entreprises de l’Internet adopteront le nouveau système d’adressage IPv6 qui doit remplacer l’IPv4 dont les adresses seront bientôt toutes utilisées. Selon la Brisish Computer Society, à quelques mois de ce changement, la plupart des entreprises britanniques ignorent toujours les enjeux et modalités du passage à l’IPv6.

L’Internet fonctionne actuellement sur un système d’adressage 32 bits, l’IPv4. Ce qui signifie qu’il existe environ 4,3 milliards adresses possibles. Avec l’expansion du nombre de terminaux connectés à Internet, il n’y aura bientôt plus aucune adresse disponible. C’est pourquoi les équipes de l’Internet Engineering Task Force ont mis au point en 1998 le protocole IPv6, censé succéder à l’IPv4. Les adresses en IPv6 sont codées sur 128 bits – soit 3,4×1038 adresses possibles – autrement dit, plus de risque de saturation.

Pour Nigel Titley, responsable de 6UK, l’organisme chargé de la promotion de l’IPv6 au Royaume-Uni, le passage au nouveau protocole est une démarche complexe qui impactera l’ensemble d’une organisation, du fonctionnement de la messagerie à la gestion de la paye : « il y a un certain nombre de différences à considérer entre IPv4 et IPv6 et la transition ne se fera pas d’un simple clic ».

Le principal problème technique est l’incompatibilité entre les protocoles IPv4 et IPv6. Les sites qui passent en IPv6 devront donc conserver une adresse en IPv4 s’ils souhaitent rester accessible à l’ensemble des internautes. Les serveurs DNS (Domain Name Server) qui assurent la correspondance entre l’adresse IPv4 d’un site et son nom de domaine devront également relier ce nom de domaine à une adresse IPv6. Et l’ensemble des intermédiaires dans le réseau, les fournisseurs d’accès et les routeurs, devront également être capables de supporter les deux systèmes d’adressage.

Le passage à l’IPv6 pourrait également poser un problème de sécurité pour les organisations. Dans un rapport publié en juin 2011, la société Gartner notait que les solutions de sécurisation des réseaux IPv6 disponibles sur le marché étaient aujourd’hui en deçà des offres pour l’IPv4.

Le passage à l’IPv6 n’est en rien obligatoire. C’est pourquoi la plupart des organisations ne l’ont toujours pas adopté. Cependant, avec l’expansion d’Internet, via les terminaux mobiles et l’Internet des objets notamment, les entreprises n’auront bientôt plus le choix si elles désirent continuer à se développer. Il reste encore 5 milliards de personnes à connecter au réseau Internet, et cela ne sera pas possible avec l’IPv4.

Avec moins de 5 % de ses sites disponibles en IPv6, le Royaume-Uni se classe en 21e position en termes d’adoption du nouveau protocole. C’est la France qui arrive en tête de ce classement avec près de 60 % des sites prêts pour l’IPv6. Ce résultat est dû aux deux principaux hébergeurs français, Gandi et OVH, qui affectent systématiquement une adresse IPv6 aux sites qui s’enregistrent chez eux.

L’urgence du passage à l’IPv6 est devenue plus tangible encore en février 2011, lorsque l’IANA (Internet Assigned Numbers Authority), organisation sous la tutelle de l’ICANN (Internet Corporation for Assigned Names and Numbers), chargée de l’octroi des adresses IPv4, a distribué ses derniers lots d’adresses aux 5 Registres Internet Régionaux (RIR), eux mêmes chargés ensuite de vendre les adresses aux organisations. Le RIR de la région Asie, l’APNIC, est le premier à avoir vendu tous ses lots en avril 2011. Le RIR de la région Europe, RIPENCC, devrait vendre ses dernières adresses IPv4 d’ici juillet 2012. Enfin selon les prévisions, et dans l’hypothèse où la politique d’assignement des adresses IPv4 reste inchangée, le RIR de la région Afrique, l’AFRINIC, devrait distribuer les dernières adresses IPv4 disponibles en octobre 2014.

En savoir plus : Bulletins Electroniques

Ouverture du premier laboratoire asiatique consacré aux médias sociaux

Le département d’Electronique et d’Informatique de l’Université de Sciences et Technologies de Hong Kong (HKUST) a inauguré le 15 février 2012 le « HKUST NIE Social Media Laboratory », premier laboratoire asiatique spécialisé dans l’étude des technologies relatives aux médias sociaux. Les médias sociaux occupent actuellement une place très importante sur le web à travers les réseaux sociaux, le partage de vidéo, les blogs ou les podcasts. Les missions de ce nouveau laboratoire seront de développer de futurs systèmes pour ces modes de communication sur le web et de renforcer les partenariats entre le monde de la recherche et le secteur commercial.

Le « HKUST NIE Social Media Laboratory » travaillera en étroite collaboration avec Cyberport, un parc technologique créé par le gouvernement hongkongais et dédié aux Technologies de l’Information et de la Communication (TIC). Les étudiants pourront ainsi bénéficier d’un soutien technique de la part des entreprises localisées dans le parc technologique. Ils seront aussi encouragés à participer à des formations, des ateliers, des séminaires et des forums afin de suivre les dernières évolutions en matière de technologies numériques. Le laboratoire travaillera également en partenariat avec le géant de la télécommunication  » PCCW « .

En savoir plus : Bulletins Electroniques

Un logiciel libre pour des robots toujours plus intelligents

La conception de logiciels pour robots est une tâche particulièrement complexe qui nécessite de gros investissements. Difficile donc pour de petites structures de se lancer dans ce type d’aventure.

L’Institut National des Sciences et des Techniques Industrielles Avancées (AIST) a créé un ensemble logiciel open-source dénommé « OpenRTC-aist », ouvert à tous les développeurs, permettant de simplifier le développement de robots dits intelligents. OpenRTC-aist constitue une brique d’un grand projet de mise à disposition d’outils pour le développement logiciel de robots, appelé ROBOSSA (ROBOt Software Suite, AIST). Ce projet est financé par le METI (Ministère japonais de l’Economie, du Commerce et de l’Industrie) et la NEDO (Organisation pour le Développement des Energies Nouvelles et des Technologies Industrielles). OpenRTC-aist complète ainsi la plateforme logicielle OpenRTM-aist (publiée en 2010) et la « toolchain » OpenRTP-aist.

OpenRTC-aist est composé plusieurs modules, remplissant chacun une fonction élémentaire (travailler, se déplacer et communiquer). Ces fonctions sont en effet nécessaires à la fabrication de robots dits intelligents. D’autres fonctions spécifiques aux robots intelligents sont également intégrées à cette plateforme : la reconnaissance d’objets et la reconnaissance vocale, ou encore la détection du positionnement du robot dans une pièce. Chacune de ces briques logicielles peut être facilement assemblée par le développeur comme bon lui semble afin de créer son programme personnalisé. Il est même possible d’installer ces programmes sur des robots déjà commercialisés afin par exemple d’en élaborer des versions plus intelligentes.

De par sa gratuité, l’AIST espère rendre service aux universités effectuant des recherches sur la robotique ainsi qu’aux PME souhaitant intégrer plus facilement le marché de la robotique.

En savoir plus : Bulletins Electroniques

Publié par C.H.

Les mashups d’entreprise et le Cloud

A la croisée du Web 2.0 et des problématiques d’intégration des données et des processus métier, les mashups d’entreprise fournissent une solution pratique pour la composition rapide de nouvelles applications personnalisées.

Un mashup d’entreprise permet de connecter ensemble des parties d’applications existantes, tels qu’un CRM, un ERP ou un SCM, des applications mainframe ou AS400 (écrans verts) avec des widgets Web 2.0 (géo-localisation, outils de communication et réseau sociaux) et des services Web. Plus avancé qu’un simple portail, le mashup permet aux différents composants de communiquer les uns avec les autres et fournit de nouvelles expériences utilisateurs riches basées sur l’approche RIA (rich Internet application), disponibles dans un browser, un poste de travail et même sur les smartphones.

Toutefois, si la création d’un mashup grand public, combinant des widgets bien connus tels que Google Maps est quasiment à la portée de tout utilisateur Internet, la réalisation et le déploiement d’un mashup d’entreprise reste un tout autre challenge.

Tout d’abord, il faut pouvoir se connecter aux applications de l’entreprise. Le plus souvent, celles-ci n’ont pas été conçues pour être intégrées facilement. Quelques rares plateformes de mashups permettent de capturer les écrans et logiques métiers des applications critiques sur mainframe ou sur le Web et de les publier ensuite sous forme de widgets ou de services Web. Cette capture reste une tâche complexe et nécessite de comprendre les contraintes d’une architecture informatique. C’est pourquoi certaines plateformes de mashup fournissent deux environnements de développement : un pour les informaticiens qui auront en charge la production des widgets (aussi appelés mashables) et un autre beaucoup plus simple, à destination des utilisateurs métier, pour assembler les widgets au sein de mashups.

Tester et maintenir leurs mashups sans complexité additionnelle

Restent alors les étapes de déploiement et d’administration des mashups en production. Si les utilisateurs qui ont mis au point leurs propres mashups doivent ensuite demander l’acquisition, la configuration et l’administration de nouveaux serveurs, ils risquent de se retrouver dans une situation de dépendance vis-à-vis de la DSI, ce qui annule en partie l’intérêt des mashups. C’est là qu’une solution de type Cloud apporte une réponse nouvelle à ce besoin. Si la plateforme de mashup est disponible en version Cloud, les utilisateurs peuvent alors directement déployer, tester et maintenir leurs mashups sans complexité additionnelle.

Pour les mêmes raisons, le Cloud est une formidable plateforme d’évaluation des mashups pour les entreprises, puisqu’il suffit uniquement de downloader un environnement de développement, prototyper quelques mashups et les déployer dans le Cloud, juste en quelques clics, et sans avoir à provisionner des serveurs spécifiques.

En production, l’élasticité du Cloud (capacité à adapter dynamiquement les ressources aux besoins) fournit une excellente opportunité pour les startups et les PME. Il est possible de démarrer l’exploitation de mashups avec juste les ressources nécessaires, puis de monter en charge progressivement, en accompagnant le succès commercial. Il n’est donc plus besoin d’anticiper une possible montée en puissance ou des pics de fréquentation par de lourds investissements initiaux. A l’inverse, en cas de problème (une situation pas si rare en période de crise), il sera toujours possible de faire machine arrière en allouant simplement moins de ressources dans le Cloud et ne pas avoir à gérer la réassignation, technique et financière, de serveurs devenus inutiles.

Les grands comptes préfèreront quant à eux une solution mixte qui permette un déploiement des mashups à la fois dans le Cloud mais aussi sur des serveurs locaux. Ceci facilite l’intégration des mashups dans une politique globale de gouvernance IT, tout en conservant l’avantage de la simplicité d’évaluation. Cela permet aussi de donner du temps aux grands comptes pour bien maîtriser les enjeux de sécurité du Cloud et les aspects contractuels.

A noter qu’une véritable plateforme Cloud Mashup est plus qu’un simple déploiement manuel de mashups dans Amazon EC2. Tout d’abord, la plateforme Cloud Mashup évite d’avoir à découvrir puis maîtriser le déploiement dans le Cloud, mais surtout elle apporte des mécanismes d’administration propres aux mashups qui renforcent le SLA (Service Level Agreement) par défaut du fournisseur de Cloud.

Par Eric Samson, Product Marketing chez Convertigo&

L’essentiel de Reach (mars) 2/2

Evaluation des substances : les entreprises ont une obligation de communication

(15/03/2012)
Un avis paru au Journal Officiel du 15 mars rappelle aux entreprises leur obligation de communication auprès de l’Anses concernant les substances à évaluer définies par le plan d’action triennal de l’ECHA (CoRAP). A ce stade, la seule obligation qui pèse sur les entreprises fabricantes ou importatrices est de transmettre les données concernant les substances inscrites au CoRAP et pour lesquelles elles sont déclarantes.

Elles doivent alors prendre contact avec le déclarant principal afin de participer aux discussions techniques concernant l’évaluation faite par un Etat membre. Pour les substances évaluées par la France, les déclarants peuvent se rapprocher directement de l’Anses – direction des produits réglementés. Le CoRAP indique que la France doit évaluer 10 substances sur 3 ans.  ’avis est disponible sur :
http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=?cidTexte=JORFTEXT000025510861&dateTexte=&oldAction=rechJO&categorieLien=id

 

REACH : la restriction du chrome hexavalent dans les articles en cuir en projet

 

(16/03/2012)
L’ECHA lance une consultation de six mois sur une proposition danoise de restriction de la mise sur le marché des articles en cuir contenant du chrome hexavalent. Elle souhaite toutefois recueillir le maximum de remarques avant le 1er juin 2012. Le chrome hexavalent est connu pour causer des dermatites de contact graves chez l’homme, à des concentrations mêmes faibles. Ce risque existe en particulier lorsque cette substance est présente dans les chaussures et autres articles en cuir. Plus d’information sur :
http://echa.europa.eu/en/view-article/-/journal_content/a19f3846-4158-4351-8304-39de35c35f1b

Substances enregistrées

(16/03/2012)
La base de données de l’ECHA contient, à ce jour, 4 326 substances et des informations provenant de 25 307 dossiers d’enregistrement REACH.
http://echa.europa.eu/web/guest/information-on-chemicals/registered-substances

Revue 2012 de REACH

(19/03/2012)
L’article 138(6) du règlement REACH prévoit que la Commission européenne procède, au plus tard le 1er juin 2012, à un examen afin d’évaluer si le champ d’application du règlement doit ou non être modifié en vue d’éviter que celui-ci n’empiète sur d’autres dispositions communautaires applicables. La Direction générale de la prévention des risques (DGPR), autorité compétente nationale pour la mise en œuvre du règlement REACH, a souhaité procéder à cet examen en prenant en compte le contexte, notamment industriel, français. L’examen s’appuie sur des cas concrets collectés auprès d’industriels et de fédérations d’industriels (fabricants, importateurs, utilisateurs en aval).

Registre d’intention pour la classification et l’étiquetage harmonisé

(20/03/2012)
Sept nouvelles intentions ont été ajoutées au registre d’intention pour la classification et l’étiquetage harmonisés. Plus d’informations sur :
http://echa.europa.eu/web/guest/registry-current-classification-and-labelling-intentions

Nouvelle version du « Guide pour l’identification et la désignation des substances dans le cadre de REACH et du CLP

(22/03/2012)
L’ECHA a publié la version 1.2 du guide pour l’identification et la désignation des substances dans le cadre de REACH et du CLP. Ce guide est disponible en 22 langues. La version française est disponible sur :
http://echa.europa.eu/documents/10162/13643/substance_id_fr.pdf

Webinar pour les utilisateurs en aval : 23/04/2012

(22/03/2012)
L’ECHA a annoncé qu’un webinar s’adressant aux utilisateurs en aval qui reçoivent des scénarios d’exposition aura lieu le 23 avril prochain. Une partie de ce webinar sera également consacrée à la question de la communication des usages pour les enregistrements de 2013.
http://echa.europa.eu/support/training-material/webinars (en bas du tableau)

Analyses de COV : la norme est modifiée

(23/03/2012)
La norme d’analyse des composés organiques volatils (COV) des peintures et vernis est modifiée (norme ISO 11890, parties 1 et 2). Cette modification résulte d’un arrêté paru le 23 mars au Journal officiel et qui entre en vigueur le 1er avril prochain. L’arrêté du 27 février 2012 modifie l’arrêté du 29 mai 2006 relatif à la réduction des émissions de composés organiques volatils dues à l’utilisation de solvants organiques dans certains vernis et peintures et dans les produits de retouche de véhicules. L’arrêté est disponible :

http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000025554251&dateTexte=&categorieLien=id

Webinar

27/03/2012
L’ECHA a publié les présentations et vidéo relatives au Webinar organisé le 27 mars et portant sur l’identité des substances et le partage des données dans un SIEF. Ces éléments sont disponibles sur : http://echa.europa.eu/web/guest/support/training-material/webinars

Modification de l’inventaire classifications & étiquetage

(29/03/2012)
L’ECHA a mis à jour l’inventaire C&L (modifications mineures). Avec cette mise à jour, l’inventaire comporte les notifications provenant de  96 425 substances. Cet inventaire public est disponible sur : http://echa.europa.eu/information-on-chemicals/cl-inventory
News de l’ECHA : http://echa.europa.eu/web/guest/view-article/-/journal_content/872361ec-86d0-418d-84ed-775ac6c0d507

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

News Environnement : mars 2012

Climat : de nouvelles simulations françaises pour le prochain rapport du GIEC

A l’automne 2013, le GIEC qui, rappelons-le, est le Groupe d’experts Intergouvernemental sur l’évolution du climat, publiera le premier volet de son nouveau rapport d’évaluation, le cinquième, les quatre premiers ayant été publiés respectivement en 1990, 1995, 2001 et 2007. Trois groupes et une équipe spéciale composent le GIEC. Le premier traite des éléments scientifiques de l’évolution du climat, à savoir son observation, sa compréhension et son estimation future. Le second s’intéresse aux questions concernant la vulnérabilité des systèmes socio-économiques et naturels aux changements climatiques, les conséquences de ces changements et les mesures d’adaptation. Enfin, le troisième et dernier groupe s’occupe des mesures d’atténuation.

Quant à l’équipe spéciale du GIEC, elle est en charge des inventaires nationaux de gaz à effet de serre. Or pour établir leurs conclusions, les auteurs de ce 5ème rapport vont s’appuyer notamment sur les résultats de l’exercice de simulations du climat passé et futur (CMIP-5), réalisé dans le cadre du Programme mondial de recherche sur le climat (PMRC), dont la réalisation mobilise une large communauté scientifique internationale dans laquelle sont impliqués de nombreux chercheurs français essentiellement du CNRS, du CEA, de Météo-Fance, de l’UPMC (Université Pierre et Marie Curie) et l’UVSQ (Université Versailles Saint-Quentin-en-Yvelines).

Par rapport aux exercices précédents, plusieurs innovations sont à noter dans le CMIP-5 : la prise en compte de scénarios incluant des politiques climatiques de réduction des émissions de gaz à effet de serre, l’utilisation de modèles plus complexes et plus précis, une évaluation approfondie de la capacité des modèles à reproduire le climat passé et les mécanismes qui sous-tendent son évolution, enfin la réalisation d’une série de prévisions rétrospectives du climat des cinquante dernières années et d’un exercice de prévision pour la période 2010-2035. Précisons que lors des précédents exercices, les simulations avaient été effectuées de manière linéaire.

Pour commencer, les chercheurs établissaient des scénarios d’émissions de gaz à effet serre à partir d’hypothèses concernant les évolutions démographiques, sociales, économiques et technologiques à l’échelle du globe. Aussi les projections climatiques étaient-elles les réponses des modèles numériques à ces scénarios d’émissions. Or dans le cadre du CMIP-5, les groupes de travail ont donc retenu une nouvelle approche, dans laquelle modélisateurs du climat et économiste ont travaillé en parallèle, les premiers pour effectuer des projections climatiques, les seconds pour élaborer des scénarios socio-économiques. Ceux-ci ont travaillé à partir de « trajectoires » d’évolution des concentrations de gaz à effet de serre, ce que les spécialistes appellent les « Representative Concentration Pathways », les RCP.

Rappelons que ces trajectoires proviennent des résultats des recherches les plus récentes menées à partir de modèles intégrant les évolutions socio-économiques et climatiques. Cette démarche permet ainsi aux économistes d’établir des scénarios qui explorent toutes les possibilités d’évolutions technologiques et socio-économiques permettant de rendre compte de ces RCP, notamment ceux qui prennent en compte des politiques climatiques de réduction des émissions de gaz à effet de serre, une hypothèse qui n’avait pas été explorée lors des précédents exercices.

C’est donc dans ce cadre que la communauté climatique française vient d’achever un nouvel exercice majeur de simulations du climat passé et futur à l’échelle globale. « Les nouvelles données dont nous disposons confirment les conclusions du dernier rapport du GIEC sur les changements de températures et de précipitations à venir », résume Jean Jouzel, chercheur CEA au sein du Laboratoire des Sciences du Climat de l’Environnement (CNRS/CEA/UVSQ) et membre du GIEC. Ainsi une tendance à l’augmentation des températures est observée à l’horizon 2100 pour tous les scénarios. Cela dit, celle-ci est évidemment plus ou moins marquée selon le scénario envisagé. Pour le plus sévère, la hausse est de 3,5 à 5° C, alors qu’elle n’est que de 2° C pour le plus optimiste. Notons cependant que ce dernier scénario ne peut être atteint que par l’application de politiques climatiques de réduction des émissions de gaz à effet de serre. Les résultats obtenus par les simulations françaises confirment également une intensification du cycle hydrologique, cycle qui, rappelons-le, met en jeu les précipitations et l’évaporation à l’échelle planétaire.

Autre confirmation, la fonte de la banquise Arctique qui, dans le scénario le plus pessimiste, disparaît en été, vers 2040, voire 2060, selon le modèle utilisé. Parallèlement, de nouvelles réponses sont apportées par les simulations couplant le climat au cycle du carbone. Celles-ci montrent en particulier qu’il faudrait rapidement diminuer les émissions anthropiques et atteindre des émissions « négatives » d’ici la fin du XXIème siècle. L’analyse de cet ensemble de simulations réalisées par la communauté climatique française combiné aux simulations des autres groupes internationaux devrait apporter à terme un nouveau regard sur le lien entre les activités humaines et le climat, à la fois au cours des dernières décennies et, surtout, dans les décennies et les siècles à venir.

En savoir plus : http://www.bulletins-electroniques.com/actualites/69533.htm

Catastrophe des boues rouges : la commission d’enquête accuse l’usine d’alumine et les autorités

Le responsable de la commission d’enquête parlementaire, Lajos Kepli, a indiqué Mardi 28 février 2012 que le déversement de boue rouge ayant frappé trois villes de l’ouest hongrois en octobre 2010 pouvait être attribué en premier lieu à la négligence de l’usine d’alumine Mal dont le réservoir a éclaté, mais également aux autorités. Il explique que la catastrophe a été causée par une série d’erreurs ainsi que l’approche négligente et irresponsable du propriétaire des lieux.

En octobre 2010, la rupture d’un réservoir d’une usine de production de bauxite-aluminium avait provoqué le déversement d’1,1 millions de mètres cube de boues rouges dans la région de Devecsera (voir BE Hongrie 30, « Catastrophe des boues rouges : évaluation des risques » [1]). Le déversement de produits toxiques avait alors tué dix personnes, blessé près de 300 autres, détruit des centaines de bâtiments, anéanti toute vie dans deux petites rivières de la région et pollué plus de 1000 hectares de terres. L’ensemble des dommages causés avait alors été évalué à des dizaines de milliards de forints.

Lajos Kepli, député du Jobbik (parti nationaliste radical), a qualifié d’absurde le fait que le réservoir n’ait jamais obtenu de licence, et que son contenu n’ait pas été classé matière dangereuse. Il a également accusé les gouvernements précédents pour leur incapacité à adopter des directives de l’Union Européenne qui auraient pu empêcher la catastrophe. Le secrétaire d’Etat de l’Intérieur Mr András Tallai a quant à lui indiqué que le gouvernement approuvait les principales conclusions de l’enquête.

En savoir plus : http://www.bulletins-electroniques.com/actualites/69494.htm

Publié par P.T

Les entreprises et internet : l’enquête

Malgré l’essor constant de l’achat en ligne depuis plusieurs années, les TPE et PME françaises ne se sont pas encore majoritairement orientées vers la vente en ligne comme nouveau canal de vente : c’est à partir de ce constat que la Commission « Ventes et Marketing » de l’ADEN (Association Nationale pour le Développement Numérique) a décidé de mener cette enquête.

« Nous avons pour objectif d’évaluer l’adhésion des professionnels français à l’économie numérique, et cette enquête montre clairement qu’un nombre important d’entre eux restent encore sourds au potentiel commercial que représente un site internet et la possibilité de toucher des dizaines de millions d’internautes français », explique Stéphane Escoffier, Directeur général de Doyousoft et Président de la Commission « Ventes et Marketing » de l’ADEN.

« Malgré tout, nous constatons une accélération significative du nombre de sites internet créés ces derniers mois, et ce sur l’ensemble du territoire national : un professionnel sur cinq interrogé indique d’ailleurs être soit en phase de création d’un site, soit avoir le projet d’en avoir un », ajoute-t-il.

Des indicateurs encourageants…

Plus de la moitié des entreprises interrogées (51%) déclarent avoir un site Internet : elles sont majoritairement équipées en site vitrine, les sites marchands représentant moins du tiers des sites créés.

Si l’équipement ne cesse d’augmenter, le rythme s’est fortement accéléré sur les dernières années, comme en témoigne la courbe d’ancienneté des sites : ainsi le nombre de sites créés a connu une croissance de 69% en 2009-2010, avec un quasi doublement des sites e-commerce sur la même période (+91%).

Quelles sont les principales raisons qui motivent les professionnels à créer un site Internet pour leur entreprise ? De très loin, l’objectif est clairement de doper l’activité commerciale de leur entreprise : gagner, sur le web, de nouveaux clients et de nouvelles commandes. Les TPE-PME attendent en effet autre chose que de la simple visibilité sur la toile : le gain de notoriété est un objectif secondaire par rapport à celui de gains de clients, talonné de près par l’objectif d’augmenter le chiffre d’affaires.

Autre question posée par l’enquête : les sites marchands s’avèrent-il contributeurs de chiffre d’affaires ? La réponse est oui, puisque les deux tiers des sites e-commerce créés génèrent plus de 5% du chiffre d’affaires total des entreprises équipées. Et un tiers enregistre entre 6% et 50% de leurs ventes avec leur site marchand.

Si l’on regarde plus précisément les sites vitrines, contrairement à une idée reçue, ceux-ci ne représentent pas une étape intermédiaire vers un site marchand. Certes 21% des sites vitrines ont d’ores et déjà prévu de passer ultérieurement à la vente en ligne sur leur site. Mais deux gérants de sites vitrines sur trois affirment n’avoir aucune intention de le faire. Et parmi les sites e-commerce existants, ils sont une minorité à avoir démarré sous forme de site vitrine.

« Les dirigeants de TPE & de PME sont bien conscients aujourd’hui que la vente à distance par le biais d’un site e-commerce ne constitue pas l’aboutissement obligatoire d’une stratégie Internet motivée par des ambitions commerciales », commente Stéphane Escoffier.

…mais aussi des freins et des réticences

Si près de la moitié des entreprises interrogées indiquent avoir un site internet, à l’inverse la même proportion avoue ne pas en avoir. Elles sont même  31% à n’avoir aucun projet de création de site. Parmi ces « neto-sceptiques », une forte majorité affirme ne pas voir l’utilité de créer un site Internet pour leur activité. Cependant, seulement 13% de ces entreprises ont réellement essayé d’en créer un pour en évaluer les bénéfices commerciaux.

Pour les 18 % de TPE-PME souhaitant se doter d’un site internet, plusieurs freins existent, et les deux tiers de ces entreprises déclarent rencontrer des difficultés pour réaliser ce projet.

Parmi les principaux freins évoqués, le temps arrive en 1ère  position avec près de 40% de réponses.

Vient ensuite la question des compétences : la moitié des entreprises désirant s’équiper indiquent que leur manque de compétences informatiques ou techniques constitue une difficulté pour la réalisation de leur projet. Un sentiment également partagé par la moitié des entreprises sans projet de création de site.

Pourtant, une fois le site créé, le constat est tout autre. Chez les e-commerçants : ils sont plus de 9 sur 10 à considérer que la création d’un site marchand est davantage un projet commercial qu’informatique. 87% affirment que leur entreprise gère elle-même le site marchand, et seul un tiers estime que la gestion quotidienne n’est pas simple et exige une expertise informatique.

Autre  frein mentionné par les entrepreneurs interrogés, et non des moindres : le coût, qui refroidit clairement les velléités de nombre d’entre eux :

  • ainsi, parmi les entreprises sans projet, les deux tiers estiment qu’un site Internet coûte trop cher,
  • l’aspect financier est aussi la 2ème difficulté annoncée pour plus de la moitié des entreprises porteuses d’un projet.

Interrogées sur le budget de création de leur site, les entreprises équipées indiquent un budget médian de 2500€ pour un site marchand et de 900€ pour un site vitrine, ce qui constitue une vision assez juste de la réalité actuelle du marché.

« Pour les 49% de TPE et de PME qui n’en sont pas encore dotées, créer et gérer ensuite au quotidien son site internet est le plus souvent assimilé à un véritable parcours du combattant, compliqué, générateur de temps, nécessitant des connaissances voire des compétences spécifiques, sans oublier un investissement financier, dont ils ne parviennent pas toujours à évaluer le retour et les bénéfices ».

« Un accompagnement semble clairement leur manquer, comme le confirment les 17% de porteurs de projets qui peinent à trouver un interlocuteur sur le marché… ainsi que le quart des entreprises qui ont pour projet un site marchand et qui avouent être perdues pour comparer les devis des différents prestataires internet…  », ajoute Stéphane Escoffier.

Publié par P.T

Réputation 2.0 : Un patron peut-il et doit-il bloguer librement ?

À l’heure où les questions de l’identité numérique et de la présence en ligne sont désormais d’incontournables critères constitutifs de la réputation globale d’un individu, la démarche entreprise par Jean-Bernard Lévy marque-t-elle l’amorce d’un virage dans la communication des patrons plus généralement adeptes de la traditionnelle conférence de presse, de la tribune encadrée dans un journal reconnu, voire de l’ascèse médiatique pour les plus discrets d’entre eux ? Bloguer n’est effectivement pas neutre pour un dirigeant d’entreprise mais peut-il raisonnablement en faire l’impasse aujourd’hui, a fortiori si celui-ci évolue lui-même dans l’univers de la communication, de la technologie et du digital ? Eléments (non-exhaustifs !) de réflexion.

Avec ou sans eux, la conversation est déjà active

Selon les sources et les études, les chiffres de l’activité des médias sociaux français peuvent légèrement varier. Mais une chose est acquise : la conversation est bel et bien prolixe avec plus de 10 millions de blogueurs actifs, 23 millions de comptes Facebook et 1,6 millions de fils Twitter en l’espace de quelques années seulement. Si une vaste majorité ne se soucie guère de la vie des entreprises et des prises de position de ses dirigeants, d’autres au contraire scrutent, dissèquent, interpellent et parfois critiquent avec virulence. ONG, activistes de tous bords, syndicats, influenceurs ayant pignon sur rue ou même simples citoyens engagés ont bien saisi la nouvelle donne. Révolu le temps d’un patron indéboulonnable que l’on pouvait uniquement contester en comité d’entreprise ou en déployant des banderoles sous les fenêtres de ses bureaux. Aujourd’hui, ce dernier peut se retrouver sous la mitraille numérique à l’instar des élus politiques et des journalistes de renom.

Pourtant, dès l’émergence des réseaux sociaux, quelques patrons n’ont guère hésité à investir ce nouveau mode de communication. Le plus pionnier et emblématique d’entre eux est sans nul doute Pierre Bilger (décédé en mars 2011). Ancien haut-fonctionnaire puis PDG du groupe industriel Alstom jusqu’en 2003, Pierre Bilger se lance dès janvier 2005 dans ce qui était encore à l’époque une terra incognita défriché par quelques précurseurs férus d’Internet et de débats d’idées. Dans un de ses premiers billets, il explique le sens de sa démarche (1) : « L’opportunité qu’offrent les blogs à ceux qui en prennent l’initiative ou y participent est de pouvoir s’exprimer et échanger sans que les opinions formulées déclenchent immédiatement des protestations autres que verbales ou des mouvements de révolte ou des grèves conduisant à la paralysie totale ou partielle des institutions qui sont l’objet du débat. Cette situation d’irresponsabilité permet d’aborder les sujets difficiles sans faux semblants. C’est l’envie qui me prend à un moment où une nouvelle fois notre système éducatif fait l’objet d’une réforme ».

Certes libéré de son « devoir de réserve » d’ex-dirigeant d’un des fleurons de l’industrie hexagonale, l’homme n’en utilise pas moins sa notoriété et son bouillonnement d’idées pour alimenter avec vigueur son nouvel espace d’expression numérique tout en confessant humblement qu’il apprend à mesure qu’il avance (2) : « Je ne sais pas si le blog est le « nouveau mythe du web », comme l’a écrit dans Le Monde Luc Fayard ; mais ce dont je suis certain qu’il ne faut pas lui demander plus qu’il ne peut donner : le blog ne va pas révolutionner la démocratie, pas plus que les sites Internet d’ailleurs ; il constitue simplement un instrument de transmission des informations des opinions en concurrence ou/et en complément avec les autres médias, son avantage compétitif étant la simplicité et l’instantanéité ».

Loin des yeux, loin du blog

En dépit de hérauts patentés incitant les patrons à s’impliquer dans la blogosphère comme le célébrissime Loïc Le Meur ou encore le consultant Jacques Froissard, peu de grands dirigeants osent cependant franchir le pas. Même si dès août 2004 sous l’impulsion du communicant Guillaume du Gardier, se crée pourtant dans cette optique le « CEO Bloggers Club » qui entend précisément (3) « réunir des chefs d’entreprise bloggers et leur permettre d’échanger leur expérience dans l’utilisation du blog comme vecteur de communication d’entreprise ». L’association comptera jusqu’à 90 membres avant de disparaître quelques années plus tard.

Parmi les convertis de la première heure, d’aucuns poursuivent encore aujourd’hui l’aventure du blog. C’est le cas par exemple de Louis Le Duff. Fondateur du groupe éponyme qui compte en son sein des enseignes connues comme la Brioche Dorée, Pizza Del Arte, Fournil de Pierre, il ouvre en 2006 un blog intitulé « En toute franchise ». Avec un objectif affiché d’emblée : promouvoir l’entrepreneuriat sous la bannière d’une franchise et souligner son apport à la croissance économique du pays. Aujourd’hui encore, le blog est régulièrement mis à jour avec notamment des billets où Louis Le Duff partage la substance de ses rencontres et discussions avec des acteurs économiques.

Néanmoins, à la différence de leurs homologues d’Outre-Atlantique, les patrons français n’ont guère manifesté jusqu’à présent un tropisme affirmé à l’égard des blogs. Dans l’Hexagone, difficile de trouver un équivalent à John Chambers, ancien PDG de Cisco ou Jonathan Schwartz, ancien PDG de Sun dont le blog était traduit en 11 langues et les billets guettés comme le lait sur le feu par la communauté geek. Un « désert des Tartares » numérique que confirme une étude menée par l’agence TBWA Corporate en septembre 2011 sur la présence des grandes entreprises françaises sur Twitter.

Les enseignements sont édifiants ! Parmi les patrons du CAC 40, quatre d’entre eux seulement disposent d’un compte Twitter mais avec des statistiques frôlant l’inactivité. Lakshmi Mittal (Arcelor Mittal) compte par exemple 1732 abonnés mais n’a publié que … 3 tweets ! Pas de quoi rassasier les suiveurs. Plus bavard est Henri Proglio, PDG d’EDF avec 92 tweets émis vers ses 200 abonnés mais ceux-ci sont en fait des re-tweets issus du compte officiel de l’entreprise. A croire que ce compte Twitter a transformé Henri Proglio en super attaché de presse numérique !

Si Ben Verwaayen, PDG d’Alcatel Lucent, compte quasiment autant de fidèles que son homologue d’EDF, il n’est en revanche pas vraiment prolifique en matière de tweets avec un seul et unique tweet en octobre 2010 au compteur pour promouvoir … le blog officiel de l’entreprise. PDG d’Essilor, Hubert  Sagnières ne recueille qu’une centaine de followers. Et pour cause ! Le compte est muet depuis octobre 2009. Depuis l’étude de TBWA, un 5ème PDG du CAC 40 s’est posé sur Twitter : Jean-Paul Chifflet. Posé mais figé puisque les stats sont toutes à zéro !

PDG et blogueur, le mariage de la carpe et du lapin ?

Devant ce peu d’entrain numérique, on peut s’interroger sur cette désertion de la blogosphère par les patrons. Dans un livre paru en janvier 2011 intitulé « Les médias sociaux expliqués à mon boss », les deux auteurs et blogueurs chevronnés, Yann Gourvennec et Hervé Kabla, ont pointé plusieurs éléments qui nourrissent la réticence des dirigeants d’entreprise à investir l’agora numérique. Il y a d’abord les freins de la culture managériale avec notamment la peur de la perte de contrôle du discours et le champ de mines juridique que les réseaux sociaux recèlent à leurs yeux.

Autre argument souvent brandi pour ne pas sauter le pas : l’adage « Time is money ». En d’autres termes, un blog est perçu comme chronophage dans son écriture et aléatoire dans son retour sur investissement. Comme si toutes les réunions auxquelles sont contraints d’assister par ailleurs les patrons étaient en revanche des investissements toujours fructueux en termes de retombées et d’opportunités !

Ce qui fait dire avec humour aux deux auteurs (4) : « Lorsque vous demanderez à votre propre patron d’écrire pour vos blogs d’entreprise (…), vous solderez ainsi définitivement la question du retour sur investissement car votre patron comprendra ainsi que les blogs d’entreprise permettent de faire des choses qui étaient impensables avant. En effet, quel autre moyen a-t-il à sa disposition qui lui permettre de partager sa vision stratégique avec le monde entier en appuyant simplement sur un bouton ? ».

La remarque est d’autant plus pertinente que les patrons, qu’ils le veuillent ou non, sont l’objet de discussions régulières par des tierces personnes issues de leur écosystème professionnel. Exemples piochés au gré de l’actualité récente : Paul Hermelin, PDG de Cap Gemini, Lars Olofsson, PDG de Carrefour et Philippe Varin, PDG de PSA. Lorsque vous faites une recherche sur les moteurs, vous tombez invariablement sur les incontournables biographies officielles et … les commentaires plus ou moins acides d’observateurs du secteur sur leur gouvernance d’entreprise dans la presse et … les blogs. En revanche, on ne trouve nulle trace d’une expression émanant d’eux-mêmes hormis des interviews accordées çà et là dans les médias.

Et si un président bloguait ?

C’est exactement la question que s’est appliqué à lui-même Nicolas Bordas, président de l’agence de communication et de publicité TBWA France. Dans la foulée de son livre « L’Idée qui tue » sur les idées qui ont changé la face du monde, il décide d’ouvrir son blog personnel en mai 2009. Dans son premier billet, il explique clairement sa motivation (5) : « Mon seul regret est d’être obligé de figer les exemples  illustrant mon propos alors que je vois passer chaque jour dans tous les domaines des idées fraiches, anticonformistes ou simplement réjouissantes, qui s’opposent à la pensée unique, conservatrice et conventionnelle, et qui mériteraient  d’être relevées. D’où l’idée de ce blog, modeste contribution au grand bouillon de culture que constitue Internet, partant du principe que cette matière bouillonnante est la source même de l’inspiration. Le principe de ce blog ? Des petites et des grandes idées “disruptives”,  qui remettent en cause des idées reçues préexistantes. Elles commencent toutes par “Et si ?”, et pourront faire l’objet d’un vote des internautes pour déterminer dans chaque secteur, “l’idée qui tue”, c’est à dire celle qui a le plus de chance de devenir une opinion dominante dans le futur. Merci de votre contribution ! ».

Pratiquement trois années plus tard, le blog de Nicolas Bordas est devenu un must en la matière pour qui passionne pour la création publicitaire, la communication innovante et les réflexions sur l’air du temps. Un investissement que ne regrette nullement son auteur comme il s’en explique dans cette vidéo.

Des patrons influenceurs, ça existe

Outre le contact avec la « vraie vie » de la communauté et la possibilité de mieux maîtriser sa réputation numérique,  le blog constitue également pour un patron l’opportunité de clarifier ses prises de position, d’expliciter ses décisions, voire faire part de ses humeurs et/ou de ses combats. L’illustration la plus aboutie réside sans conteste dans le blog du célèbre patron de l’enseigne de distribution éponyme, Michel-Edouard Leclerc. On aime ou on déteste le personnage mais force est d’admettre qu’il manie son blog à la perfection. Ouvert en janvier 2005, il s’en sert activement comme caisse de résonnance pour faire connaître et justifier les défis qu’il mène dans la libre concurrence, le pouvoir d’achat, le développement durable, etc.

Dans l’éditorial de présentation de son blog baptisé « De quoi je me MEL », le trublion de la grande distribution est sans équivoque sur ses motivations (6) : « L’évolution du traitement de l’information par les grands médias permet de moins en moins de développer des arguments à l’appui des prises de position. C’est trois minutes à la télévision pour traiter le problème des OGM ou quelques lignes dans la presse sur le pouvoir d’achat. Il est des sujets qui ne peuvent se limiter à des effets d’annonce, un titre « slogan » ou une « photo choc ». Plus frustrant encore, l’absence de dialogue. Internet ouvre dans ce domaine de nouvelles possibilités d’information et d’échange que je souhaite explorer. C’est pour ces raisons que j’ai décidé de créer « De quoi je me M.E.L » simplement pour permettre à ceux qui le désirent, d’en savoir plus et de pouvoir donner leur point de vue ». Et même s’ils ne le reconnaîtront pas spontanément, les journalistes couvrant le secteur ont les yeux rivés sur ce blog au ton volontiers décapant !

Dans un autre registre mais tout aussi abouti en termes de contenu, on peut signaler le blog de Françoise Gri, présidente de Manpower France. Lancé en février 2009, celle qui mène la destinée de la fameuse entreprise de travail temporaire en France, mise également sur le principe d’un blog pour alimenter le débat sur les thématiques de l’emploi comme elle l’écrit en préambule du blog (7) : « Si je souhaite ouvrir aujourd’hui cet espace de réflexions et de dialogues autour des questions sociétales inhérentes aux problématiques de l’Emploi et du Travail, c’est que je suis persuadée que nous assistons depuis quelques mois, à l’émergence d’un paradigme nouveau en la matière, dont on ne mesure vraiment ni l’ampleur des changements qu’il induit, ni le rythme qu’il impose, ni même le temps nécessaire à sa gestation (…) Je souhaite donc que ce blog soit un espace d’expression et de dialogue. C’est avec le plus grand intérêt que nous accueillerons ici le débat, aussi vif soit-il, tant qu’il s’y mène de manière ouverte et constructive, dans le respect de ses participants ».

Le ton y est certes plus policé mais Françoise Gri publie très régulièrement des billets contenant d’authentiques réflexions et regards qui contribuent à la positionner comme une dirigeante désireuse de faire avancer les choses et pas seulement focalisée sur le « bottom line » de son compte d’exploitation. En ces temps où la réputation s’établit aussi sur des dimensions autres que l’excellence à manier les bilans financiers dans les roadshows pour analystes, cet espace de communication est un atout indéniable. A condition de le nourrir avec honnêteté, conviction et ne pas l’encombrer de cette « novlangue » qui a tendance à souvent métastaser à travers les éléments de discours que des communicants zélés emboîtent comme des briques de Lego.

Conclusion – Encore un effort, Monsieur Lévy !

En libérant un peu plus sa parole, Jean-Bernard Lévy pourrait disposer d’une plateforme de communication réellement influente et lue.

S’il a l’incontestable mérite d’exister et de se livrer à un exercice qu’aucun de ses confrères n’a accepté jusque-là, le blog de Jean-Bernard Levy laisse un peu sur sa faim. Il n’en est certes qu’à ses premiers pas et évoluera probablement au regard du retour d’expérience mais force est de constater que l’initiative sent encore un peu trop l’amidon corporate. La tonalité des billets est plus proche des classiques communiqués de presse que de l’expression d’une veine personnelle. Il est évident que Jean-Bernard Lévy ne peut pas tout dire d’autant que son groupe est coté en Bourse et qu’à ce titre, certains écrits peuvent avoir des répercussions non négligeables sur le cours de l’action de l’entreprise.

Néanmoins, on aimerait en avoir plus de la part d’un des acteurs majeurs de l’industrie de la communication, des contenus et du divertissement. A cet égard, Jean-Bernard Lévy aurait toute légitimité pour y exprimer sa vision du marché, partager des choses vues lors de ses déplacements et ses échanges avec d’autres dirigeants dans le monde entier. Au lieu de cela, les billets postés jusqu’à présent ont plus le goût de compte-rendus quelque peu corsetés de conférences et événements auxquels le PDG de Vivendi a participé. Je reste persuadé qu’en libérant un peu plus sa parole et en donnant plus de profondeur à ses posts, Jean-Bernard Lévy pourrait disposer d’une plateforme de communication réellement influente et lue.

Ainsi, dans son billet du 25 octobre, il évoque Blizzcon, un événement mondial s’adressant aux gamers adeptes des jeux vidéos. Plutôt que de lire un billet très factuel, le lecteur aurait aimé en savoir plus sur la vision de Jean-Bernard Levy sur ce secteur, voire livrer quelques chiffres symptomatiques. Bref, quelque chose qui aille au-delà de l’exercice un peu compassé. Gagner ses galons de patron blogueur suppose qu’on en donne plus. Sinon la démarche risque d’être perçue au mieux comme sans intérêt par la blogosphère, au pire comme une imposture qui peut alors revenir comme un boomerang désagréable !

Par Olivier Cimelière / Le blog du Communicant 2.0 / Le Plus, Le Nouvel Observateur

 

Sources

(1) – Blog de Pierre Bilger
(2) – Blog de Pierre Bilger
(3) – CEO Bloggers Club
(4) – Hervé Kabla & Yann Gourvennec – « Les médias sociaux expliqués à mon boss » – Editions Kawa – Janvier 2011
(5) – Blog de Nicolas Bordas
(6) – Blog de Michel-Edouard Leclerc
(7) – Blog de Françoise Gri

Pour en savoir plus

– Edouard Laugier – « Je blogue donc j’influence » – Le Nouvel Economiste – 22 octobre 2010
– Hervé Kabla & Yann Gourvennec – « Les médias sociaux expliqués à mon boss » – Editions Kawa – Janvier 2011
– Agence Hopscotch – « Deuxième baromètre de l’e-réputation des patrons français » – Septembre 2010
– Agence Reputation Squad – Interview du consultant Minter Dial : « Comment convertir les grands patrons au Web social » – 31 mai 2010

 

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous !  »

« Les réseaux sociaux d’entreprise transcendent la hiérarchie et ont tendance à aplatir la pyramide »

Techniques de l’Ingénieur : Comment définit-on les réseaux sociaux ? Quels sont ceux existant, publics et professionnels ?

Anthony Poncier : Généralement, on distingue trois types de réseaux sociaux. Les réseaux sociaux grand public comme Facebook ou Twitter, bien que la frontière ait tendance à se diluer étant donné que de plus en plus de professionnels sont présents sur Facebook avec des pages « fan » pour du e-commerce. Après, il y a les réseaux qualifiés de « professionnels » (Viadeo, LinkedIn) qui sont accessibles à tout le monde. Et puis il y a ce qu’on appelle les « réseaux sociaux d’entreprise », qui sont eux limités à la sphère de l’entreprise.

Même si l’entreprise peut les ouvrir à ses clients, ces réseaux sont contrôlés intégralement par l’entreprise qui les met en place. On ne peut y accéder que via un login et un mot de passe. La frontière est davantage fermée. L’idée de ces réseaux sociaux est de faire travailler ensemble les collaborateurs et les partenaires, de produire de la valeur à travers la coproduction, le travail en commun et notamment le conversationnel.

David Fayon : Les réseaux sociaux sur Internet ont des caractéristiques communes avec les réseaux sociaux dans la vie. Toutefois, ils possèdent des singularités propres : rapidité des contacts, connaissance des contacts de ses contacts, vision instantanée du réseau et de ce qu’il s’y passe. Ils servent à communiquer autour d’une marque, de ses produits, de ses services, à générer du buzz, nouer des contacts, recruter, améliorer la gestion de la relation client, innover, développer son chiffre d’affaires. Parmi les réseaux sociaux internes aux entreprises, on distingue des outils variés (Sharepoint, Yammer, Chatter, Bluekiwi, etc.).

Comment sont-ils utilisés ?

A.P. : Cela dépend des entreprises, chacune va déployer des usages particuliers. Mais les usages que l’on va retrouver le plus souvent sont la gestion des connaissances, la manière de capitaliser sur un certain nombre de savoirs. Tout en sachant que pendant très longtemps, dans les années 90, la gestion des connaissances était orientée vers les documents alors qu’aujourd’hui elle se tourne plus vers les personnes. La question étant de « trouver la bonne personne, qui va me donner la bonne information au bon moment. » D’où le côté conversationnel.

De cette manière, les gens sont mis en réseau et peuvent ainsi mieux se connaître. On va avoir des profils enrichis au travers d’un nombre d’informations à la fois personnelles et professionnelles. Cela va permettre de comprendre « qui fait quoi, qui est qui dans l’entreprise ». Cela revient à emprunter la démarche de Social CRM, où l’on va coproduire avec les parties prenantes externes pour améliorer un produit ou un service. L’idée est de mettre les gens en réseau pour les amener à travailler ensemble et produire plus de valeur ajoutée pour eux comme pour l’organisation au sein de laquelle ils travaillent.

D.F. : Des entreprises comme Google ont su utiliser les concepts tels que la mise en place d’une démarche collaborative pour partager le savoir entre des communautés identifiées et des experts. En décloisonnant les directions de l’entreprise afin de valoriser le savoir, l’esprit d’entreprise et d’équipe s’en trouve renforcé.

Que changent les réseaux sociaux en termes de méthode et d’organisation du travail ?

A.P. : Cela remet, en partie, en question les silos. Avant, chacun travaillait « dans son coin ». Même si ce n’est pas l’outil qui va changer radicalement la donne, le RSE permet de travailler avec des gens à l’autre bout du monde et de transcender plus facilement la hiérarchie : « Je suis au marketing, je vais pouvoir m’adresser plus facilement au N+2 de quelqu’un qui serait au RH, au même niveau que moi ». Cela a tendance à aplatir la pyramide. Que ce soit d’un point de vue géographique, organisationnel ou au niveau hiérarchique, cet outil est un facilitateur pour mettre les gens en réseau.

Peut-on considérer le RSE comme une nouvelle manière d’envisager le recrutement ?

A.P. : Énormément de jeunes qui vont se faire recruter, s’interrogent sur les outils utilisés par l’entreprise. Ils se demandent : « Est-ce que je vais retrouver ce que j’ai en externe, dans l’entreprise ? ». Les entreprises mettent leurs réseaux sociaux en valeur, dans le sens où elles aussi sont jeunes et dynamiques. Cela donne une autre image de l’entreprise et ça peut avoir un impact sur le recrutement.

Quelles sont les opportunités liées à ces réseaux sociaux ?

A.P. : Les entreprises choisissent de mettre en place des RSE car cela permet de joindre l’ensemble des salariés, de renforcer le lien social et de créer de la cohésion. Le but est d’accélérer l’innovation au sein de l’entreprise, d’éviter de répéter une erreur. Avec l’idée d’éviter de réinventer la route de façon permanente. On sait que dans 60 % des cas, alors que le livrable existe, on a tendance à repartir de zéro au lieu de le reprendre et de l’améliorer. On espère ainsi accroître la performance.

D.F. : Au préalable, la mise en place d’un RSE suppose une certaine taille critique pour l’entreprise ou l’organisation. Pour une petite PME de moins de 20 salariés, l’intérêt est peu évident. Des entreprises françaises ont la possibilité de se démarquer, dans le cadre de la mise en place de RSE, par rapport aux entreprises qui ne s’inspirent pas de ces évolutions.

Quelle est la rentabilité pour les RSE ?

A.P. : Avec l’obligation de rentabilité inévitable, on a tendance à calculer forcément le retour sur investissement. Mais ce n’est pas parce qu’une chose ne se mesure pas, qu’elle n’a pas de valeur. Et l’erreur qui est principalement faite, c’est de vouloir mesurer le RSE. Le RSE est un outil. Ce qu’il faut mesurer, c’est l’impact du RSE sur les processus business. « Je réduis mon temps sur un projet grâce à l’aspect collaboratif, je rends un travail de meilleure qualité et le client est plus satisfait dans un temps moindre ». Là, je mesure l’impact de mon processus business.

Quels sont les risques liés à ces réseaux sociaux, en termes de vie privée, confidentialité des données, productivité ?

D.F. : L’utilisation d’un réseau social comme Facebook peut engendrer une forme de distraction, une baisse de productivité… Pour un marketeur, le fait d’être sur Facebook peut s’avérer utile pour faire du profiling, des sondages ou différentes opérations marketing. En revanche, pour un salarié lambda, cela peut être vu comme un gadget s’il y passe trop de temps sachant qu’il s’agit aussi d’un juste milieu à trouver.

S’il y passe quelques minutes, cela peut s’avérer bénéfique pour l’entreprise. On passe d’une pause cigarette à une pause Web. Des études ont même montré que les salariés qui surfaient le plus étaient également ceux qui avaient le plus de productivité, qui communiquaient plus facilement, qui étaient les plus créatifs…

Toutefois, il est bon de se déconnecter de temps en temps afin de se consacrer deux heures à l’avancement d’un dossier de fond ou pour échanger physiquement sans être dérangé. Et contrairement à la machine à café où les échanges sont oraux, il n’existe pas d’oubli dans la vie numérique, les écrits restent. Une vigilance s’impose donc. L’utilisation d’informations sur l’activité des salariés peut également constituer un risque de « flicage ».

A.P. : Déjà, les gens ne sont pas obligés de remplir leur profil intégralement. Ils choisissent les informations qu’ils vont partager, au travers de conversations, de mails au sein de l’entreprise. Alors qu’une fois que le mail est lancé, on ne peut plus modifier son contenu. Dans le cas du RSE, on s’adresse à une communauté donc la perte de données est limitée. La frontière est fermée.

Sur la question des risques liés aux RSE, il y a plus une part de fantasme que de réalité. Quand on voit Dassault System qui travaille sur des systèmes pointus de l’innovation du secteur de la défense, mettre en place un RSE, c’est bien parce que ce risque est secondaire. Le RSE est un espace clos, fermé. Un collaborateur peut utiliser d’autres moyens de communication pour échanger. La question pourra se poser le jour où l’on considérera que l’on peut utiliser des informations personnelles pour évaluer les performances d’un employé. Là, il y aura une discussion qui se fera avec les IRP (Institutions Représentatives du Personnel) ou la CNIL.

Y’a-t-il un réel engouement pour les RSE ? Sont-ils sur le point de devenir une réalité ?

A.P. : On considère que c’est seulement depuis l’année dernière et cette année qu’il y a un vrai décollage des RSE. Au début, il a fallu que certains se projettent et prennent des risques pour lancer ce mode de communication. Or, ces derniers temps, il y a de plus en plus de retours d’expérience positifs. Le sujet est un peu plus mature, les entreprises s’aperçoivent qu’il y a un vrai enjeu, un vrai lien. Et surtout, il y a une demande de plus en plus forte de la part de leurs collaborateurs parce qu’ils le voient dans d’autres entreprises. Ce que l’on trouve au sein des réseaux externes est en train de rentrer au sein de l’entreprise. À défaut de se transformer en organisations 2.0, les entreprises créént des RSE. En cela, les RSE deviennent une réalité car ils sont toujours plus nombreux.

Pour quelles raisons, selon vous, l’introduction des réseaux sociaux dans les grandes entreprises connaît une très forte accélération depuis 2010 ?

D.F. : Plusieurs facteurs l’expliquent. D’une part, l’apparition de nombreux outils en réseau avec des fonctionnalités répondant à des usages. D’autre part, la direction intègre progressivement le fait que les réseaux sociaux ne constituent pas une mode, mais un phénomène durable avec des sources d’opportunité pour fluidifier sa communication, interagir, développer ses produits et services. Enfin, c’est également lié à la génération Y (les « digital natives » nés entre le début des années 1980 et 1995, qui frappent aux portes de l’entreprise) qui exerce une pression forte afin de travailler de manière collaborative avec des outils ou des services proches dans l’interface homme-machine de ceux qu’ils utilisent à des fins personnels.

Puisque cette génération est appelée à devenir omniprésente dans les prochaines années, l’entreprise doit être consciente de ces phénomènes structurants, notamment pour fidéliser ses salariés qui ont en moyenne un attachement moins fort à l’entreprise que leurs aînés.

A.P. : Les outils, en effet, progressent rapidement et deviennent toujours plus performants. Il suffit de regarder les médias sociaux d’entreprise, les outils d’il y a deux ans comparés à ceux actuels. Mais fondamentalement, il n’y a pas de rupture complète. On s’aperçoit plutôt qu’il y a un vrai retour positif et donc les gens s’engagent dans la brèche.

Quelles sont les innovations futures concernant les RSE ?

A.P. : On parle de plus en plus de « digital workplace », un environnement virtuel qui va être accessible par l’ensemble des collaborateurs, où qu’ils se trouvent. L’espace de travail est en voie de se redéfinir, ce qui fait que la frontière entre la vie personnelle et la vie professionnelle est en train de se flouter.

De même, il y a un certain nombre d’informations que l’on doit aller chercher soi-même au sein du RSE. On va voir que les réseaux sociaux  vont devenir de plus en plus intelligents. En rapport à ce que j’ai pu publier, à ce que j’ai mis sur mon profil, je vais avoir des informations qui « vont être poussées vers moi ». C’est l’ère du Big data. L’information qui se trouve sur le net, tout un tas de données extrêmement importantes sont en train de nourrir les systèmes d’information, y compris ces réseaux sociaux d’information. Ce qui veut dire que les flux business, les différents flux du reste d’Internet, vont faire remonter des informations, triées, analysées pour m’aider à prendre des décisions, à construire des choses avec mes collègues, mes partenaires, mes clients. Les interactions seront démultipliées, en temps réel. Ce qui va me permettre de produire de l’intelligence collective.

D.F. : On sera plus dans une gestion du temps événementielle avec un mode off ou online. Être connecté au réseau social tout étant visible de ses contacts, ou être connecté sans être visible si je ne veux pas être dérangé. Le rapport aux données sera crucial dans les technologies émergentes. Les stockages de données dans le Cloud, que ce soit le Cloud public ou Cloud privé, vont se généraliser. L’aspect évolution législative ne sera pas à occulter, notamment par rapport aux données et à leur utilisation. La réalité augmentée sera intégrée dans les réseaux sociaux, nous aurons la généralisation des QR codes.

Propos recueillis par Sébastien Tribot

 

David Fayon est directeur de projets SI à La Poste, et co-auteur des ouvrages « Réseaux sociaux et entreprise : les bonnes pratiques », (2011, éd. Pearson) et « Facebook, Twitter et les autres…» (2010, éd. Pearson).

Anthony Poncier est directeur/consultant chez Lecko en management et entreprise 2.0 et l’auteur du livre « Les réseaux sociaux d’entreprise : 101 questions ».

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur :

La boîte à idées 2.0 est maintenant offerte gratuitement

L’entreprise considère alors avoir franchi une étape importante en permettant à ses employés de s’exprimer et de participer. Elle croit qu’en peu de temps, elle pourra faire de grandes économies en appliquant les suggestions de ses employés. Toutefois, la réalité est parfois un peu différente.

Un problème, une réfléxion, une idée !

En effet, l’entreprise, même si elle est remplie de bonnes intentions, oublie parfois qu’il ne faut pas se limiter à mettre en place un endroit où les gens peuvent s’exprimer, il faut aussi faire quelque chose de ces idées! Et le plus souvent, il y en a beaucoup à gérer suite à l’implantation. Effectivement, les employés peuvent enfin s’exprimer et toutes idées (ou même réquisitions) seront tentées par cette nouvelle voie de communication avec la direction. Les idées et commentaires déferlent donc à un rythme effréné!

Mais a-t-on pensé à la façon dont on procèderait pour analyser toutes ces idées et mettre en place les idées retenues ? Il faudra discerner les bonnes idées, des réquisitions insensées ou farfelues, et ceci n’est pas toujours une mince tâche. Il faut assurer un suivi et informer les gens de l’analyse, de la faisabilité ou non et de la décision qui a été prise concernant leurs idées.

Quoi de pire que de donner la parole à quelqu’un, mais ne pas être prêt à l’écouter. C’est comme dire à quelqu’un ton point de vue est important pour nous, mais on ne changera rien de toute façon ! Tu as beau avoir les meilleurs idées au monde, on n’a pas le temps de les écouter de toute façon ! C’est la pire chose à faire pour démotiver les gens et les rendre craintifs face à d’autres tentatives ultérieures. Combien de fois j’ai rencontré des entreprises très fières d’avoir entrepris des initiatives d’amélioration continue, mais dont la boîte de suggestion était couverte de poussière ? Plusieurs fois…

Augmenter l’estime des employés

La boîte à idées sera un levier pour augmenter la participation et l’estime des employés. De cette façon, il paraît plus réaliste d’espérer retirer le meilleur d’eux même et préparer une culture qui est propice à l’amélioration et au changement.

Par Pascal Veilleux

Source : NSI Solutions

Microsoft propose un système permettant d’accéder à ses données, sans recourir au Cloud

Cette solution logicielle se base sur le « Somniloquy », un périphérique matériel dévoilé en 2009 par des chercheurs de Microsoft et de l’Université de Californie à San Diego. Ce dernier vient se placer entre la machine hôte et son contrôleur réseau. Il se présente pour l’instant sous la forme d’une clef USB qui intègre un processeur ARM, un espace de stockage sur carte SD et une interface réseau Ethernet et Wifi.

En 2009, le « Somniloquy » était présenté comme un proxy matériel permettant d’économiser de l’énergie tout en étant capable de répondre à des requêtes depuis l’extérieur sans réveiller entièrement le système hôte. Cette nouvelle application développée par les chercheurs, ZZFS, peut se décrire comme une sorte de système de fichiers distribué entre plusieurs équipements. Le logiciel installé sur le « Somniloquy » synchronise le système de fichiers du système hôte sur son espace de stockage (la carte SD). Les utilisateurs peuvent ensuite naviguer de manière transparente dans l’arborescence des fichiers sans réveiller le système hôte. Lorsque l’utilisateur souhaite charger un fichier qui ne se trouve pas dans la zone de stockage du « Somniloquy » qui sert de mémoire tampon, le réveil du système hôte est alors déclenché.

Dans le cadre de cette étude, les auteurs ont réalisé un sondage auprès des utilisateurs pour mieux connaître leurs usages liés à la gestion de leurs données et à l’utilisation des services de synchronisation dans le nuage. Selon cette enquête, les utilisateurs estiment que le partage et l’accessibilité des données est plus importante que la sécurité de ces dernières. Autrement dit, de nombreux utilisateurs ont recours à des solutions de synchronisation dans le nuage qui consomment des ressources de stockage et de calcul, alors qu’ils souhaitent seulement pouvoir y avoir accès au moment où ils en ont besoin.

Fort de ce constat, les chercheurs estiment que leur solution pourrait permettre la mise en oeuvre d’une politique de gestion des données plus saine. Les utilisateurs pourraient ne synchroniser sur un serveur tiers que les données jugées critiques.

Les auteurs reconnaissent toutefois quelques limites. La plus gênante d’entre elle est la latence. En effet, le réveil du système hôte peut prendre de 1 à 25 secondes. Les chercheurs notent toutefois que le temps de réveil des systèmes a tendance à se réduire (moins de 3 secondes pour la dernière version de Mac, moins de 10 secondes pour Windows 7). Les chercheurs ajoutent que certaines applications peuvent intégrer des fonctionnalités permettant de pré-charger les données. Par exemple, dans le cadre de la lecture de musiques, l’effet gênant de la latence peut être atténué si le logiciel de lecture intègre une fonction de pré-chargement du morceau musical suivant.

Enfin, pour l’instant une telle solution reste réservée aux utilisateurs ayant un certain bagage technique puisqu’il faut tout de même être capable de configurer sa connexion Internet (routeur) pour que l’équipement que l’utilisateur souhaite synchroniser puisse être accessible depuis l’extérieur rendre accessible leurs équipements depuis l’Internet.

(Source : http://www.bulletins-electroniques.com/actualites/69454.htm)

Management des nouvelles technologies et e-Transformation

Le management des Technologies de l’information et de la communication (TIC) prend en compte, à travers la notion de « webisation », l’extension du e-business à tous les domaines de l’entreprise. Cette approche systémique nécessite d’analyser les liens croisés de l’entreprise avec ses clients, ses partenaires et ses fournisseurs.

La notion de « e-Transformation » considère que les technologies de l’information et de la communication sont un dispositif, technologique et humain, plutôt qu’un simple outil. Elle nécessite de déterminer l’organisation interne en relation avec ces technologies, à travers les processus, les procédures et le management pour apprécier l’efficience du système d’ensemble.

La qualité de la réponse apportée aux utilisateurs devient plus importante que la performance technique. De même, les impacts et les effets de ces technologies sur l’entreprise sont mesurés avec précision.

Lire la suite ici

Mashups – Architecture des applications Web tactiques d’entreprise

Les « mashups » sont une nouvelle forme d’applications représentative de l’appropriation par l’informatique d’entreprise des standards, protocoles et usages rendus populaires par le développement généralisé du Web. Elles se caractérisent par la prise en main de l’architecture technique du Web, navigateurs modernes et Cloud Computing, par des utilisateurs-développeurs pour réaliser des applications tactiques propres à leurs besoins.

Lire la suite ici

Veille sur Internet – Facebook, Google et curation

La complexité croissante du monde exige une capacité d’anticipation, d’écoute et d’action accrue pour accompagner les transitions, orienter les mutations et faire évoluer les comportements, les valeurs humaines et les relations vers une société humaniste. Les grandes transitions mondiales que nous vivons redessinent peu à peu un nouveau monde avec des changements de paradigmes, la fin de l’abondance, les ruptures structurelles, les nouvelles concurrences, les transitions démographiques, les mutations électroniques et l’entrée dans la société de la connaissance. Et peut-être passerons-nous d’un modèle de croissance quantitative à un modèle de croissance qualitative. La société de la connaissance dans laquelle nous nous trouvons transforme les rapports de l’Homme face à l’information, aux outils de communication et aux rapports entre humains. Cette société redéfinit les nouvelles caractéristiques du capital humain qui devient la valeur clé des organisations, qui représentent les yeux et les oreilles collectives de l’entreprise centrale et transforment les compétences et les périmètres des entreprises. Ainsi, les « acquis immatériels » des entreprises deviennent de plus en plus importants et la maîtrise collective et individuelle des outils numériques, des méthodes de recherche, d’échange et de partage d’information sont une des clés de voûte des entreprises du futur.

Dans cette boîte à outils numériques, la veille sur internet a pour objectif de mieux appréhender les tendances, les signaux faibles et les ruptures possibles pour les entreprises.

Les entreprises ont à faire évoluer les compétences des salariés afin de surveiller l’environnement économique, concurrentiel, technologique et à faire interagir ses salariés sur des réseaux sociaux externes et sur des réseaux sociaux d’entreprise.

L’internet, territoire numérique de surveillance, d’échange et de partage, nécessite une définition des périmètres de la veille et impose la maîtrise d’outils et de méthodes spécifiques à cet espace. L’espace internet est régi par des nouvelles lois physique, numérique et juridique, et les échanges d’information sont des vecteurs d’images et de E-réputation que les entreprises doivent aujourd’hui maîtriser. Dans cet espace, les « guerres de l’information » existent et imposent aux entreprises de mettre en place des stratégies d’attaque ou de défense en vue de leur pérennité. Il est donc stratégique de savoir comment les rumeurs se construisent pour savoir comment s’en protéger.

La surveillance de l’internet est donc aujourd’hui vitale pour les entreprises et si elles maîtrisent totalement leurs environnements informationnels, alors cette surveillance est un facteur de développement.

Avec l’évolution de l’internet, la multiplicité des protocoles, des technologies et des usages, l’enjeu pour les entreprises est de participer à la surveillance interactive du web social et donc de maîtriser les méthodes, les outils et les usages des blogs, des microblogs (Twitter), des moteurs de recherches, des agrégateurs de flux, du « social bookmarking », de la curation et des réseaux sociaux que nous proposons de voir dans ce dossier.

Lire la suite ici

 

Une nouvelle technologie pour le stockage de l’énergie houlomotrice

En 2010, Björn Gotthardsson a effectué sa thèse de master à l’Université d’Uppsala à partir de l’idée de Richard Nilsson, diplômé de l’Université de Norrköping, qui a conçu une nouvelle technologie d’énergie houlomotrice : le Wavebox Wave Energy Converter ou Wavetube. L’objectif était de déterminer la capacité réelle du système à produire de l’énergie. Ce travail a été supervisé par Richard Bensow de l’Université technologique Chalmers et Ingvar Rask de SSPA Sweden AB, une société proposant des conseils dans le domaine maritime. L’étude a été financée par l’énergéticien public suédois, Vattenfall, complétée par une aide financière de Richard Nilsson.

Le Wavetube consiste en une bouée formée d’un tube central contenant 5 turbines hydroélectriques, relié à 2 plateaux extérieurs par des « pontons » permettant la circulation de l’eau. L’énergie est transférée lorsque la vague percute la bouée et l’incline suffisamment pour que, dans un premier temps, l’eau circule de la partie centrale inférieure vers un des plateaux extérieurs. Dans un deuxième temps et sous réserve d’un angle de tangage suffisamment important, l’eau va circuler du plateau extérieur vers la partie centrale et à travers les turbines hydroélectriques. Des clapets sont installés afin d’éviter la circulation de l’eau en sens inverse.


 

Pour une puissance de 300 kW, le Wavetube doit mesurer 24 mètres de long, 23 mètres de large et pèse 150 tonnes à vide. Il est ensuite rempli de 400 mètres cube d’eau répartis dans les trois plateaux. Les résultats de l’étude montrent que le système proposé pourrait produire 0,9 kW d’électricité dans un environnement équivalent à celui présent au large des côtes de Hanstholm, au Danemark, et 1,6 kW dans un environnement équivalent à celui trouvé au large des côtes de San Diego, aux États-Unis. L’étude économique montre que la puissance électrique fournie doit être améliorée par un facteur 5 pour avoir une chance d’être économiquement viable.

Avec la création, en 2011, du cluster « Ocean Energy Center » à Göteborg, toute nouvelle initiative dans le domaine de l’énergie houlomotrice est la bienvenue. Richard Nilsson a obtenu un brevet pour son invention du Wavetube en février 2012. En 2013, la construction d’un modèle à l’échelle 1:20 pour un coût évalué entre 200 000 et 250 000 couronnes suédoises est prévue en partenariat avec l’Université technologique Chalmers et SSPA Sweden AB.

(Source : http://www.bulletins-electroniques.com/actualites/69461.htm)

À lire aussi :

Searaser rend l’énergie des vagues disponible à la demande

Une nouvelle vague d’énergies renouvelables

Des chercheurs ont mis au point un robot capable de détruire les mauvaises herbes

Mais lorsque plantes de culture et adventices sont mélangées? Des chercheurs de Gembloux Agro-Bio Tech ont mis au point une méthode de reconnaissance basée sur la hauteur des plantes.

Responsable du service Mécanique et construction au sein de Gembloux Agro-Bio Tech, le Professeur Marie-France Destain, situe d’emblée les recherches que son laboratoire mène aujourd’hui :  » Le service s’est toujours occupé de la mécanisation de l’agriculture. Mais depuis quelques années, nous avons mis l’accent sur les capteurs et les systèmes automatiques. La vision artificielle prend évidemment une place importante dans ce contexte. Mais c’est une vision artificielle un peu particulière puisque située dans un environnement extérieur, très différent d’un milieu industriel où il y a toujours le même éclairage par exemple. Ici, nous sommes en présence d’un éclairage fluctuant, d’un sol qui est très variable, etc. Les conditions environnementales changent constamment. Nous avons commencé par le contrôle de qualité de fruits et légumes et une spin off (Visar) qui propose des machines de tri en temps réel de carottes ou de pommes de terre a été créée. Nous avons aussi fait du contrôle de semences. Dans le cadre d’un nouveau master en sciences et technologies de l’environnement, notre expérience en vision a été réorientée vers des aspects environnementaux et nous sommes ainsi arrivés à la reconnaissance des adventices, c’est-à-dire les mauvaises herbes. C’est un challenge important puisqu’à l’heure actuelle, on utilise beaucoup d’herbicides avec les conséquences que l’on sait. Or, en agriculture biologique, les règlementations sont très strictes et, aujourd’hui, il faut presque toujours travailler de manière manuelle! Une société nous a donc contactés pour étudier l’idée d’un robot qui pourrait reconnaître et détruire les mauvaises herbes automatiquement. « 

Qu’il faille détruire les  » mauvaises herbes  » ou adventices, tout jardiner le sait: elles prennent la lumière, l’eau, les nutriments et l’espace au détriment des plantes qu’on veut cultiver. Sans parler des semences qu’elles ne manqueront pas de semer à tout vent. Chacun sait aussi qu’il existe plusieurs méthodes pour s’en débarrasser : chimiques, non chimiques, intégrées ou, le plus souvent, une combinaison de ces moyens. L’idée d’essayer de faire détruire ces adventices pas des robots n’est pas neuve. Il en existe déjà sur le marché mais ils ne sont utilisables que quand on connaît a priori l’écartement entre les lignes et entre les plantes (et que celui-ci est conservé bien sûr !).

La hauteur des plantes

Mais le défi relevé par les chercheurs gembloutois est d’une toute autre nature: comment faire lorsque plantes de culture et mauvaises herbes sont mélangées? Dans ce cas, évidemment, l’étape la plus importante est celle de la reconnaissance: comment le robot va-t-il être capable de distinguer les plantes qu’il doit détruire de celles auxquelles il ne doit pas toucher ?

La première idée a été la plus naturelle car la plus  » humaine « : différencier les plantes par leur couleur. Mais cela s’est vite avéré être un échec car c’est une caractéristique qui n’est pas assez discriminante, en tous cas pas avec la technologie actuelle, l’illumination non uniforme, tant en intensité qu’en longueur d’onde de la lumière, venant troubler la reconnaissance. Une deuxième possibilité, tout aussi naturelle, est de différencier les plantes par leur morphologie, leurs formes. Mais ici aussi, on se heurte à deux difficultés: la variabilité du feuillage même au sein d’une même espèce et le fait que les feuilles sont souvent superposées, ce qui ne permet pas aux systèmes de vision de distinguer correctement les feuilles.  » Nous nous sommes alors basés sur une idée simple, explique le Professeur Destain. En principe, les bonnes plantes, puisqu’elles sont semées le même jour, poussent à la même vitesse. Les adventices, elles, ont des vitesses de croissance différentes. Donc, à un jour donné, elles auront des tailles différentes!  » Idée simple en effet, mais compliquée à réaliser. Car faire mesurer des hauteurs de plantes en temps réel et en continu par un système pose tout de même quelques problèmes.

Pour y arriver, l’équipe de Marie-France Destain a eu recours à la vision stéréoscopique. Le système le plus connu et le plus simple est la stéréoscopie passive. Dans ce cas, on utilise deux caméras qui doivent viser le même point; le système calcule la hauteur à partir de ces deux points. Mais vu la grande variabilité des cas, cela s’est avéré insuffisant.  » Nous avons donc, explique Marie-France Destain, utilisé une méthode de stéréoscopie active: un projecteur vidéo projette sur la plante une série de franges lumineuses noires et blanches codées, un peu comme un code-barre. La scène perçue par les caméras laisse apparaître des distorsions de lignes, information de relief. Bien sûr, nous ne nous contentons pas d’un seul cliché, il faut en prendre un grand nombre; chaque image est donc formée de plusieurs images intermédiaires. Le principe de décodage repose sur la corrélation entre signaux émis et signaux reçus. « 

Si cette méthode permet des mesures de grande précision, elle présentait cependant un inconvénient: ce qu’elle mesure est la distance plante-caméra et non la hauteur de la plante. Or si le relief est inégal (ce qui est toujours le cas dans les champs!), ce n’est pas parce que la distance plante-caméra est la même pour deux plantes (conditions pour ne pas les détruire) que ces deux plantes ont la même hauteur depuis le sol!  » Il a donc fallu, poursuit Marie-France Destain, corriger les distances caméra-objet en modélisant le relief du sol. Nous reconstituons le sol qui est sous les plantes par une interpolation à partir de pixels de sol visibles sur les images.  » Le système, qui a fait l’objet d’un dépôt de brevet, a été intégré dans un prototype de laboratoire qui a donné toute satisfaction, la reconnaissance étant correcte dans plus de 80% des cas. Le taux n’est évidemment pas de 100%, mais s’il est implémenté sur un robot, celui-ci peut circuler tout le temps dans le champ, à l’instar des robots tondeurs de pelouses.

Intervenir lors d’une période précise

Il reste cependant un point à régler: comment le robot va-t-il savoir qu’il doit intervenir ? Faut-il introduire des données sur les hauteurs de plantes par exemple?  » Non, répond Marie-France Destain. Au départ, on se disait qu’il fallait introduire la date de semis, à partir de laquelle le système allait déterminer la hauteur la plus probable des plantes en fonction de cette date. Mais il y a les aléas climatologiques, etc. Nous avons donc choisi de travailler en tenant compte d’aspects statistiques liés à la croissance des plantes. « 

Sur les courbes présentées ici, on voit qu’à une certaine période, les carottes sont vraiment beaucoup plus grandes que le reste. On isole ainsi une période pendant laquelle le travail du robot sera optimal. Autrement dit aussi, on sait que le système ne fonctionnera pas, par exemple, si on intervient trop tard: comme le montrent les courbes de distribution de probabilité, la différence de hauteur entre plantes et mauvaises herbes ne sera plus discriminante. C’est aussi l’intérêt d’avoir un robot qui passe sans arrêt pour intervenir le plus tôt possible. Le système mis au point à Gembloux l’a été pour la détection des plantes dans la bande semée; en-dehors, on peut intervenir par des solutions existantes, également mécaniques puisque des robots sont déjà commercialisés pour ce type d’intervention. La suite des recherches porte actuellement sur le système de destruction sélective. L’idée est de trouver le système optimal pour détruire les mauvaises herbes en sachant qu’elles sont petites: il pourrait donc s’agir soit d’une destruction thermique (brûler par la chaleur), soit électrique (une faible décharge suffit) ou éventuellement mécanique (arrachage).

Publié par P.T

Source : Bulletins électroniques

Innovation et nanotechnologies : l’OMNT fait le point

Ce document constitue pour les professionnels du secteur une mine d’informations, puisqu’au-delà du travail de veille réalisé, les experts proposent leur évaluation sur les perspectives de développement pressenties, ou encore sur l’évolution comparée des domaines étudiés.

Stéphane Fontanell, le directeur de l’OMNT, résume les objectifs de cette synthèse annuelle : « Notre objectif est de faire de la veille scientifique dans le domaine des micro et nanotechnologies, bien sûr, en proposant également une synthèse sur les avancées majeures de l’année écoulée et une vision du futur, sur le long terme ».

« Eclairer le paysage sur les sujets qui commencent à monter »

C’est grâce à la réunion d’un collège de plus de 350 experts (issus entre autres du CEA, du CNRS, de l’université…), plusieurs fois par an, que l’équipe de l’OMNT élabore cette synthèse. Découpée en quatre thèmes (sciences de la vie, procédés et dispositifs amont, technologies de l’information et de la communication et énergie) et 15 thématiques :

  • Micro et nano systèmes pour la biologie
  • Micro et nano médecine
  • Nanoparticules, nanomatériaux : effets sur la santé et l’environnement
  • Electronique moléculaire
  • Nanoconstruction
  • Nanotechnologies bio-insipirées
  • NEMS
  • Electronique organique
  • Spintronique et nanomagnétisme
  • Nanoélectronique
  • Matériaux et composants pour l’optique
  • Photovoltaïque
  • Batterie et supercacité
  • Thermoélectricité
  • Piles à combustible

« L’idée de ce rapport est de faire sélectionner et commenter par les experts les principales ruptures et tendances scientifiques de l’année écoulée. Ruptures et tendances qui sont illustrées avec les publications clés et les équipes en pointe sur le sujet , ajoute Stéphane Fontanell, le but est de réaliser un véritable document de référence pour le lecteur. Le coté confrontation expert permet de plus d’avoir la vision de l’ensemble de la communauté. »

Depuis le premier rapport publié en 2004, la synthèse annuelle de l’OMNT est devenue un document de référence  indispensable pour les professionnels du secteur, d’autant qu’il n’y a pas vraiment de concurrence pour le moment.

Au-delà de cette synthèse annuelle, l’OMNT a également tenu, le 8 février dernier,  son séminaire annuel. L’occasion, pour l’observatoire, de revenir sur les évolutions marquantes du secteur des micro et nanotechnologies. Cette année, neuf sujets, choisis par les experts de l’OMNT,  ont permis aux participants de se pencher sur les faits marquants de l’année en termes d’innovation et de recherche :

  • Leçon de la photosynthèse pour les nanotechnologies
  • Les premiers pas de l’électronique de spin moléculaire : principes et  résultats récents
  • Parois de domaines dans les nanostructures magnétiques : nouvelles avancées en électronique de spin
  • La recherche de nouveaux matériaux pour la nanoélectronique : « more carbon or beyond graphene ? »
  • Photonique et Optoélectronique THz : Développement récents et applications
  • Microscopie électronique résolue en temps : étude des phénomènes dynamiques à l’échelle nanométrique
  • Pour un développement maitrisé des nanomatériaux : l’approche « Safe by design »
  • Du développement à l’évaluation clinique des nanomédicaments : réalités et contraintes
  • Solaire photovoltaïque : quelles filières pour demain ?

La rédaction de la « veille Actualité » reviendra sur certains de ces sujets dans le détail prochainement, avec la participation des intervenants de l’OMNT.

 

Par Pierre Thouverez

« Créer de la valeur en respectant les exigences du développement durable »

Présentation d’une mission :

Pour le compte d’un client dans le secteur de l’agroalimentaire, sur le segment goûters et desserts, déploiement et éco-conception d’un programme de transformation sous l’angle développement durable composé de 17 initiatives et visant à améliorer significativement l’impact environnemental de l’entreprise tout en dégageant des économies significatives.

Par exemple, des initiatives d’écoconception de produits, de réduction de consommation d’eau et d’énergie des usines ou la mise en place d’une filière d’approvisionnement bas carbone.

Publié par P.T

En savoir plus sur la société Auriverde

Créé en 2008, Auriverde est un Cabinet de Conseil en Stratégie Opérationnelle.

La stratégie : Le Développement Durable.
Devenu un catalyseur de performance pour l’entreprise : facteur d’innovation, source d’économies, moteur de croissance et d’avantage concurrentiel.

Le rôle : Dépasser la simple production de rapports, d’audits techniques ou de calculs scientifiques pour obtenir des résultats tangibles et chiffrés. Définir et déployer des initiatives stratégiques sur le terrain pour concrétiser la performance.
 

En savoir plus siur la société Auriverde

Web 2.0 : Bad buzz, vous avez dit bad buzz ?

Durant la 2e édition du Hub Forum qui s’est tenu les 6 et 7 octobre à Paris, une table ronde a rassemblé plusieurs experts du digital pour décortiquer le phénomène, exemples à l’appui. Le Blog du Communicant 2.0 vous propose une synthèse de ce riche débat. Le « bad buzz » est-il autant à craindre, qui est-il, pourquoi surgit-il et peut-il être évité ? Autant de questions que les panelistes ont évoquées très directement sous la houlette de Thierry Wellhoff, président du Syntec RP.

Un petit clic et tout s’écroule

Pour Warren Buffet, richissime homme d’affaires américain, le constat est sans détours à l’heure des médias sociaux : « Il faut vingt ans pour construire une réputation, il faut cinq minutes pour la détruire ». C’est un fait. Le « bad buzz » peut enflammer la blogosphère (et par ricochets les médias traditionnels) et générer des dommages collatéraux pouvant aller très loin si la posture idoine n’est pas adoptée ou si le temps de latence pour réagir est beaucoup trop lent.

Pour les panélistes de la table ronde du Hub Forum intitulée « #Fail : Bad Buzz & valeurs de l’organisation », l’unanimité est totale. Les risques réputationnels sont montés d’un cran depuis que le Web 2.0 permet à quiconque de s’emparer de la parole et de la diffuser à vitesse éclair pour s’attaquer à une marque, une entreprise ou une personnalité publique. Tous ont cité d’intéressants cas d’étude pour souligner la multiplicité des formes et des impacts qu’un « bad buzz » peut revêtir. En les écoutant, on peut distinguer 6 catégories majeures de « bad buzz ».

Catégorie n°1 : le « bad buzz » réputationnel

Pour quiconque à pignon sur rue, c’est probablement le type de « bad buzz » qui peut durablement affecter l’image d’une entreprise ou d’une marque, rompre la confiance ou l’empathie des parties prenantes, voire dans les pires cas, impacter lourdement les ventes. Ceci est d’autant plus vrai que l’empreinte numérique est la plus puissante des mémoires. Comme cas d’école emblématique, les experts ont spontanément cité les mésaventures de Nestlé et sa marque KitKat qui ont été attaqués en 2010 par l’ONG Greenpeace. Au lieu d’engager la conversation avec ses opposants, la firme helvétique a réagi de façon psycho-rigide soufflant ainsi à ses dépens sur les braises d’un « bad buzz » qui n’en demandait pas temps pour s’embraser (lire à ce propos le billet publié par le Blog du Communicant 2.0, « Nestlé/Greenpeace : pas de pause KitKat sur le Web »).

Dans le même registre, les participants de la table ronde ont évoqué le cas Monoprix. L’enseigne de distribution avait en juillet dernier mis à pied un salarié suspecté d’avoir pris des légumes dans les poubelles du magasin. Une sanction qui a déclenché un torrent de fureur chez les internautes. Les médias s’en étaient d’abord fait l’écho mais la polémique a fortement rebondi sur la toile au point d’amener Monoprix à s’investir dans le débat et de réussir à estomper ce qui aurait pu être un piège létal. Pour une analyse plus complète de ce cas, je vous conseille de visionner le bon billet vidéo de Guy Birenbaum dans sa chronique quotidienne « Deux minutes Net » sur Europe 1.

Catégorie n°2 : le « bad buzz » controverse

Dans cette catégorie, la Toile regorge de polémiques qui éclatent à intervalles réguliers parce que des contenus tendancieux, osés ou tout simplement provocateurs viennent heurter des opinions  fortement ancrées, adverses et peu décidées à passer l’éponge sur ce qu’elles considèrent comme une offense ou un contenu de « très mauvais goût ». Les experts de la table ronde ont cité deux cas récents ayant défrayé la chronique pour la virulence qu’ils ont engendrée sur le Web.

Pour le premier, il s’agit de la nouvelle campagne publicitaire d’Eram. Comme thématique de communication, la célèbre marque de chaussures à petits prix a choisi d’appuyer son plan promo autour de la notion de la famille mais en adoptant un ton volontiers trublion à l’instar de ses pubs un brin déjantées qui ont fait son succès d’antan. Dans les visuels de cette année, étaient en effet présentées des familles qui sortent du sacro-saint tryptique traditionnel « papa-maman-enfant » au profit de familles nettement moins conventionnelles. Le résultat ne s’est pas fait attendre et a déclenché un tollé sur la page Facebook de la marque, notamment de la part d’associations catholiques outrées que l’on puisse ainsi jouer avec des valeurs fondamentales.

Dans une veine assez semblable, la marque épilatoire Veet pensait probablement avoir décroché la martingale publicitaire en lançant sa nouvelle campagne baptisée « Mon minou tout doux » et en misant sur une tonalité sexy et décalée. Question bruit médiatique, le résultat a été effectivement au rendez-vous mais pas forcément en termes de qualité des retombées. Devant les remarques outrées des consommateurs sur Facebook, Twitter et le site Web de Veet, l’entreprise a préféré mettre rapidement un terme à la controverse en remisant définitivement au placard la contestée campagne.

Catégorie n°3 : le « bad buzz » résistance au changement

Pour les experts, cette catégorie est plus impalpable et aléatoire. Elle surgit sans prévenir alors que rien ne laisse vraiment présager de l’émergence d’un « bad buzz ». C’est précisément ce qui est arrivé en mars 2011 avec le mythique bubble-gum Malabar. Cadbury, l’entreprise détentrice de la marque décide en effet de changer le logo de son produit. Exit le blondinet aux gros biscottos et place à un petit chat taquin qui serait plus proche du cœur de cible de la marque (les enfants de 8 ans) que le bodybuildé peroxydé de ces 40 dernières années.

A priori, pas de quoi fouetter un chat sauf que c’est un torrent de commentaires virulents et de critiques négatives qui se déverse sur la Toile et les canaux numériques de la marque avec des slogans du style « Vous avez tué ma jeunesse » !  Un déferlement qui n’est pas sans rappeler la fureur digitale que l’enseigne d’habillement américaine Gap avait générée en son temps en voulant modifier de fond en combler son logo.

Toutefois, François Vogel, directeur général de TBWA Smarts, (et qui a géré le cas Malabar) a tenu à relativiser l’attitude à tenir dans ce genre de situation. La réaction de la blogosphère a certes a été violente mais elle a été sans conséquences particulières sur les ventes de la marque. Dans ce type de « bad buzz », il convient à ses yeux de savoir distinguer les simples fans, les consommateurs avérés et les influenceurs notoires avant d’envisager une réplique ou pas. En écho, Lucille Merra, consultante et chercheur en médias sociaux, souligne que le cas Malabar est une manifestation symptomatique de la résistance au changement émanant probablement d’ « aduslescents » nostalgiques de leur costaud blond.

Catégorie n°4 : le « bad buzz » comme arme militante

Sans doute moins fréquent que les premières catégories évoquées ci-dessus, ce « bad buzz » n’en est pas moins redoutable. Il est fréquemment l’apanage d’associations et d’ONG militant pour une cause et n’hésitant pas à recourir à la mécanique extrêmement virale de la Toile pour attaquer ou mettre sous pression une cible désignée. A ce jeu particulièrement machiavélique, l’organisation écologiste Greenpeace est devenue orfèvre en la matière. Depuis sa passe d’armes particulièrement réussie avec Nestlé et KitKat, Greenpeace multiplie les coups d’éclats en offrant à chaque internaute qui veut, toute une panoplie prête à employer (envoi d’e-mails préprogrammés, pages de pétition, fil Twitter dédiée, logos détournées, etc).

Cet été, la marque automobile allemande Volkswagen en a fait l’amère expérience. Alors que la firme de Wolfsbourg menait en coulisses un intension contre le durcisssement de certaines normes environnementales européennes, elle s’est retrouvée assaillie par l’ONG à travers une campagne Web bien huilée et dont on peut lire le descriptif détaillé dans le billet de la blogueuse MadMoizelle.

Depuis, la mobilisation n’est pas retombée. Durant le salon de l’Automobile de Francfort, Volkswagen a dû une nouvelle fois subir les assauts des militants de Greenpeace dans ses concessions automobiles. Feuilleton « bad buzz » à suivre !

Catégorie n°5 : le « bad buzz » fausse rumeur

C’est peut-être le « bad buzz » le plus vicieux à gérer car il éclate subrepticement et peut prendre d’astronomiques proportions s’il n’est pas enrayé à bon escient. Récemment, l’on a ainsi vu des milliers de lycéens et collégiens manifester spontanément par la simple rediffusion d’un message Twitter alarmiste leur disant qu’un projet de réduction d’un mois des vacances scolaires estivales était sur le point d’aboutir. L’info était un tuyau percé mais elle n’en a pas moins précipité les jeunes manifestants dans la rue.

Les experts de la table ronde se sont attardés sur un autre cas qui aurait également pu tourner au désastre s’il n’avait pas été jugulé prestement. Le 11 mai 2011, un incident voyageur se produit sur la ligne 11 de la RATP à la station Porte des Lilas. La RATP informe très vite les voyageurs mais une personne croit malin de tweeter aussitôt sur une collision grave entre deux rames. En l’espace de quelques minutes, la blogosphère s’échauffe en conjonctures et les médias ne tardent guère à se préoccuper de l’affaire. Grâce au monitoring en temps réel, la RATP parviendra à stopper la rumeur en diffusant à son tour des rectificatifs et en identifiant aussitôt celui qui n’était que « l’homme qui a vu l’homme qui a vu l’homme qui a vu » ! Pour en savoir plus, lire l’excellent article de Rue89.

Catégorie n°6 : le « bad buzz » salariés

Aux cas développés par les experts du panel, je voudrais ajouter une sixième catégorie sans doute plus sporadique mais qui là aussi, peut-être vecteur de dégâts réputationnels sans commune mesure. Qu’on le veuille ou non et pour diverses raisons, des salariés mécontents peuvent devenir de redoutables machines à « bad buzz » si elles décident de véhiculer des informations négatives ou très sensibles et peu flatteuses sur leur entreprise. Pour bien cerner les enjeux, on peut se référer à ce propos au billet publié sur le blog du cabinet Altaïde.

Le phénomène n’est pas nouveau mais pour les employeurs qui ne sauront pas déployer une communication interne consistante et ouverte, il est fort à parier que les cas de « bad buzz » issus d’employés se multiplieront à l’avenir. En 2006, Nestlé Suisse avait dû affronter un salarié blogueur anonyme qui avait créé un blog baptisé « Nestlé Suisse Real News » pour dénoncer le management totalitaire et irrespectueux de la nouvelle directrice générale. L’affaire avait fait grand bruit car elle mettait au grand jour des comportements inadmissibles et à mille lieues des valeurs managériales prônées par le géant suisse. Après plusieurs mois de billets accusateurs, la directrice générale a fini par être démissionnée et renvoyée à ses chères études.

Conclusion – Le « bad buzz » n’est pas une fatalité

Tous les intervenants se sont accordés sur la nécessité impérative d’intégrer les médias sociaux dans leur stratégie de communication en insistant notamment sur deux points particuliers :

  1. la veille numérique pour écouter, repérer et anticiper les signaux faibles pouvant amener une crise ;
  2. un dispositif pour répondre en temps réel. Or, il n’est nul besoin d’être un grand clerc pour constater qu’une majorité de grandes entreprises demeure encore réticente à l’idée de devenir une « entreprise conversationnelle » et préfère fréquemment rester rivée aux bons vieux canons incantatoires « top-down ».

Il y a encore du chemin en effet avant que les entreprises, communicants, dirigeants et marketeurs en tête, ne s’affranchissent de ces réflexes pourtant obsolètes. Au-delà d’une culture orientée vers les médias sociaux encore globalement faible ou alors restreinte à une vision très descendante, bon nombre d’acteurs notoires ont du mal à se faire à l’idée que les internautes participent désormais pleinement à l’alimentation de leur réputation. En bien ou en mal, ils sont devenus avec le Web 2.0 des vecteurs de réputation tout aussi clés que les beaux messages et les sublimes campagnes ciselés par leurs agences. Le « bad buzz » n’est pas une fatalité et peut même être évité. Encore faut-il avoir la volonté d’écouter et de nourrir la conversation en faisant valoir son point de vue tout en tolérant que d’autres puissent avoir une vue différente ou divergente.

Pour en savoir plus sur les intervenants de la table ronde

– Thierry Wellhoff, président du Syntec RP et l’agence Wellcom (Twitter : @ThierryWellhoff) – Voir son interview vidéo sur le « Bad Buzz »
– Bruno Clément, directeur général adjoint Planning stratégique créatif & digital de l’agence Public Système/Hopscotch (Twitter : @brunoclement)
– Lucille Merra, consultante Médias Sociaux Eurêka et chercheur en sociologie (Twitter : @lucileeureka)
– William Ory, responsable E-réputation de l’agence Wellcom (Twitter : @mr_william)
– François Vogel, directeur général TBWA Smarts (Twitter : @francoisvogel)

– A lire et à télécharger également, le guide « e-reputation et identité numérique des organisations » édité par le Groupement français de l’industrie de l’information »

 

Par Olivier Cimelière / Le blog du Communicant 2.0 / Le Plus, Le Nouvel Observateur

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous !  »

 

 

 

 

 

 

 

 

 

Festival du Film de Chercheur 2012

La devise du festival : « faire comprendre, connaître et aimer la démarche des chercheurs ».

Cette manifestation annuelle permet de rendre visible la recherche en cours à travers des films et de soutenir la production des chercheurs à travers les prix attribués.

Chaque film étant projeté en présence du chercheur, c’est un lieu d’échanges riches et denses entre les chercheurs, les réalisateurs, les producteurs et le grand public.Pour l’édition 2012, du mercredi 6 au dimanche 10 juin, la manifestation s’installe au cœur de la ville, sous 300 m² de chapiteaux, au Parc de la Pépinière de Nancy. 12 films seront en compétition, sélectionnés parmi 123 films inscrits. Le palmarès sera composé comme suit :- le prix « Film de chercheur », dotation de 5000 euros- le prix « Coup de pouce du festival», dotation de 3000 euros.

Le jury est composé de membres de l’organisation, de professionnels de l’audiovisuel et de scientifiques. Les 12 films retenus seront projetés pendant trois journées complètes sous les chapiteaux en présence des auteurs et réalisateurs.

Enfin, une soirée d’ouverture avec un film en avant-première, des soirées projection-débat, des spectacles scientifiques grand-public, une journée de rencontres professionnelles et un concours des chercheurs en herbe viendront accompagner la compétition.

Par Céline.C