On entend beaucoup parler de Cloud computing, mais à vrai dire, on ne sait pas trop de quoi il s’agit. Alors aujourd’hui, on s’y intéresse pour bien comprendre ce que cela représente ! Simplement, le Cloud Computing permet d’héberger des ressources, des logiciels et des données sur des serveurs distants, accessibles par Internet, plutôt que de les sauvegarder sur son poste de travail ou son ordinateur personnel.
Quel est l’intérêt? Tout d’abord, l’entreprise n’a plus à posséder tous ces coûteux outils : on est en plein cœur du développement de l’économie de services. Mais l’avantage principal est que l’utilisateur peut accéder à l’ensemble de ces outils via un navigateur Web à partir de n’importe quel endroit dans le monde et à partir de n’importe quel ordinateur, tablette ou smartphone.
Fini le temps où vous aviez oublié votre fichier Excel au bureau et que vous ne pouviez pas travailler dessus durant le week-end ! Votre chef pourra même y accéder en voyage d’affaires, en vacances et apporter ses modifications !
3 grands types de services
Le National Institute of Standards and Technology distingue 3 grandes catégories de services liées au Cloud Computing : l’« Infrastructure as a Service » (IaaS), la « Platform as a Service » (PaaS) et le « Software as a Service »(SaaS). Grâce à ces trois services, tout un chacun peut créer une entreprise sur Internet !
L’IaaS permet à un client de louer des machines virtuelles et des infrastructures de traitement de données. Elle n’a donc pas besoin de locaux pour les stocker, pas besoin d’acheter de coûteux équipements et pas besoin de se soucier de la maintenance.
De son côté, le PaaS offre au client la possibilité d’ajouter ses applications et ses outils sur les infrastructures et le système d’exploitation gérés par le fournisseur. C’est le cas, par exemple, de WordPress qui vous fournit un système d’exploitation, mais qui vous permet de gérer vous-même les applications que vous souhaitez ajouter.
Le PaaS offre aussi aux créateurs d’applications et de services web un environnement de développement en ligne sans avoir à acheter des licences de logiciels ou des bases de données.
Enfin, le SaaS permet à un utilisateur de profiter d’une application ou d’un logiciel informatique en ligne sans l’installer sur son propre ordinateur. Il peut s’agir de logiciels de traitement de texte, d’applications d’échange de photos ou de vidéos, de réseaux sociaux, etc. On pourra citer, par exemple, Google Apps, Gmail, Office Web Apps et Dropbox.
Il y a tout de même un hic à ce système. Dès lors que vous avez accès à Internet, vous avez accès à l’ensemble de vos données. En revanche, lorsque que vous vous trouvez dans un endroit sans connexion, vous n’avez accès à aucune de vos données !
De plus, l’identification par mot-de-passe est sécurisé à condition que votre mot-de-passe soit sécurisé et unique ! Enfin, le Cloud n’est pas toujours très transparent : vous ne savez pas où sont stockées vos données et qui les possède.
Vérifiez donc l’identité et la respectabilité de l’entreprise avant de vous engager !
Vous partagez vos photos sur dropbox, picasa ou facebook ? Vous postez vos vidéos sur youtube ou dailymotion ? Bingo, vous faites vivre le Cloud Computing ! Avec une importante croissance ces dernières années, beaucoup d’entreprises misent aujourd’hui sur lui pour assurer leur développement.
Le Cloud est partout, même là où on ne l’y attend pas forcément. Ainsi, demain, les joueurs de jeux-vidéos pourraient ne plus avoir besoin de changer leur console de jeux ou leur carte graphique tous les 6 mois.
Grâce à un service de Cloud Computing performant, un simple notebook devrait leur suffire pour jouer, le serveur s’occupant des traitements. Les jeux à la demande reposent déjà sur ce principe !
Le marché des services de Cloud Computing public devrait atteindre les 131 milliards de dollars dans le monde en 2013, contre 111 milliards de dollars en 2012, selon le cabinet de tendances Gartner. Une hausse de 18,5 % en perspective !
La publicité est le segment le plus important, totalisant 48 % du marché en 2012. Au niveau mondial, Gartner prévoit une dépense de 677 milliards de dollars pour les services de Cloud Computing entre 2013 et 2016. Sur ce montant, 310 milliards de dollars devraient être consacrés à la publicité.
Tous les services sont en croissance
Bien qu’il existe de grandes différences entre les services de Cloud Computing, une forte demande est prévue pour l’ensemble de ces services. Avec 28 % du marché en 2012, le « Business Process as a Service » (BPaaS) qui comprend l’ensemble des processus métiers est le deuxième segment du Cloud Computing public, après la publicité. On trouve ensuite le « Software as a Service » (SaaS), l’« Infrastructure as a Service » (IaaS) et le « Platform as a Service » (PaaS) à respectivement 14,7 %, 5,5 % et 2,8 % de parts de marché.
L’infrastructure as a service (IaaS) est le segment le plus dynamique. En croissance de 42 % sur l’année 2012 par rapport à 2011, il a atteint 6,1 milliards de dollars. Gartner lui prévoit encore une croissance de 47 % pour atteindre les 9 milliards de dollars en 2013. Sa croissance est telle que le SaaS devrait bientôt avoir un chiffre d’affaires équivalent au SaaS. De son côté, le PaaS représentera toujours une part très inférieure du marché sur le court terme.
L’Amérique du Nord toujours en tête
L’Amérique du Nord devrait représenter à elle seule 59 % des dépenses liées au Cloud Computing entre 2013 et 2016. De son côté, l’Europe de l’Ouest devrait en représenter 24 % sur la même période. Si les marchés des pays émergents sont encore petits, leurs taux de croissance sont les plus importants. La croissance est particulièrement dynamique en Chine, en Indonésie, en Inde, en Argentine, au Mexique et au Brésil.
En France, les solutions de Cloud Computing et les prestations de services associées ont représenté 2,8 milliards d’euros de revenus en 2012 selon Markess International. Le marché a ainsi progressé de près de 28 % par rapport à l’année précédente. Plus de la moitié des revenus sont provenus du SaaS. La tendance devrait se vérifier en 2013 avec une croissance d’environ 21 % attendue par le cabinet. Il ne vous reste plus qu’à investir !
La faible flexibilité des licences de logiciels entraîne un important manque à gagner pour les éditeurs de logiciels. C’est du moins ce que pensent 53 % des éditeurs interrogés dans le cadre de l’enquête « L’état de la monétisation des logiciels : revenus et propriété intellectuelle en dangers », menée par SafeNet, société axée sur la protection des données et l’association des professionnels de l’informatique et des logiciels (SIIA).
Ce fait se vérifie sur le terrain, puisque 35 % des utilisateurs professionnels désignent les licences non flexibles comme le principal obstacle lié à l’utilisation des logiciels. Ces licences ne répondent pas en effet pas toujours aux besoins des entreprises. 14 % des utilisateurs professionnels placent les services basés sur le Cloud en tête du classement des modèles de licences préférés, 16 % privilégiant spécifiquement la facturation « à l’usage ».
Les éditeurs peuvent donc mieux faire et ils en ont conscience. 84 % des éditeurs sondés estiment qu’une meilleure stratégie de monétisation pourrait améliorer leurs revenus de 50 %. Cela pourrait se faire notamment grâce à des licences de logiciels flexibles. Dans cette perspective, la présence sur le Cloud apparaît comme une priorité pour beaucoup d’éditeurs. 65 % des éditeurs de logiciels interrogés disent déjà proposer des services sur le Cloud. Pour ces éditeurs, les services du Cloud représentent 24 % de leur portefeuille produits. Ce pourcentage d’offres « Cloud » devrait rester stable à 25 % cette année et augmenter au cours des 5 prochaines années. Toutefois, 25 % des éditeurs devraient rester en dehors du Cloud.
Si 35 % des éditeurs de logiciels interrogés ne proposent pas encore de services basés sur le Cloud, les trois quarts prévoient y commercialiser au moins une partie de leur offre « en tant que service » cette année. Mais il faut du temps pour adapter son offre ! En moyenne, les personnes interrogées déclarent que 16 mois sont nécessaires pour adapter tout ou une partie de leur portefeuille de produits pour le Cloud. En revanche, migrer l’intégralité de son offre n’est pas possible pour tout le monde : 26 % des éditeurs interrogés estiment qu’ils ne pourront jamais faire cette migration. Le coût et la complexité demeurent les principaux obstacles à cette avancée.
Pourquoi adopter le Cloud ?
Les éditeurs de logiciels disent intégrer le Cloud pour réduire les coûts opérationnels, améliorer l’expérience des clients, accéder à de nouveaux marchés, notamment à des marchés de niche, mieux suivre l’utilisation des logiciels et réduire les délais de commercialisation.
61 % des éditeurs de logiciels ayant déjà fait le choix du Cloud un impact financier positif résultant soit d’une diminution des coûts d’exploitation soit de l’augmentation des revenus. À l’opposé, 6 % des éditeurs interrogés signalent des répercussions financières négatives ou l’apparition de menaces pour la sécurité découlant de l’introduction de logiciels sur le Cloud.
Avec le cloud computing, de nombreux avantages s’offrent aux entreprises et aux salariés. Mais ceux que l’on retient généralement sont l’accès à l’information et l’aspect collaboratif. Pour les entreprises, qui se doivent d’être réactives, l’accès à l’information est une priorité. Désormais un employé peut à n’importe quel moment accéder aux données qu’il souhaite, 24 heures sur 24. Il lui suffit juste d’une connexion internet pour se rendre aux ressources logicielles de son employeur.
Dans le cas où celui-ci compte s’avancer dans son travail, il pourra ainsi se connecter de chez lui ou bien n’importe où ailleurs. En cela, le cloud est une petite révolution car il modifie nos pratiques de travail. Cette évolution va de pair avec l’essor des tablettes et autres smartphones. Par ses deux outils, le cloud prend toute sa mesure. Nous n’avons jamais été autant mobiles, autant flexibles.
Impossible de ne pas songer au cloud computing sans aborder l’aspect collaboratif. Car il s’agit d’un merveilleux outil de collaboration qui permet aux salariés d’œuvrer ensemble, dans un but commun. Les salariés peuvent travailler sur un même document en temps réel sans le souci de la distance et synchroniser leurs actions sans perte de temps. Avec la mutualisation des données via le cloud computing, des collaborateurs situés dans différentes régions du monde gagnent ainsi un temps précieux en ne s’échangeant plus une quantité faramineuse de mails. Ce qui a pour effet direct de diminuer le flux d’e-mails.
En prime, le salarié n’a pas à surveiller la mise à jour des logiciels. Un cadre de travail en somme plus favorable à l’émergence de solutions ou d’idées, moins stressant. La clé de cette réussite se situe donc dans le partage et dans l’allégement de certaines contraintes informatiques.
De la même manière, la gestion des données se veut plus efficace. Grâce au cloud, les documents utilisés sont archivés automatiquement là ou autrefois, il fallait impérativement être dans l’entreprise pour l’utilisation et la sauvegarde de ses données. Les salariés ont la possibilité de suivre le déroulement du développement d’un projet, de suivre une réunion en temps réel, de connaître les activités d’un collaborateur…
Aujourd’hui il est devenu familier pour les salariés d’accéder à un service de messagerie dédié à l’entreprise, ou de quelques applications pour gérer les stocks, le programme du personnel, les temps libres, les vacances, l’agenda… La coordination en est améliorée, la maîtrise d’un projet renforcée. Qui plus est, cette méthode de travail dispense bon nombre de trajets, permet un gain de temps et réduit les frais. Pas mal!
Malgré toutes ces qualités, le cloud computing provoque encore quelque questionnement. Notamment sur l’aspect sécurité des données. En effet, il n’y a pas de système inviolable pour les hackers. Mais ce qui pose le plus problème concerne les relations humaines. Cette virtualisation des données peut causer une déconnexion avec les autres. Ne plus avoir à se déplacer au bureau d’un collègue par exemple pour obtenir une information, revient finalement à se couper physiquement de lui, à rompre le contact humain, pourtant primordial.
Adobe, le célèbre éditeur de logiciels de design et de photographie, de vidéo et de développement web propose désormais le service Creative Cloud. Une nouvelle annoncée le 6 mai dernier. Le temps où l’on devait se rendre au magasin pour acheter son logiciel semble révolu.
Le développement du cloud a visiblement inspiré Adobe pour mettre en place une nouvelle manière de consommer les logiciels. Leur politique de distribution évolue donc, mais pourrait se résumer ni plus ni moins à un système de location puisqu’il n’est plus question d’acheter un logiciel, mais de payer le droit de s’en servir.
Pour pouvoir exploiter le Creative Cloud, il faudra choisir entre les offres proposées par Adobe. Le prix des formules varie, que l’on soit un particulier ou une entreprise. En tant que particulier, il est possible de tester gratuitement la licence pendant une période d’un mois. Ensuite, la formule la moins chère est de 24,59 euros par mois.
Elle permet l’usage de certains logiciels en version complète. Enfin, pour bénéficier de tous les logiciels en version intégrale, il faudra compter sur un budget de 61,49 euros par mois. En tant qu’équipe, la différence principale tient dans la capacité de stockage plus importante ; 100 Go de stockage par utilisateur.
Le service est clairement dédié à la gestion administrative et Adobe met à disposition une équipe afin de répondre aux questions techniques. Chaque utilisateur de l’équipe devra débourser 86,09 euros mensuellement et rajouter 49,19 euros pour les mises à niveau.
L’abonnement pallie un défaut majeur pour les actionnaires en lissant les bénéfices tout au long de l’année. Alors que les revenus provenaient jusqu’à maintenant de la vente de logiciels, il fallait attendre une nouvelle sortie pour engranger des bénéfices. Forcément, ils avaient tendance à se tasser avec le temps, et ce, jusqu’à ce qu’un autre logiciel arrive sur le marché et relance le chiffre d’affaires. L’abonnement présente de surcroît l’avantage de passer au travers de l’habituel filet d’intermédiaires.
En ce qui concerne les avantages des consommateurs, c’est une autre histoire. La rentabilité, tout du moins financière, dépend principalement du profil et de l’utilisation de chacun. Mais concrètement, les consommateurs profiteront des mises à jour quotidiennes des applications, de fonctionnalités exclusives ainsi qu’un espace de stockage.
Comme toujours avec le cloud, le stockage et le partage avec d’autres utilisateurs tiennent une place prépondérante. Et les éditeurs devront plus que jamais miser sur une innovation régulière de leurs logiciels pour maintenir l’intérêt.
Néanmoins, il subsiste une interrogation. Par ce nouveau service imposé par Adobe, sommes-nous prisonniers de ce mode de consommation ? Car sitôt l’abonnement terminé, plus question de disposer, de modifier ou d’imprimer ses documents. Une façon de rendre indispensable l’abonnement de sorte à le reconduire chaque mois. Rien ne nous garantit non plus que le tarif mensuel n’augmentera pas, une fois tenu par celui-ci.
Une page se tourne, l’avenir des éditeurs est en marche. Il y a fort à parier que d’autres éditeurs seront sûrement tentés de reproduire ce système, spécialement pour les applications mobiles.
En bonus, voici les réponses de M. Roland à quatre questions que nous n’avions pas pu traiter pendant le webinar :
Question 1 : Cette démarche est notamment appliquée lors de la mise en œuvre de la norme ISO 14001, avez-vous eu l’occasion de travailler dans un cadre de mise en place de cette norme, si oui, quel commentaire pouvez-vous en faire ?
Question 2 : Comment appliquez-vous la phase de contrôle du DMAIC qui démontre les économies d’énergie réellement délivrées ?
Question 3 : Le Lean ou le 6sigmas peuvent donc s’appliquer de manière indépendante, comment choisir ?
Question 4 : Dans une industrie minière avec plusieurs équipements, un système d’information sur la gestion de l’énergie comme étape de départ est-il une bonne démarche pour identifier les projets potentiels ?
Le Gouvernement a déposé un amendement au projet de loi sur la consommation visant à exclure les « consommateurs non domestiques » des catégories pouvant bénéficier des tarifs réglementés de vente du gaz naturel, proposés par GDF Suez et des régies locales historiques. Ils en seraient privés par étapes, en fonction de leur niveau de consommation, entre début 2014 et fin 2015. Celles dont la consommation est supérieure à 200 000 kWh par an auront jusqu’au 31 décembre 2014 pour changer de contrat ; celles consommant plus de 30 000 kilowattheures par an jusqu’au 31 décembre 2015.
Les petites entreprises en dessous de ce seuil et les particuliers pourront toutefois conserver leurs contrats aux tarifs réglementés s’ils le souhaitent. Des dérogations sont toutefois prévues notamment pour certaines installations de chauffage collectif. Cet amendement fait suite aux demandes de la Commission Européenne qui estime, depuis 2006, que le dispositif législatif français est non conforme au droit européen.
Cette décision suit aussi l’avis de l’autorité de la concurrence émis en mars dernier (Avis 13-A-09) selon lequel les tarifs réglementés ont « une influence défavorable sur fonctionnement de la concurrence sans pour autant contribuer positivement à la compétitivité des entreprises françaises ni au pouvoir d’achat des ménages ». L’autorité recommandait une suppression par étapes de manière à permettre le développement d’offres plus compétitives, au bénéfice des consommateurs.
Les entreprises devront opter pour des offres dites de marché, dont les prix sont définis librement par les fournisseurs, qu’ils soient historiques ou alternatifs… Il ne devrait pas y avoir d’impact négatif pour les acheteurs concernés, puisque les tarifs des offres de marché peuvent être jusqu’à 10% moins chers. Les particuliers auraient même tout intérêt à quitter les tarifs réglementés pour contracter une offre de marché moins chère chez des fournisseurs alternatifs !
Accélérer la concurrence des fournisseurs alternatifs
Sur le marché du gaz naturel la concurrence s’est assez peu développée depuis l’ouverture du marché en 2007. Les fournisseurs alternatifs accueillent donc bien l’idée d’une fin des tarifs régulés. C’est le cas de Lampiris qui se félicite de cet amendement, mais le trouve encore trop frileux. Pour lui, il faut s’attaquer à l’ensemble des tarifs régulés qui favorisent GDF SUEZ pour le gaz et EDF pour l’électricité, au détriment des fournisseurs alternatifs.
Selon l’Observatoire des marchés de l’électricité, du gaz naturel et du CO2 publié par le CRE au 31 mars 2013, sur les 11,3 millions de sites alimentés au gaz, 81 % sont alimentés par des offres aux tarifs réglementés du gaz. Si la majorité des sites bénéficient de ces tarifs réglementés, ils ne représentent que 38% de la consommation. Cela est dû au fait que sur les 675 000 sites professionnels alimentés en gaz naturel, 314 000 sites, soit 46,5%, sont déjà en offre de marché, dont 23% chez un fournisseur alternatif. Cela signifie que les gros consommateurs ont déjà fait un choix différent des tarifs réglementés. Du côté des clients résidentiels, seulement 17% des sites sont en offre de marché, dont 11% chez un fournisseur alternatif.
Pas si fous ces Romains ! C’est ce que viennent de découvrir des scientifiques du Département des énergies du Berkeley National Laboratory en Californie. Le ciment romain était suffisamment résistant pour supporter 2000 années de vie. Une durabilité dont le secret vient d’être dévoilé et qui réside dans le processus de fabrication de l’époque. Les romains utilisaient tout simplement moins de chaux, qu’ils obtenaient en chauffant les fours à seulement 900°C contre 1450°C dans les fours actuels. Rien que cela permet d’économiser en rejet de CO2, dont les quantités émises sont plus importantes en brûlant une plus grande quantité de combustible.
Pour obtenir un ciment si solide et résistant aux attaques chimiques ou encore à l’eau, les romains mélangeaient de la chaux avec de la roche volcanique. Pour les structures sous-marines, la chaux et les cendres faisaient un mortier, le tout déposé dans des moules en bois. L’ensemble était ensuite immergé dans de l’eau de mer, provoquant instantanément une réaction chimique cruciale. La chaux ainsi hydratée réagissait avec les cendres pour solidifier la mixture dans son ensemble.
Autre différence, le ciment Portland romain contenait plus d’aluminium et moins de silice, ce qui lui conférait une très grande stabilité.
Pour analyser les éléments de ce ciment antique, l’équipe du professeur Monteiro a utilisé de la diffraction X en rayonnement synchrotron ainsi que de la microscopie. Ces mesures ont permis de mettre en évidence le rôle que pourrait jouer la pouzzolane, une roche naturelle, en remplacement des roches volcaniques : « La pouzzolane pourrait répondre à 40% de la demande mondiale en termes de ciment Portland. Il y a des sources de pouzzolane partout dans le monde. L’Arabie Saoudite n’a pas de cendres mais des montagne de pouzzolane » précise Paulo Monteiro.
Depuis quelques années, on recense toujours plus d’offres de cloud computing. L’essor est indéniable et il n’est plus nécessaire d’énoncer les multiples qualités du cloud. Hormis pour une part du grand public, bien sûr, pour qui cela reste méconnu. Et pourtant il s’agit d’un fabuleux outil de partage, ou de stockage d’informations sur des serveurs distants.
Désormais, le service du cloud est en voie de généralisation, voire de banalisation. Aussi, dans ce contexte, rien d’étonnant à ce que la demande en main d’oeuvre qualifiée d’ingénieur cloud soit continuellement en hausse.
On retrouve trois modèles de services sur le marché du cloud. Le SaaS pour Software as a Service, le PaaS pour Platform as a Service et l’IaaS pour Infrastructure as a Service. Le premier (SaaS) est un modèle de logiciel accessible via internet dont le client peut avoir accès après avoir payé une contribution, ou sous forme d’abonnement et sans avoir à l’installer. Comme son nom l’indique, l’application y est vue comme un service. Le second (PaaS) se destine davantage aux entreprises. Il permet la création et l’utilisation d’un environnement par de nombreuses personnes.
Ainsi, collectivement, des employés peuvent gérer et développer des applications fonctionnelles. Enfin, le troisième (IaaS), donne aux entreprises une infrastructure informatique, pouvant héberger des logiciels (l’offre SaaS), en contrepartie d’un abonnement. La gestion des serveurs étant à la charge du fournisseur.
Pour l’heure, les établissements de formation se comptent sur les doigts d’une main. Ils sont seulement quatre à proposer une telle spécialisation :
Tout d’abord, l’Institut supérieur d’électronique de Paris (ISEP) qui prévoit une formation d’un an pendant laquelle les étudiants auront à réaliser – en plus d’assister aux cours – une mission en entreprise ainsi qu’une thèse professionnelle. Seules les personnes ayant déjà en poche un BAC+5 ou un BAC+4 (voire BAC+2) complétés par trois années d’expériences peuvent prétendre à l’entrée du « mastère Cloud Computing ».
Au travers du Master Cloud Computing & Mobility, l’Institut Supérieur des Sciences et Techniques de Saint-Quentin (l’INSSET) est la seconde école à proposer une formation diplômante. En termes d’enseignement, elle privilégie le PaaS et la sécurité sans toutefois dénigrer le développement des Services sur le Web. Et point fort du cursus, la possibilité de définir un cadre propice à la création d’une Start-up.
L’ITESCIA se distingue par son choix de formation en alternance. Au préalable, les étudiants sont tenus d’obtenir un contrat d’apprentissage. Ensuite la formation se déroule sur deux ans découpés en semestres. À terme, ils sont sanctionnés d’un diplôme « Master spécialisé en virtualisation et cloud computing ».
Enfin, l’école Centrale Paris dédie six modules au cloud computing avec sa formation « Executive Certificate : Architecture et Cloud Computing ». Le programme prévoit la compréhension du cloud, de ses enjeux, de ses acteurs, des stratégies à mettre en place et des architectures sous-jacentes. Il prévoit également une mise en pratique sur différentes plateformes par les spécialisations « Gouvernance » et « Architecture ».
Quoiqu’il en soit, pour espérer rentrer dans l’un de ces établissements, il est nécessaire de sortir d’une école d’ingénieur ou d’une formation en informatique, comme une licence, souvent gage de certains acquis indispensables. Bien intégrer les problématiques actuelles et futures du cloud est un enjeu majeur pour ces écoles, d’autant que les prestations de cloud promettent de se perfectionner continuellement.
Elles devront donc maintenir un degré d’exigence et miser sur l’enseignement de compétences transversales pour offrir des débouchés à leurs étudiants. Ce qui est le cas aujourd’hui puisqu’ingénieur cloud computing fait partie de ces métiers émergeants, courus dans le secteur informatique. Leurs profils sont recherchés et généralement mieux rémunérés.
Essorer un gant de toilette dans l’espace ? Un jeu d’enfant pour Chris Hadfield ;
Détruire un pilier de béton – presque – comme un simple fétu de paille ;
Exploser cent ballons de baudruche noirs avec un laser ;
Le gadget (inutile ?) de la semaine : le vélo volant ;
Bonus : « Space Oddity » de David Bowie, dans l’espace.
Essorer un gant de toilette dans l’espace ? Un jeu d’enfant pour Chris Hadfield.
Rares sont les astronautes qui auront su atteindre le niveau de popularité de Chris Hadfield, hormis peut-être les astronautes américains de la mission Apollo 11 et premiers explorateurs lunaires, Neil Armstrong et Buzz Aldrin. Pour débuter notre quarante-sixième revue du web, rendons hommage à l’astronaute canadien qui est rentré sur Terre avec succès le mois dernier, après presque cinq mois passés à bord de la Station Spatiale Internationale (ISS), à travers l’une des nombreuses expériences étonnantes qu’il a réalisée dans l’espace : que se passe-t-il lorsqu’on essore un linge mouillé dans l’espace ?
L’expérience, imaginée par deux élèves du lycée canadien de Lockview, en Nouvelle-Ecosse, a été sélectionnée par Chris Hadfield lui-même, et a le mérite de titiller notre curiosité. Le protocole expérimental et la réalisation de cette expérience prennent une tournure fantastique dans l’espace… L’astronaute canadien s’empare tout d’abord d’un gant de toilette qui se trouve à bord de l’ISS, compressé dans une petite boite métallique pour des raisons évidentes de gain de place. Une fois le linge défait et imbibé d’eau (potable), notre astronaute se met à l’essorer. La « magie » de la gravité zéro fait alors le reste : un tube d’eau se forme autour du gant, au fur et à mesure que le linge est essoré, pour finalement se déplacer et rester autour des mains de l’astronaute en raison de la tension de surface de l’eau.
Chris Hadfield, désormais retraité de l’Agence spatiale canadienne, est devenu une superstar de l’espace en étant très actif sur les réseaux sociaux, documentant la vie de tous les jours à bord de l’ISS et réalisant un grand nombre d’expériences ludiques dans l’espace, expériences régulièrement mises en ligne sur YouTube.
Détruire un pilier de béton – presque – comme un simple fétu de paille.
« Quelle pression faut-il exercer sur un cylindre de béton pour l’écraser ? » : c’est la question que se sont posés les aspirants ingénieurs de la prestigieuse université de l’Illinois à Urbana-Champaign (aussi connue sous le sigle UIUC), lors de la journée porte ouverte consacrée à l’ingénierie en mars dernier, événement qui réunit tous les ans un public relativement large et jouissant d’une popularité grandissante d’année en année. Parmi les nombreuses activités de l’édition 2013, on pouvait par exemple jouer les groupies à un concert de bobines Tesla, reprenant notamment le générique de la série américaine Docteur Who, ou bien assister à l’événement qui nous intéresse ici, la destruction d’un pilier de béton par une presse pouvant lui appliquer une pression considérable (équivalente à 13 millions de Newton).
Le cylindre de béton, une belle bête de 360 kilos – près de cinquante centimètres de diamètre et un peu moins d’un mètre de haut pour ce qui est des mensurations – ne se contente pas de se fissurer ou de tomber en morceaux… Sous l’application de la pression, qui augmente progressivement de kips en kips (un kip, unité désuète, est équivalent à une force de 4,45 kiloNewton (kN) ), les premiers craquements se font entendre, craquements ne provenant pas du cylindre mais d’une épaisseur de contre-plaqué située sous ce dernier. Puis, à la surprise générale, le pilier explose littéralement sous la pression, ce qui ne manque pas d’engendrer cris et applaudissements soutenus.
Exploser cent ballons de baudruche noirs avec un laser.
Vous vous souvenez peut-être de Scott A. Stevenson, cet internaute américain féru de lasers et qui s’est mis en tête de réaliser des vidéos dans lesquelles il explose des ballons de baudruche, dont nous vous parlions déjà ici (www.techniques-ingenieur.fr/revue-du-web-24) ? Notre scientifique amateur, qui fabrique lui-même ses lasers à partir de la diode laser utilisée par un graveur 12X de Blu-Ray, s’attaque cette fois-ci à cent ballons de baudruche noirs, alignés les uns derrière les autres, chaque ballon étant lesté dans un verre d’eau pour le maintenir verticalement, bien en ligne et limiter au maximum ses mouvements.
La couleur des ballons n’est pas anodine : la couleur noire arrête et absorbe l’énergie du rayon laser, les ballons noirs chauffent alors très vite avant d’exploser, comme nous le montre la vidéo tournée à la « Crèmerie de Paris », un showroom situé au centre de la capitale. Une fois soumis au feu du laser, les ballons ne font pas le poids et explosent les uns après les autres, dans un vacarme qui serait plus digne d’un quatorze juillet ou d’un nouvel an chinois que d’une expérience scientifique.
Il y a plus d’un an, Scott A. Stevenson établissait déjà le record du nombre de ballons explosés les uns à la suite des autres avec un laser, toujours à la « Crèmerie de Paris », dans une installation similaire mais cette fois-ci avec cent ballons de couleur rouge. Les ballons rouges mettent plus de temps à exploser que les ballons noirs car ils chauffent plus lentement que les noirs, le pigment rouge n’absorbant pas toute la lumière du laser et en renvoyant une partie.
Le gadget (inutile ?) de la semaine : le vélo volant
Ce n’est un mystère pour personne : les automobilistes et les cyclistes ont souvent bien du mal à s’entendre lorsqu’il s’agit de partager un terrain de jeu commun – oui, la route – chacun des deux groupes pestant contre les comportements dangereux et les incivilités de l’autre groupe. La séparation semblerait être la solution, puisque l’éducation ou le bien-vivre ensemble n’ont pas l’air de porter leurs fruits. Les pistes cyclables ? Non, mieux : faire voler les vélos, et se défaire en un coup de pouce des embouteillages sans avoir à se faufiler.
Pour conclure notre quarante-sixième revue du web en beauté, allons faire un tour du côté de la République Tchèque, d’où nous vient cette semaine notre gadget (inutile ?) hebdomadaire, le vélo volant. Fruit des efforts communs de trois entreprises tchèques, le vélo volant (baptisé dans un premier temps FBike) est un vélo électrique équipé de six hélices qui lui permettent de s’arracher au plancher des vaches pendant quelques minutes, plus ou moins laborieusement. Actuellement en cours de développement, le deux-roues volant n’est pas encore piloté par le « cycliste » en personne, mais est contrôlé à distance par une équipe d’ingénieurs, qui tablent également sur une rapide évolution des batteries et de leur technologie pour rendre leur invention commercialisable.
« Puisque la capacité des batteries double environ tous les dix ans, on peut s’attendre à ce que dans le futur la capacité soit suffisante pour une utilisation sportive, touristique ou équivalente de notre vélo » explique sans se démonter Milan Duchek, directeur technique de Duratec Bicycles. Leur bébé est pour l’instant incapable de voler plus de cinq minutes, avant que la batterie ne se décharge complètement.
Ayant l’allure d’une petite mobylette, le deux-roues tchèque dispose donc de six hélices : deux couples d’hélices contrarotatives positionnées horizontalement à l’avant et à l’arrière du bolide, de plus d’un mètre de diamètre, et de deux hélices latérales plus petites, pour une largeur totale de près de deux mètres cinquante. Et c’est là, entre autres, où le bât blesse : l’intérêt somme toute très relatif de se retrouver avec un vélo trop peu maniable – trop large pour se faufiler dans la circulation, pour un poids flirtant avec les… cent kilos – dont l’autonomie en vol ne dépasse pas les cinq minutes et pour le moment piloté à distance. Il convient de laisser les ingénieurs tchèques développer leur poulain, encore au stade de prototype, mais celui-ci n’a finalement pas grand-chose pour lui.
Retrouvons notre cher Chris Hadfield pour le bonus de cette revue du web, avec sa version du tube de David Bowie, « Space Oddity », enregistrée le 12 mai dernier à bord de la Station Spatiale Internationale. La vidéo, publiée juste après qu’il ait cédé le commandement de la Station, totalise plus de seize millions de vues sur YouTube, et vaut aussi bien pour son interprétation que pour son clip qui met en scène notre musicien de l’espace, avec notamment de superbes images de la Terre vue depuis l’ISS.
La guitare utilisée par Hadfield a été spécialement conçue pour lui par le luthier canadien Larrivée. Elle n’a en soi rien de bien particulier, mis à part le fait qu’elle présente une caisse de résonnance plus petite que la normale, la place étant ô combien précieuse à bord de l’ISS. L’astronaute canadien explique avec humour dans une autre vidéo qu’il n’est plus nécessaire d’attacher sa guitare dans l’espace, mais également qu’un léger temps d’adaptation est nécessaire pour pouvoir jouer sans gravité, notamment pour ne pas rater les frettes avec la main gauche dont l’équilibre se trouve chamboulé.
Les observateurs attendaient cette condamnation depuis longtemps. Que reproche concrètement la Cour de justice de l’Union européenne à la France ? Tout simplement d’avoir minimisé le nombre de ses « zones vulnérables », ces zones comportant des masses d’eau souterraine ou de surface dont les concentrations en nitrates dépassent ou risquent de dépasser les 50 mg/L et où la directive prévoit la définition de programmes d’actions.
Voici donc un énième avertissement avant des sanctions financières potentiellement lourdes. La ministre de l’écologie, Delphine Batho, et le ministre de l’agriculture, Stéphane Le Foll, font savoir qu’ils prennent le problème au sérieux et qu’ils n’ont pas attendu cette condamnation pour réagir. Ainsi, ils ont déjà redéfini les zones vulnérables en décembre 2012 et redéfini le contenu des programmes d’actions qui doivent y être menés.
Ces modifications prévoient, par exemple, « des bandes végétalisées le long des cours d’eau, en fixant les conditions d’épandage sur les sols pentus et détrempés et les exigences de couverture végétale des sols » font savoir les ministres dans un communiqué. Ces mesures sont en en cours d’examen par l’autorité environnementale et devraient entrer en vigueur en septembre 2013 par voie d’arrêté. De plus, un arrêté fixera notamment des allongements de période d’interdiction d’épandage lorsque les conditions pédoclimatiques l’exigent pour certaines cultures et certaines zones géographiques. Il s’appliquera aux programmes d’actions régionaux, qui entreront en vigueur au 1er trimestre 2014. Delphine Batho compte rencontrer prochainement le Commissaire européen à l’Environnement, afin de lui présenter ces mesures correctives.
Place à la méthanisation !
Pour diminuer la pollution aux nitrates, il faut diminuer l’épandage d’azote. Pour y parvenir, les deux ministres appellent à une mutation du système agricole. C’est le projet agro-écologique pour la France défendu par Stéphane Le Foll et la transition énergétique soutenue par Delphine Batho. Dans ce cadre, ils ont lancé fin mars le plan « Énergie Méthanisation Autonomie Azote ». Un de ses objectifs est de développer en France d’ici 2020, 1 000 méthaniseurs à la ferme en vue de réduire l’apport d’azote minéral au profit de l’azote organique provenant des effluents d’élevage ou contenu dans les sous-produits issus de la méthanisation. De plus, le suivi de l’azote dans les zones vulnérables devrait faire la distinction entre l’épandage d’azote minéral et d’azote organique afin de mieux comprendre les différents usages.
Toutefois, dans un contexte difficile, Delphine Batho veut défendre les éleveurs français de petites exploitations en polyculture. Pour cela, les éleveurs ont obtenu trois années supplémentaires pour mettre leurs installations en conformité (fosses de stockage des effluents, zones d’épandage réduites) et modifier leurs pratiques (rotation de cultures, non labour). Le gouvernement demandera également une dérogation au plafond de 170kg d’azote épandu par hectare, comme l’ont fait l’Allemagne, le Danemark, les Pays-Bas, l’Italie, l’Irlande et la Belgique.
La pollution aux nitrates ne devrait donc pas diminuer sensiblement sur le court terme. Pour éviter les sanctions financières, Delphine Batho parie donc sur l’exemplarité du pays dans la définition de ses zones vulnérables et l’élaboration de ses programmes d’actions. Reste à savoir si cela suffira…
Edward Snowden, ex-employé d’un sous-traitant de la NSA, a révélé des documents classés confidentiels sur le programme désormais célèbre baptisé Prism. Celui-ci permet de collecter des informations sur internet en surveillant l’ensemble des communications à travers le monde. Tweets, post, photos, mails, vidéo ou encore fichiers audio, rien n’échappe à Prism. D’après le Washington Post et The Guardian, les deux journaux par lesquels est arrivée l’information, la collecte de ces données à caractère privé se fait même directement auprès des neuf géants du web que sont Google, Yahoo !, Facebook, YouTube, PalTalk, Skype, AOL et Apple.
Devant l’importance et la gravité des faits, chacune de ces entreprises ont annoncé qu’à aucun moment la NSA ne disposait d’un accès direct à ces données. En revanche, elles ne démentissent pas avoir collaboré et avoir elles-mêmes délibérément transmises ces informations. Les services secrets américains disposent en effet d’outils comme les National Security letters qui sont des requêtes qu’elles peuvent émettre dans le but d’obtenir des données privées concernant un individu précis.
Aujourd’hui, tout le monde est lucide sur l’existence de programmes de surveillances et plus précisément de surveillance des communications. Mais c’est la première fois que des documents viennent en prouver l’existence. De plus, le programme Prism concerne les communications d’internautes ne se trouvant pas sur le sol américain.
Les pays les plus surveillés sont l’Iran, le Pakistan, la Jordanie, l’Egypte et l’Inde. Ces programmes de surveillances sont officiellement utilisés pour lutter contre le terrorisme et prévenir toute tentative d’attentat. Le directeur de la NSA, Keith Alexander, a d’ailleurs défendu les programmes de surveillance, insistant sur le fait qu’ils avaient déjà fait leur preuves en aidant à déjouer « […] des dizaines d’actes terroristes ».
Le chef de l’Agence a cité l’exemple du projet d’attentat du métro de New York en 2009 par un afghan précisant que « Il (Prism, ndla) a été crucial […] c’est grâce à lui que nous avons développé la piste. C’est lui qui nous a permis de savoir ce qui se passait ».
Mais il en faudra plus pour calmer les esprits. Une organisation de défense des libertés civiques américaine vient de porter plainte à New York, dénonçant la violation de la liberté d’expression et de la protection de l’intimité, deux droits garantis par la Constitution. L’Europe aussi réagit et Bruxelles demande des éclaircissements. En visite en Allemagne cette semaine, nul doute que Barack Obama est très attendu sur cette affaire d’espionnage.
Après avoir conquis l’univers des smartphones et tablettes tactiles, faisant la fortune de l’américain Corning, les verres ultra-résistants Gorilla Glass pourraient bientôt prendre pied sur la marché automobile.
L’idée serait de fabriquer les vitres en verre Gorilla Glass, un verre trempé quasiment insensible aux rayures et plus léger que le verre actuellement utilisé par les constructeurs automobiles. C’est en tout cas ce qu’ambitionne Corning qui vient de confirmer qu’un constructeur automobile encore secret prévoit d’en équiper ses véhicules hauts de gamme dès l’année prochaine.
L’intérêt pour les constructeurs automobiles étant de proposer des vitres plus résistantes tout en étant plus fines et plus légères, répondant ainsi à l’objectif de véhicules toujours plus légers. On peut néanmoins se demander si le gain obtenu sur le vitrage représente réellement une économie importante. A noter aussi que ces vitrages ne seraient pas tactiles, du moins pas encore…
Découvrir une démo des performances du Gorilla glass 3 :
Allemagne : Un éventail de nouveaux concepts dans le domaine automobile
L’Institut Fraunhofer de durabilité des structures et de fiabilité des systèmes (LBF, Darmstadt, Hesse) a présenté, du 4 au 6 juin 2013, au salon de Stuttgart « Automotive Testing Expo Europe 2013 » ses nouveaux concepts concernant la mobilité et la sécurité. Ainsi ont été présentés entre autres, le concept-car « Frecco 2.0 » ainsi qu’une voiture de course. Ce fut l’occasion pour le LBF de prouver sa forte interdisciplinarité grâce à ses recherches dans le dimensionnement de pièces mécaniques, le développement de système de surveillance et d’alerte définis sur mesure ou encore la mise en place de systèmes actifs de réduction des vibrations.
Le concept Frecco 2.0
rt de plate-forme technologique neutre afin d’intégrer tous les composants d’une voiture électrique. Dans le cadre du projet Fraunhofer de recherche sur les systèmes pour l’électromobilité (FSEM), les chercheurs du LBF ont mis en place une chaîne cinématique complète et ont développé un moteur destiné à être fixé sur le moyeu des roues. En ce qui concerne les tests sur les efforts verticaux, les effets de la propulsion ou les forces de freinage, le LBF possède un banc d’essai spécialement destiné aux véhicules électriques, qui est équipé de vérins hydrauliques renforcés afin de pouvoir s’adapter aux véhicules électriques et à leurs lourdes batteries. De plus, celui-ci permet de simuler les six degrés de libertés sur chaque roue.
Un nouveau système de protection des batteries
Pour l’intégration de la batterie dans la voiture, les chercheurs ont développé un système de protection de construction légère. L’objectif était de réussir l’intégration et la protection des cellules de la batterie. Ainsi, par exemple, la sonde de contrôle de température est installée sur le bâti mais prend ses informations, dans le coeur, c’est à dire dans les modules de la batterie. Le bâti se constitue d’un cadre d’aluminium renforcé par des panneaux en matériaux composites.
Une voiture de course dotée de capteurs « intelligents »
Comment augmenter la sécurité d’un véhicule? Pour tenter de répondre à cette question, les chercheurs du LBF présente un modèle de voiture de course équipé de nouveaux capteurs, une nouveauté permise par l’application de solutions issues du domaine de la mécatronique. Dans ce cas présent, le véhicule est équipé de 4 capteurs sans fil qui permettent de contrôler les vibrations du véhicule. Avec ces systèmes, une meilleure prévention des défaillances peut être réalisée et les véhicules peuvent être utilisés plus efficacement.
Systèmes autonomes de production d’électricité : un jeune ingénieur de l’INP Toulouse autour du monde
En décembre dernier, Hugo Niccolaï, ingénieur diplômé de l’INP Toulouse, terminait un long périple de deux ans qui l’a conduit à faire escale au Bangladesh, au Laos, au Pérou, aux Philippines et en Tanzanie. Cinq escales, chacune d’une durée de 4 à 6 mois, son objectif étant de mettre ses compétences au service d’entreprises sociales du secteur de l’énergie. C’est ainsi que durant 24 mois, ce jeune ingénieur a travaillé à la mise en place de systèmes autonomes de production d’électricité à base d’énergies renouvelables dans des zones non couvertes par les réseaux électriques. De retour en France, dès le 17 janvier il a entamé un autre tour, celui hexagonal, d’abord devant les élèves ingénieurs de son école puis dans différentes grandes écoles et universités en France. Retour sur une expérience enrichissante.
« Tout a commencé avec la lecture de l’ouvrage de Muhammad Yunus », déclare d’emblée Hugo Niccolaï qui rappelle que cet économiste et entrepreneur bangladais est le fondateur de la Grameen Bank, que l’on peut traduire par « banque des villages », considérée comme la première institution de microcrédit dans le monde. Une démarche originale qui vaudra à cet homme, que l’on a surnommé « le banquier des pauvres », le prix Nobel de la paix en 2006. « C’est ainsi que j’ai commencé à m’intéresser à l’entrepreneuriat social et que j’ai découvert qu’il existait des entrepreneurs sociaux qui montaient des projets de ce type à échelle humaine, qui plus est pour certains d’entre eux dans le domaine de l’énergie avec pour objectif l’électrification de zones isolées », précise-t-il. Des projets qui ne pouvaient que séduire un jeune ingénieur spécialisé dans les nouvelles technologies de l’énergie. D’autant plus qu’après avoir travaillé sur des projets, en particulier d’une ferme éolienne, à l’Université du Québec, ou encore de solaire photovoltaïque, de taille relativement importante dont il n’avait pu entrevoir qu’une partie forcément limitée, il rêvait d’appréhender un projet dans sa globalité. Il y avait bien la solution classique du stage. Cela dit, Hugo a préféré opter pour une autre solution, certes plus difficile à monter, mais tellement plus riche de promesses.
Différentes expériences vécues durant ses études avaient alors permis à cet élève ingénieur d’observer que beaucoup d’acteurs du nord commettaient encore des erreurs dans la mise en place de projets, en Afrique, en Amérique Latine et en Asie, faute notamment d’une meilleure connaissance des contraintes locales. D’où son souhait d’aller effectuer une analyse des réalités du terrain, autour de différentes expériences. Et c’est ainsi qu’avec l’aide de Platnet’Etudiants, une association créée en 2010 et présidée par Corinne Larchey qui permet à de jeunes volontaires de participer à des projets de développement économique dans un esprit citoyen, et le soutien financier de la Fondation Schneider Electric, d’EDF et de l’INP Toulouse, Hugo a réussi à bâtir son projet. « Nombreux sont ceux comme l’association Développement Sans Frontières (DSF) qui m’ont apporté de précieux conseils, me permettant ainsi d’aboutir dans ma démarche », tient-il à souligner. Après ? Il y a les contacts personnels, les connaissances, le culot et puis les souhaits pour que la mayonnaise finisse par prendre. Pour pouvoir se livrer ensuite à des comparaisons, il était important de choisir des expériences s’étant développées dans des conditions et des cultures très différentes. D’où le Bangladesh, où Hugo a pu travailler aux côtés de Mohammad Yunus, le Laos avec Sunlabob, et les Philippines avec Pamatec pour l’Asie, le Pérou et Practical Action pour l’Amérique Latine et la Tanzanie et EGG-Energy pour l’Afrique. « Par exemple, le choix du Pérou s’est fait parce que l’expérience retenue était celle d’une Organisation Non Gouvernementale (ONG), un modèle qu’il était intéressant de pouvoir comparer aux quatre autres entreprises déjà choisies dans les autres pays », indique-t-il.
Ces deux années passées dans 5 pays différents, au sein de 4 entreprises et de 1 ONG, auront été extrêmement riches d’enseignement pour Hugo. Ainsi, il a pu observer que beaucoup d’acteurs du nord, notamment des ONG, mettent en place des projets qui bénéficient de moyens financiers considérables. Pour autant, leur suivi n’est pas toujours assuré comme il le faudrait selon le jeune ingénieur. « En Tanzanie, j’ai dû convaincre des déçus du solaire photovoltaïque qu’il s’agissait pourtant d’une bonne solution », explique-t-il. Des acteurs du nord qui réalisent de très belles choses, certes, Hugo ne le conteste pas, mais qui encore trop souvent ont un impact négatif faute d’une présence nécessaire dans le pays, ne serait-ce que pour assurer le suivi technique des solutions installées. « Monter des projets durables nécessitent de co-construire avec des entrepreneurs locaux », lâche-t-il. Co-construire, une démarche « très tendance » qui reste néanmoins difficile à mettre en place. D’où l’idée de ce jeune ingénieur, fort de ses deux années d’expériences d’essayer de jouer le rôle d’interface entre ces deux types d’acteurs, ceux du nord qui disposent de moyens humains et financiers pour développer des solutions techniques de qualité, et ceux du sud qui, eux, possèdent tous les atouts pour les mettre en place localement de manière durable. « L’opérationnel, le relationnel, la logistique sont autant de domaines qu’ils sont à même de maîtriser. Alors pourquoi ne pas initier de véritables partenariats », s’interroge-t-il plein d’enthousiasme.
La plus ancienne réserve d’eau libre révèle des conditions propices à la vie conservées et isolées pendant 1.5 milliards d’années
Des chercheurs ont estimé à 1.5 milliards d’années une eau qui s’écoule dans une mine ontarienne dans le « bouclier canadien » qui date de l’époque pré-cambrienne (-4.5 milliards d’années – date de la naissance de la Terre – jusqu’à -540 millions d’années). De l’eau encore plus ancienne avait déjà été décelée dans des bulles de roches sud-africaines mais c’est ici la plus ancienne eau libre jamais découverte. Sa composition rappelle celle d’une autre poche sud-africaine datée « seulement » de plusieurs dizaines de millions d’années et qui s’est révélée abriter de la vie microbienne.
Cette réserve d’eau qui s’écoule 2.4km en-dessous de la surface à un débit de 2 litres par minute était déjà bien connue des mineurs de ce gisement de cuivre mais aucun scientifique ne s’était encore penché sur la question. Pour dater cette eau, les chercheurs canadiens et anglais ont dosé les gaz dissouts (Méthane et Hydrogène) ainsi que les isotopes stables des gaz rares (Xénon, Krypton, Hélium, Argon, Néon) qui s’accumulent dans l’eau au contact prolongé de la roche loin de l’atmosphère et de la lumière. Ils ont ainsi relevé des concentrations très élevées en isotopes qui ont fait remonter cette eau au pré-cambrien à 1.5 milliards d’années.
Ces gaz sont susceptibles de fournir une énergie exploitable par les micro-organismes qui auraient ainsi pu avoir survécu pendant toute cette période. La vie bactérienne avait été découverte dans de l’eau âgée de plusieurs dizaines de millions d’années mais si d’aventure des bactéries étaient découvertes dans l’eau de la mine de Timmins, leur étude pourrait éclairer les scientifiques sur leur évolution phylogénétique jusqu’à leurs descendants de notre époque.
Cette découverte éclaire les scientifiques sur les possibilités d’isoler de la surface pendant des milliards d’années des conditions propices à la vie. Cette étude relance les espoirs de trouver de la vie sur d’autres planètes comme Mars où elle aurait pu se développer de manière totalement indépendante des conditions de surface. Les analyses microbiologiques devraient prendre encore un an avant de pouvoir délivrer des conclusions définitives.
Cette étude financée par des fonds canadiens et britanniques a été conduite par 2 chercheurs des universités de Manchester et Lancaster et 3 chercheurs des universités McMaster, de Toronto et d’Alberta.ta.
Isaac Asimov, célèbre auteur de livres de science-fiction et de vulgarisation scientifique, imaginait dans son Cycle de Fondation une science, la « psychohistoire », permettant de prédire mathématiquement l’avenir. Une collaboration entre le Technion (Haïfa) et Microsoft ambitionne de faire de cette science une réalité.
Analyser le passé pour prédire l’avenir
Kira Radinsky, chercheuse au Technion (Haïfa), a engagé une collaboration avec Eric Horvitz, co-directeur de la recherche chez Microsoft, pour la mise au point d’un logiciel qui pourrait permettre d’anticiper les événements futurs. Le principe est le suivant : en analysant des données historiques, politiques, sociales ou encore sanitaires du passé, il est possible d’identifier des liens de causalité entre différents événements. Par exemple, les catastrophes naturelles en Angola (sécheresse en 2006, tempêtes en 2007) furent toutes deux suivies d’épisodes de choléra. Le logiciel identifie cette récurrence et « prévient » les utilisateurs d’un possible épisode de choléra en cas de nouveau désastre.
Des dizaines de bases de données explorées
Pour que le logiciel fonctionne le plus efficacement possible, Kira Radinsky lui a fait avaler des quantités astronomiques d’informations, à savoir vingt années d’articles du New York Times et plusieurs dizaines de bases de données disponibles sur Internet. Une fois les informations digérées, le logiciel les classe intelligemment pour éviter d’être saturé et de n’en tirer aucune utilité. Ensuite, il identifie les motifs qui se répètent (par exemple, un article sur un épisode de choléra arrivant quelques mois après des publications météorologiques inquiétantes) et en déduit des corrélations pour l’avenir. Les résultats sont étonnants : Eric Horvitz indique que le système a produit des prévisions justes dans 70 à 90% des cas.
Eviter problèmes humanitaires et crises économiques
Ce score élevé ne concerne pour l’instant qu’un nombre restreint d’événements. Pas question donc de commercialiser le produit pour l’instant, de nombreuses améliorations étant encore nécessaires. On peut toutefois espérer qu’à terme, ce travail permette de tirer de meilleures leçons de notre passé. On se laisse aller à imaginer une machine qui retiendrait tout et nous permettrait ainsi d’éviter que l’histoire ne se répète. Ainsi, au-delà des problèmes humanitaires évidents, les crises économiques récurrentes pourraient être évitées si les solutions déjà essayées sans succès étaient mises de coté.
Des physiciens de l’université Friedrich-Schiller d’Iéna (Thuringe) ont présenté dans la revue « Nature Photonics » une puce d’ordinateur quantique optique.
Les processeurs d’ordinateurs grand public comportent aujourd’hui environ 700 millions de transistors. Leur puissance de calcul et leur rapidité, sans cesse repoussées, sont permises par la mise au point de circuits imprimés plus performants. Pourtant, la miniaturisation dans l’industrie informatique a depuis longtemps atteint ses limites : « De plus petits transistors ne sont pas réalisables pour des raisons pratiques » explique Alexander Szameit, de l’Université d’Iéna. De nouveaux concepts sont donc à découvrir pour améliorer les performances de l’ordinateur du futur.
La piste la plus prometteuse semble résider dans l’ordinateur quantique. Son développement n’est cependant qu’à ses balbutiements : les premiers prototypes sont des mastodontes qui ne peuvent en l’état remplacer les ordinateurs courants. L’équipe de chercheurs en question, qui travaille à la réduction de la taille de ces ordinateurs du futur, a mis au point un circuit optique sur une puce en verre de la taille d’une paume de main.
Ce montage permet de traiter les informations en utilisant ce que l’on appelle des photons intriqués. Il s’agit de particules quantiques dont les propriétés sont mutuellement dépendantes. Leur source est unique et leur différenciation ne se fait que par leur direction de polarisation. Si la polarisation d’un photon est modifiée, celle du photon associé le sera également, quelle que soit la distance entre les particules. Qualifiée par Einstein d' »action fantôme à distance », l’intrication est la caractéristique cruciale des particules afin de pouvoir les utiliser comme support d’informations dans les ordinateurs quantiques. Les photons transitent par un système de guides d’ondes gravés dans le circuit de verre.
Alors que les transistors classiques ne fonctionnent qu’avec deux états de support d’information – « on » et « off » ou « 0 » et « 1 » – les transistors quantiques peuvent prendre beaucoup plus d’états différents, ce qui augmenterait significativement la puissance de calcul et donc la vitesse de traitement de l’information.
Du compteur électrique à la voiture en passant par le suivi médical d’un troupeau de vaches, de plus en plus d’objets ou appareils du quotidien sont équipés de processeurs, capteurs et dispositifs électroniques. Connectés à des services Internet, ils peuvent reconnaître leur environnement, s’organiser en réseaux et interagir avec l’homme. Il s’agit de la base de l’Internet des objets, qui s’ouvre à de toutes nouvelles applications à fort potentiel économique et social. Toutefois, les exigences de la technologie sous-jacente sont élevées et la gestion de la communication « machine-to-machine » (M2M) comporte des risques.
Le Cercle munichois, organisation internationale de recherche sur la communication, a réuni le 6 mai 2013 quelques 170 experts de l’industrie, du milieu universitaire et de la politique autour de l’implication sociale de l’Internet des objets dans des modèles d’affaires futurs. La communication machine-to-machine (M2M) dans l’industrie est longtemps restée une vision de l’avenir. C’est aujourd’hui une réalité grâce à l’Internet des objets. « Les objets intelligents ont leur propre adresse Internet et peuvent interagir. Il est alors possible de les surveiller et les contrôler, par exemple grâce à l’interface d’un navigateur Web », explique Uwe Kuback, vice-président du pôle ingénierie M2M chez SAP. « Pour la production, cela signifie plus de flexibilité. Grâce à l’échange de données entre les machines, les produits et les pièces, les systèmes de contrôle de l’usine peuvent être adaptés avec souplesse à l’évolution des besoins », a déclaré pour sa part Stefan Ferber, directeur des réseaux partenaires chez Bosch Software Innovations.
Dans cette configuration, même les petites séries peuvent être personnalisées en maintenant une forte productivité. Progiciel de gestion intégrée (pgi), bases de données des machines et planification du personnel, ces trois composantes sont le coeur de la production coordonnée. Mais la communication M2M trouve également des applications hors du secteur industriel, et se résume par le terme de « ville intelligente ». Il est alors question, par exemple, de surveillance en temps réel de l’état du trafic ou de bâtiments, même si pour le moment « ce type de systèmes est encore peu développé, les données recueillies n’étant fournies qu’à des groupes de personnes bien identifiées pour des applications données », comme l’indique Sebastian Wahle, directeur des solutions M2M à l’Institut Fraunhofer pour les systèmes de communication ouverts (FOKUS) à Berlin. « Cette mentalité inhibe le potentiel qui sommeille dans ce domaine. »
En ce qui concerne les solutions de mobilité futures, Christoph Grote, directeur du département recherche et innovation pour le groupe BMW, estime que le cloud computing va prendre de plus en plus d’importance dans la gestion de l’énergie pour les véhicules et l’analyse de l’état du trafic. Un défi majeur réside dans le partage et l’uniformisation des sources de données de manière à les exploiter correctement. C’est ici que l’Internet des objets peut jouer un rôle central dans l’interconnexion entre les différents moyens de transports.
Alexander Duisberg, associé chez Bird & Bird LLP, a insisté sur les questions juridiques qui se posent concernant ces composants technologiques autonomes : « L’attribution des actions et des violations [des appareils ou robots] est beaucoup plus complexe et dépasse la portée de la responsabilité des modèles du passé. » Avec l’Internet des objets, la protection des données constitue un nouveau défi.
La voiture pèse 550 kg sans batteries et 700 kg lorsqu’on les ajoute. « C’est environ 50 % du poids d’un véhicule traditionnel », explique fièrement Hervé Arnaud, Fondateur et PDG de Courb. Pour parvenir à ce résultat, le constructeur utilise notamment un châssis « skate » en aluminium sur lequel est fixée la carrosserie en plastique (ABS thermoformé).
Labellisé « origine France garantie », ce véhicule est intégralement assemblé à Saint-Priest, à côté de Lyon. L’entreprise emploie pour le moment 20 personnes et est en train d’embaucher en vue du lancement de la production en série de son véhicule. Le constructeur prévoit l’assemblage de 100 à 200 véhicules d’ici la fin de l’année 2013, 1 000 pour 2014 et 2 000 pour 2015. À court terme, il espère fabriquer entre 5 000 et 10 000 véhicules par an.
88 % des pièces de ce nouveau véhicule sont d’origine française et 67 % du prix de revient est d’origine française. Du côté de l’étranger, le constructeur achète notamment ses cellules de batterie à Hong-Kong, mais il a fait le choix de les assembler dans son usine de Saint-Priest.
Lors de la construction des véhicules, les chutes d’aluminium et les chutes d’ABS sont recyclées. L’aluminium est refondu en aluminium et l’ABS est transformé en microbilles qui sont réutilisées pour faire des pièces d’intérieur de voiture. « Demain, lorsqu’on nous amènera une C-Zen en épave, il suffira de la démonter et on pourra recycler tous les matériaux de la voiture », se félicite Hervé Arnaud.
120 km d’autonomie
Courb a fait le choix d’une batterie stable en lithium-fer-phosphate LiFePO4, d’une durée de vie minimum estimée à 7 ans. Avec elle, la voiture affiche une autonomie normée de 120 km d’autonomie. En ville, Hervé Courb assure que sa voiture a une autonomie comprise entre 110 et 115 km. Dès lors qu’elle roule à 90 km en zone hors urbaine, elle baisse toutefois à environ 90 km.
La C-Zen est rechargeable sur n’importe quelle prise 220 V et 16 A que tout particulier possède, mais également sur la plupart des bornes de charge. Pour le moment, la batterie n’accepte que la charge lente. Si le temps de charge est compris entre 6 et 7 heures pour une recharge complète, « le temps de charge se situe généralement autour de 3 heures, car on ne décharge jamais complètement la batterie », précise Hervé Arnaud.
Le véhicule sera vendu à 20 000 euros hors taxes (HT), soit 25 000 € TTC, moins 7 000 € de bonus écologique. Une entreprise pourra donc l’acquérir pour 13 000 € HT. Avis aux intéressés, Courb propose également une offre en location avec option d’achat (LOA), avec un premier versement de 1750 €. Suivent 59 loyers de 258,4 euros hors assurances. La valeur résiduelle à payer pour l’acquérir en fin de course s’élèvera à 20 %, soit 5 000 €. Libre à vous de la payer ou non !
Le constructeur travaille d’ores et déjà sur une version 4 places, une version 4 roues motrices et un véhicule purement cabriolet.
Le règlement CLP a été modifié par un nouveau règlement paru le 1er juin au Journal officiel de l’UE (Règlement (UE) n°487/2013 de la Commission du 8 mai 2013). Ces modifications visent à prendre en compte la quatrième édition révisée du Système général harmonisé de classification et d’étiquetage des produits chimiques (SGH) des Nations unies. Les changements portent sur de nouvelles catégories de dangers pour les gaz chimiques instables et les aérosols non inflammables, de même que sur une rationalisation des mentions de danger.
2 923 substances chimiques supplémentaires enregistrées à l’échéance REACH du 31 mai 2013
03/06/2013
Lors de la deuxième échéance de REACH du 31 mai 2013, 9 084 dossiers d’enregistrement ont été déposés à l’Agence européenne des produits chimiques (ECHA) par 3 215 entreprises. Le nombre final d’enregistrement et de substances enregistrées sera disponible début septembre quand tous les dossiers auront été traités. Des statistiques d’enregistrement sont d’ores et déjà publiées sur le site web de l’ECHA http://echa.europa.eu/reach-2013/registrations.
Comment notifier une substance SVHC présente dans un article
03/06/2013
Une nouvelle vidéo sur le site de l’ECHA montre comment remplir le formulaire web pour soumettre une notification de substances SVHC dans les articles. Les importateurs et les producteurs d’articles doivent présenter des notifications de substances contenues dans des articles à l’ECHA six mois après l’inscription de la substance sur la liste candidate. Les 54 substances qui ont été ajoutées à la liste candidate le 19 Décembre 2012 doivent ainsi être notifiées à l’ECHA avant le 19 Juin 2013. La meilleure façon de soumettre la notification est le formulaire web sur le site de l’ECHA.
Présentations de la réunion du réseau d’échange sur les scénarios d’exposition disponibles
03/06/2013
La quatrième réunion du Réseau d’échange sur les scénarios d’exposition a porté sur le rapport de la sécurité chimique et la feuille de route des scénario d’exposition des produits chimiques.
Il n’est jamais trop tard pour combler les lacunes du tableau périodique des éléments : une équipe internationale de physiciens est parvenue à mesurer, pour la toute première fois, l’énergie d’ionisation de l’astate, élément chimique radioactif de numéro atomique 85 et plus rare des éléments naturels présents sur Terre.
Les scientifiques responsables de cette découverte travaillent auprès de « l’usine alchimique » du CERN, l’installation de faisceaux radioactifs ISOLDE.
L’énergie d’ionisation d’un atome est l’énergie qu’il faut fournir à un atome neutre pour lui arracher un électron et ainsi le transformer en ion positif.
La mesure de cette valeur devrait pouvoir permettre de développer des applications dans la lutte contre le cancer, notamment dans le domaine des radiothérapies utilisant les rayons alpha, qui permettent d’endiguer la croissance des cellules cancéreuses.
Isotopes artificiels
Découvert en 1940, cet élément du groupe des halogènes ne se laisse pas aisément observer : la quantité totale d’astate dans la croûte terrestre serait constamment inférieure à… trente grammes.
Le groupe de physiciens aura donc dû contourner la difficulté en produisant des isotopes artificiels d’astate, dont ils sont parvenus à étudier la structure atomique par une technique répondant au doux nom de « spectroscopie par ionisation résonante par faisceaux laser au niveau de la source ».
Le CERN nous éclaire un peu : « Les faisceaux de protons de haute énergie issus du Booster du Synchrotron à protons du CERN sont envoyés sur des cibles d’uranium.
Les collisions produisent une gerbe d’éléments chimiques, qui se diffusent dans une cavité métallique à 2000°C.
Si l’on envoie des faisceaux laser de longueurs d’onde déterminées dans cette cavité, on obtient une ionisation sélective de certains des atomes.
Un champ électrique extrait les ions chargés positivement, qui sont envoyés dans des aimants réglés de façon à permettre uniquement la transmission d’une masse choisie. Le résultat est un faisceau d’ions ne contenant qu’un seul isotope, qui est envoyé sur un détecteur. ».
Il aura donc suffi de surveiller la longueur d’onde pour obtenir la valeur de l’énergie d’ionisation de l’astate, à savoir 9,31751 électronvolts.
Prédire les propriétés atomiques et chimiques des éléments superlourds
Outre son utilisation dans la lutte contre le cancer, la mesure de cette valeur pourra également servir de pierre angulaire aux théories de prédiction des propriétés atomiques et chimiques des éléments superlourds, comme l’explique le chef de l’équipe RILIS, Valentin Fedosseev :
« La spectroscopie laser au niveau de la source est une méthode extrêmement sensible pour l’étude des propriétés atomiques des isotopes exotiques à vie brève. […] Elle est bien adaptée à l’exploration des spectres des éléments produits artificiellement, comme les éléments superlourds ».
Les résultats de l’équipe internationale de physiciens viennent d’être publiés dans la revue scientifique Nature Communications par l’Organisation européenne pour la recherche nucléaire (plus connue sous l’acronyme… CERN).
L’installation ISOLDE a pour but de permettre la production et l’étude de certains des isotopes les plus instables, en particulier ceux dont la période radioactive ne dépasse pas les quelques millisecondes.
En France, la production en énergies renouvelables représentait 22,7 millions de tonnes équivalent pétrole (Mtep) en 2010 pour une production globale de 191,3 Mtep. La France pouvait alors se vanter d’avoir produit presque 12 % d’énergie primaire avec des sources renouvelables. À lui seul, le bois énergie assurait 10,1 Mtep, soit près de 45 % de la production renouvelable. Si on y ajoutait les agrocarburants (10 %), les déchets urbains renouvelables (5 %), le biogaz et les résidus de récoltes, la biomasse (chaleur, électricité, carburants) était alors à l’origine de plus de 63 % de l’énergie produite à partir de sources renouvelables en France.
Mais la France a voulu faire mieux. Elle s’est alors fixée comme objectif d’atteindre 23 % d’énergies renouvelables dans sa consommation d’énergie finale d’ici 2020. Pour cela, il va falloir produire 20 Mtep provenant de sources renouvelables supplémentaires par rapport à 2006. La biomasse devrait y contribuer majoritairement à hauteur de 10,7 Mtep supplémentaires par rapport à 2006. La répartition devrait à peu près être la suivante : 6,2 Mtep supplémentaires sous forme de chaleur, 1,2 Mtep sous forme d’électricité et 3,3 Mtep sous forme d’agrocarburants.
Pourtant, l’utilisation de la biomasse ne doit pas se faire au détriment des forêts et des productions alimentaires. A-t-on donc encore une marge de manœuvre encore suffisante pour développer son exploitation ? « Oui », à en croire Mac Guérin, directeur du département Territoires à l’Institut de recherche en sciences et technologies pour l’environnement et l’agriculture (Irstea, ex Cemagref). Explorons un peu pourquoi.
En France, le bois de chauffage provient essentiellement des travaux d’entretien forestiers: bois d’éclaircies (d’entretien) et résidus des coupes finales. Une partie des plus petits branchages est restitué au sol, les plus grosses branches étant utilisées pour le bois de chauffage. Il faut en effet éviter les effets négatifs sur la biodiversité d’un prélèvement trop intensif et mal contrôlé. « L’intensification forestière peut créer des situations défavorables à la biodiversité, car il y a moins de bois mort, moins de vieux peuplements et de gros bois, des habitats plus fragmentés, un tassement des sols, davantage de dérangements de la faune, une augmentation des surfaces totales des coupes et une diminution des zones humides et des tourbières. » insiste Marc Guérin. On note également des impacts potentiels sur la fertilité des sols et le cycle des éléments minéraux sur le long terme.
Le bois énergie est utilisé sous forme de bûches traditionnelles, de plaquettes de bois broyées et de granulés issus de la fabrication de bois d’œuvre. Cette dernière utilisation présente un important potentiel de développement, notamment si l’on développe la filière du bois d’œuvre en France.
Au niveau national, 6 millions de ménages sont équipés de chauffage d’appoint et on dénombre environ 2300 chaufferies collectives et 1000 chaufferies industrielles pour les scieries, menuiseries, usines de pâtes à papier, mais aussi pour le chauffage des serres. Ce type de d’utilisation d’énergie est en cours de développement et de transformation. Le Fonds Chaleur de l’ADEME est doté d’environ 200 millions d’euros et aide les investisseurs qui veulent s’équiper de chaufferies ou de réseaux de chaleur.
Un gisement privé encore faiblement exploité
La France compte 15 millions d’hectares de forêts. On n’y récolte au plus que 60 % de ce qui pousse chaque année, soit 59 millions de m3/an. Selon deux études réalisées en avril 2010 pour le compte de l’ADEME et du Ministère de l’agriculture, les ressources en bois énergie supplémentaires disponibles dans des conditions d’exploitation acceptables à l’horizon 2020 sont de 4,3 Mtep/an, pour les forêts, peupleraies et haies et de 1,6Mtep/an pour les coupes d’entretien des vignes et vergers, arbres urbains. On obtient donc 5,9 Mtep/an supplémentaires, plus ou moins en accord avec les 7,4 Mtep nécessaires pour respecter les objectifs en termes d’utilisation de biomasse à l’horizon 2020. En ajoutant les déchets urbains renouvelables, le biogaz et les résidus de récoltes, le compte devrait en effet être bon.
La forêt publique représente moins de 30 % des 15 millions d’hectares de forêt recensés. C’est principalement dans la forêt privé qu’il existe des possibilités importantes de développement, mais celle-ci est dispersée entre de nombreux propriétaires : plus de 3,5 millions ! L’essentiel de ces propriétaires possède moins de 5 hectares. IIs n’entrent donc pas toujours dans une logique entrepreneuriale ou patrimoniale d’entretien du bois. De plus, ces forêts sont réparties sur l’ensemble du territoire, ce qui renforce les défis à soulever pour les exploiter.
Techniques de l’Ingénieur : Aux vues de votre expérience et de votre expertise, quelles sont les marges de progrès des industriels en termes de performance énergétique aujourd’hui ?
Christophe Roland : Pour l’instant, les industriels travaillent sur leurs achats d’énergie et sur les techniques de production de leurs utilités. Peu d’entre eux remettent en cause leurs pratiques de production pour mieux consommer. Beaucoup considèrent que l’énergie est l’affaire des experts techniques, ce qui est vrai mais pas seulement, la production elle aussi à un rôle majeur à jouer dans l’amélioration de la performance énergétique.
Concrètement sur nos projets, nous identifions systématiquement des gaspillages énergétiques en production, en moyenne 12 % des consommations. Revisiter leurs pratiques de production avec les opérateurs pour les rendre moins énergivores, prend alors tout son sens. Cette approche participative est inspirée du Lean Manufacturing, et adaptée pour l’amélioration de la performance énergétique. Peu importe le degré d’expertise dans le management de l’énergie, cette nouvelle démarche apporte des résultats souvent surprenants et toujours rentables car ne nécessitant que peu d’investissement.
Techniques de l’Ingénieur : Quels sont les principales difficultés rencontrées par les industriels dans l’amélioration de leur performance énergétique ?
Christophe Roland : Nos clients, au démarrage d’une démarche de performance énergétique, s’interrogent sur les points suivant :
1. Est-ce aussi rentable d’investir dans la performance que dans mon outil de production ? Autrement dit, les économies d’énergie coûtent cher car les investissements nécessaires sont conséquents de par leur technologie.
2. De plus, la performance énergétique implique des investissements qui ne sont pas dans mon cœur de métier, puis-je encore me le permettre vu la conjoncture économique ?
3. Encore un projet qui va mobiliser notre équipe, comment puis-je m’assurer d’un réel retour sur investissement ?
4. La performance énergétique sert avant tout à travailler son image et à faire de la communication, Est-ce bien la priorité pour ma société ?
Plus globalement, ceux qui souhaitent améliorer leur performance énergétique déclarent souvent ne pas savoir par quoi commencer une fois le diagnostic énergétique réalisé. L’important est donc de les aider à construire la meilleure feuille de route possible.
Techniques de l’Ingénieur : Quels types de solutions à ce problème ?
Christophe Roland : Nos réponses aux questions de nos clients sont que :
1. Il est vrai que si l’on se base sur des actions comme des travaux d’isolation, le remplacement d’un compresseur pneumatique ou l’achat d’une nouvelle chaudière, les retours sur investissement dépasseront souvent les cinq années. Maintenant, pour nous, l’enjeu n’est pas là. La performance énergétique est une discipline nouvelle et les gisements d’économies qu’elles proposent sont encore vierges. Ces gisements dépendent tous des choix de pratiques de production des industriels, il est donc important d’accepter de les remettre en cause. Adapter ses processus, ses pratiques et ses comportements va déboucher sur des économies d’énergie, mais pas seulement. En attaquant les problèmes sous l’angle énergétique, c’est souvent aussi l’occasion de régler des problèmes récurrents de qualité, de sécurité et de productivité.
2. Effectivement, investir dans sa production d’air comprimé ou de froid peut sembler ne pas faire partie de la valeur ajoutée du produit industriel. Maintenant, sans énergie, on ne produit rien ! L’énergie est un mal nécessaire que l’on peut mieux maîtriser. Soit, on considère que la production d’utilité ne fait pas partie de son cœur de métier, et là on pourra s’orienter vers une externalisation chez un facility manager dont c’est le métier. Soit, on ne veut pas supporter le risque d’une externalisation et il faudra harmoniser la production d’utilité au pilotage de l’outil de production.
3. En commençant par une chasse au gaspillage énergétique approfondie, on peut facilement réduire ses consommations de plus de 10%, pratiquement sans investir. Cette première étape se fait dans un délai de quelques mois et mobilise les équipes autour d’un premier succès. Une fois la dynamique initiée, nous avons acquis suffisamment de crédibilité pour s’attaquer à des initiatives plus complexes.
4. Derrière la performance énergétique, il y a un réel enjeu sociétal. Communiquer autour de consommer le juste nécessaire est un argument nouveau qui fait mouche auprès des médias mais qui nécessite de justifier des économies réalisées.
En conclusion, il faut considérer le management de l’énergie comme un vraie opportunité d’améliorer sa compétitivité à travers un projet transversal et fédérateur. Si la dynamique est supportée par la direction, il est possible de réaliser rapidement des économies tout en innovant. Concrètement, revisiter ses pratiques et ses processus avec le regard nouveau de l’énergéticien conduit systématiquement à de nouvelles idées et de nouvelles solutions.
Tout tient dans les principaux enjeux du management de l’énergie :
1. Piloter avec des indicateurs pertinents et compréhensibles par tous
2. Intégrer les dernières technologies de production d’utilités
3. Mettre à niveau son plan de maintenance
4. Trouver les solutions de revalorisation énergétique
5. Revisiter ses modes opératoires pour consommer au juste nécessaire
6. Responsabiliser la production sur ses consommations
7. Intégrer la dimension énergie dans ses choix d’investissements
8. Profiter des opportunités du marché de l’énergie
9. Se projeter à moyen terme pour anticiper les évolutions de son mix énergétique
Autolib’ a passé la barre des 80 000 abonnements vendus et des 2 millions de locations réalisées. La société détient 25 000 abonnés à l’année qui utilisent en moyenne les voitures deux fois par semaine pour une durée de 40 minutes afin de réaliser des trajets de 10 km par location. Chaque mois, c’est 200 000 locations qui sont enregistrées !
Le succès d’Autolib’ est en grande partie lié à sa simplicité d’utilisation. Avec le service Yélomobile à la Rochelle, Autolib’ est pour le moment le seul service d’autopartage en France à proposer des trajets en trace directe. En trace directe, le véhicule peut être rendu dans une autre station que la station de départ. Il est opposé aux systèmes en boucle où le véhicule doit être rendu là où il a été retiré. Ces deux services d’autopartage présentent d’autres particularités : il s’agit uniquement de véhicules électriques, sans réservation préalable obligatoire et sans obligation de communiquer sur la durée de réservation.
Mais intéressons-nous plus spécifiquement au cas d’Autolib’, car le système est en phase de se dupliquer un peu partout. Plus qu’un simple système de partage de voitures électriques, il fournit également une infrastructure de recharge, un système d’informations et des réseaux télécoms embarqués. Plus de 4 000 points de charge sont actuellement installés dans les 800 stations d’Ile-de-France. Les objectifs visent 1 100 stations, 5 000 bornes de recharges électriques, 1 200 abonnés supplémentaires par semaine et 3 000 véhicules sur la chaussée en 2013 !
La BlueCar (c’est son nom !) est conçue pour être intelligente, intégrée dans un système d’information intelligent. Le système enregistre les radios et itinéraires préférés des utilisateurs et il les télécharge dans chaque nouvelle voiture réservée. Et comme la BlueCar est connectée, le système vous informe en temps réel des places disponibles. Vous n’avez donc pas à craindre de tourner des heures dans Paris avant de trouver une place ! Il vous est même possible de réserver gratuitement une place pendant 90 minutes et une voiture pendant 30 minutes. Voici de quoi être rassuré. À partir de septembre, un nouveau portail de services devrait voir le jour. Il permettra aux utilisateurs de trouver les services les plus proches dont ils ont besoin.
En un peu plus d’un an, Autolib’ est devenu une véritable industrie. 100 personnes se relaient 24h/24 pour assurer le service d’assistance en continu. Le nombre de sinistres est faible, mais il y a un enjeu de nettoyage intensif. Car oui, les parisiens ne sont pas toujours très propres !
Une infrastructure disponible pour tous
La charge de la batterie est lente à 3kW, 220 V et 16 A. Le réseau de charge est ouvert à tous les véhicules électriques présents sur le marché. C’était une clause du contrat avec la Ville de Paris. Toutefois, « l’homologation de la Zoé pose actuellement problème » fait savoir Serge Amabile, Directeur Marketing & Commercial d’Autolib’, car « elle tire à 18 A en charge rapide ».
Un particulier voulant profiter de l’infrastructure d’Autolib’ pour recharger son véhicule, doit se procurer un pack auprès de la société. Il lui permettra de se brancher à certaines heures pour unedurée maximale de 2 heures et 15 minutes. Il est vendu à 180 euros pour une voiture et à 15 euros pour un deux roues.
D’autres clients sont aujourd’hui intéressés par ce genre de schémas et travaillent avec Bolloré pour développer des services semblables. Il s’agit par exemple de services d’autopartage pour les entreprises. Le premier exemple qui fait figure de vitrine marketing est celui de Mycar, élaboré par Bolloré pour les salariés du siège social d’Atos, géant mondial de services informatiques, à Bezons, en région parisienne. La flotte de la société se compose de 10 véhicules aux couleurs de l’entreprise qui ont accès à l’ensemble des bornes Autolib’ franciliennes. Environ 60 m2 de panneaux photovoltaïques sont installés sur le site de Bezons pour « compenser » la consommation énergétique de la flotte de véhicules. « L’expertise acquise nous permet d’être très confiants pour proposer à des entreprises comme Atos des démarches purement privatives », affirme Serge Amabile.
De nouvelles villes sont aussi intéressées par le système. Le prochain grand déploiement est d’ores et déjà prévu à Lyon et la commune de Villeurbanne. 130 voitures, 50 stations équipées de 250 bornes de charges devraient être opérationnelles dès le 10 octobre 2013. En 2014, ces chiffres devraient être portés à 250 véhicules et 100 stations. Viendra ensuite le tour de l’agglomération bordelaise d’ici fin 2013. Le système portera sur une centaine de véhicules, 40 à 50 stations dans Bordeaux et quelques communes voisines. Le concept pourrait même débarquer à Indianapolis aux Etats-Unis dès l’année prochaine. Alors que peu de personnes croyaient au succès du dispositif lors de son lancement, plus rien n’arrête Autolib’ !
La GreenGT H2 a effectué ses premiers tours de piste à la mi-avril en Suisse. Elle a poursuivi ses essais en version course jusqu’au 5 juin et vérifié ses performances, conformes aux tests effectués au banc (voir la Fiche technique du véhicule). Pour autant, la société suisse GreenGT fait savoir dans un communiqué que sa voiture ne prendra finalement pas le départ sur le 56e Stand des 24h du Mans.
« La phase de mise au point de la pile à combustible à hydrogène à forte puissance, particulièrement complexe, a empiété sur le programme de tests d’endurance en piste indispensable avant de se mesurer à une course aussi exigeante que la classique Mancelle.. »
La GreenGT H2 devait occuper le box n°56, celui réservé à une voiture jugée technologiquement innovante par l’Automobile Club de l’Ouest (AOC) et qui participe à l’épreuve hors classement. En 2012, la première voiture bénéficiaire de cette invitation était la Nissan-DeltaWing. En 2014, le box 56 devrait à nouveau être occupé par Nissan, le constructeur japonais ayant décidé d’engager d’une technologie innovante de transmission électrique.
« Si le Mans 2013 est venu trop vite, nous travaillons activement avec l’ACO sur un programme de présentation de la GreenGT H2 à l’échelle mondiale. Des pilotes de renommée internationale seront annoncés lors des 24 Heures du Mans, ils seront nos ambassadeurs pour présenter cette technologie d’avenir. » annonce toutefois Jean-Michel Bouresche, Sales & Marketing Director de GreenGT.
« Nous annoncerons avec GreenGT une tournée de démonstration à travers le monde lors de la semaine des 24 Heures du Mans, et pourquoi pas au départ d’une course du Championnat du Monde d’Endurance (hors classement) dont le règlement prévoit d’accepter ce type de voiture ponctuellement sur la grille de départ. » précise pour sa part Vincent Beaumesnil, Directeur Sports de l’ACO.
Par Matthieu Combe, journaliste scientifique
Découvrez notre pack Innovations technologiques « La veille technologique comme moteur d’innovation pour anticiper les prochaines évolutions de marché »
Motorola signe son grand retour avec le Moto X, son nouveau fleuron dont la sortie est prévue pour l’automne.
C’est à l’occasion d’une conférence en Californie que Dennis Woodside, le PDG de Motorola, annonçait que le coût du smartphone serait en deçà de celui de l’iPhone. Le mobile, originellement appelé X Phone se dévoile donc un peu plus.
Dennis Woodside opte pour une politique plus agressive que celle des dernières années pour le lancement du tout premier smartphone Motorola. La raison est évidente, les ventes sont en chute libre depuis 2006. Samsung et Apple s’accaparant toutes les parts de marché. Mais désormais le combat est tout autre puisque le mobile jouit du soutien du géant Google qui avait racheté la société en 2012. Les ambitions sont revues à la hausse. Une volonté clairement affichée vers les fonctions innovantes.
En effet, quelques détails dévoilés par le président témoignent de l’envie de la firme de se tourner vers des techniques innovantes. L’utilisateur est placé au centre des préoccupations. Le Moto X intégrera ainsi l’environnement des détenteurs du Moto X pour améliorer son usage à bien des égards. Il sera truffé de capteurs censés permettre d’anticiper ses besoins quelle que soit la situation. Pour autant, cela ne devrait pas diminuer l’autonomie du mobile, a-t-il précisé.
Le Moto X sera assemblé pour l’essentiel à Fort Worth au Texas. 2 000 personnes travailleront à sa fabrication dès la fin de l’été. Ce « made in USA » est une première mais ne devrait toutefois pas élever le coût du mobile. Le prix sera donc attractif malgré tout, quitte à minimiser les marges de vente. Et là, le PDG de la marque fait clairement référence aux marges d’Apple. Une remarque que les intéressés n’ont sûrement pas dû apprécier.
Motorola, plus incisif qu’auparavant, retourne dans la guerre des mobiles. La riposte ne devrait pas tarder.
Des chercheurs français se sont appuyés sur les propriétés d’auto-assemblage par capillarité à l’interface entre l’huile et la surface de l’océan pour mettre au point un procédé permettant d’isoler le pétrole, afin de mieux l’extraire. Un processus d’ailleurs connu et couramment utilisé dans l’industrie alimentaire ou en cosmétique.
Cette fois, les chercheurs de l’institut Jean le Rond d’Alembert (CNRS/ Université Pierre et Marie Curie) et du laboratoire Charles Coulomb (CNRS/Université Montpellier 2), en collaboration avec des chercheurs de Princeton, ont voulu encapsuler les gouttelettes de pétrole. Pour les capturer, ils ont eu l’idée d’utiliser du sable. En saupoudrant des grains de sable au dessus de la nappe de pétrole, à l’occasion d’une marée noire par exemple, les particules de sable vont se positionner à l’interface eau/pétrole grâce aux forces de tension de surface. Sous leurs poids, les particules vont s’attirer et se rassembler sous la forme de ce que les scientifiques ont dénommé un « radeau granulaire ».
Découvrez notre pack
» Génie des procédés et protection de l’environnement «
Celui-ci déforme l’interface en la tirant vers le bas. Une fois un nombre suffisant de grains rassemblés, le radeau coule, entraînant avec lui la couche de pétrole supérieur.
Chaque goutte de pétrole étant encapsulée, l’ensemble des gouttes peut ensuite être récupérée. D’après les calculs des chercheurs, il suffirait de 100 à 500g de sable par litre de pétrole répandu. Cette approche permettrait de traiter les marées noires avec du simple sable de plage plutôt que de recourir aux dispersants ou à d’autres techniques polluantes.
Hier soir, 19h00, s’est tenue la WWDC 2013, la conférence dédiée aux développeurs ! Ils étaient plus de 6 000 à assister à l’événement.
Ce qu’il faut retenir ?
Nouvel ordinateur Mac Pro au design inédit et à la puissance augmentée
Nouveaux Macbook Air (en vente depuis hier) plus réactifs et plus autonomes : jusqu’à 12h pour la version 13 pouces
Une nouvelle version d’OSX pour les ordinateurs baptisée Mavericks : gestion plus simple de l’affichage multi-écrans, centre de notification amélioré, etc. A découvrir cet automne !
La transformation d’iOS7 : jeu de transparence dans le design, amélioration du Siri… De très nombreux changements dévoilés à la rentrée en même temps que le nouvel iPhone, on ne sait pas encore s’il s’agira de l’iPhone 5S ou de l’iPhone 6…
Et enfin l’annonce de la soirée : le lancement de iTunes Radio cet automne, le service de streaming musical d’Apple ! Comme avec Spotify ou Deezer, il sera possible de créer sa propre chaîne de radio et de s’abonner à des radios thématiques.
Découvrez la vidéo officielle de présentation d’iOS 7, le futur système d’exploitation mobile d’Apple :
Boire, manger, respirer, autant d’actions vitales qui pourraient bien devenir complexes dans les décennies à venir. En cause ? Les multiples pollutions environnementales, la diminution des ressources ou encore le réchauffement climatique.
Autant de bouleversements auxquels l’homme doit faire face s’il veut préserver sa santé et son bien-être. Car si nous vivons plus longtemps, nous devons affronter de multiples menaces.
L’Agence Européenne de l’environnement et le centre de recherche de la Commission Européenne viennent de publier un rapport qui analyse ces problématiques. On y découvre une liste impressionnante de menaces : risques chimiques, pollution de l’eau, de l’air extérieur et intérieur, nuisances sonores, exposition aux UV et aux champs électromagnétiques, OGM, nanotechnologies et évolution du climat.
Autant de dangers qui, si l’on n’y prend pas garde, pourraient bien peser sur l’avenir de l’humanité. D’autant plus que ces pollutions se cumulent avec un effet multiplicateur particulièrement complexe, aux conséquences difficiles à contrôler.
Comme le rappelle ce rapport, notre santé est liée au bon fonctionnement des écosystèmes et à la façon dont nous gérons les ressources naturelles. Par exemple, l’agriculture utilise de l’eau, de l’énergie et une quantité croissante de produits chimiques tels que des pesticides et des herbicides. Or, ces pratiques de l’agriculture intensive peuvent impacter négativement les sources d’eau, et des pesticides se retrouvent dans l’eau dite potable.
Autre exemple. L’incitation à acheter des véhicules plus économes en carburant a dopé les ventes de véhicules diesel, effectivement moins polluants en CO2 mais qui émettent une plus importante quantité de NO2 que les véhicules essence disposant d’un pot catalytique. Cette politique s’est finalement montrée polluante, avec des conséquences sur la santé de l’homme et un accroissement des cas de bronchite et d’asthme.
Pour l’EEA, les besoins en eau et en nourriture vont encore s’accentuer, avec des conséquences environnementales de plus en plus manifestes. Une évidence ? Oui, mais pour en maîtriser l’impact il devient urgent de corriger les politiques des différents gouvernements de façon à tenir compte de ces interactions, ce qui requiert une vision à long terme. Urgent enfin de considérer les liens étroits entre les ressources alimentaires, en eau ou encore en énergie avec la santé de l’homme.
Les changements en cours en Arctique sont des perturbations majeures de l’environnement. « En Arctique, les températures s’élèvent 2,5 fois plus vite que dans le reste du monde», rappelle Alain Fuchs, Président du CNRS.
La banquise, la glace et la neige arctiques reculent à des vitesses vertigineuses. « Au cours des dernières décennies, la surface couverte par la glace estivale a décliné d’environ 50 %, l’épaisseur de cette couche de glace se réduisant d’environ 40% », précise-t-il.
Un nouveau record de fonte des glaces a été observé en 2012 avec une banquise ne recouvrant plus que 3,41 millions de kilomètres carrés au16 septembre. C’est 18 % de moins que le record de 2007 qui avait pris les scientifiques par surprise !
Les pertes de glace sont plus rapides que ce que prévoyaient les différents modèles numériques. À ce rythme, la banquise pourrait complètement disparaître en été dès 2030.
Evolution annuelle de la banquise arctique entre les années 1980 et 2013. Source : Institut de Physique Environnementale (IUP) de l’Université de Brême
La glace de mer devient aussi plus vulnérable. La glace de première année prédomine, les périodes d’eau libre s’accentuent et les taux de fonte de surface augmentent. Parallèlement à la baisse de son étendue, la glace devient plus jeune et plus fine. D’après les recherches de Julienne Stroeve, du National Snow and Ice Data Center (NSIDC) à l’Université du Colorado à Boulder, en 2013, moins de 5 millions de km2 de couverture de glace (qui ne comprend pas que la banquise !) a 5 ans ou plus.
Cette part était 20 % plus élevée dans les années 1980 et le début des années 1990. Les glaces âgées qui restent, sont aussi moins épaisses qu’auparavant.
De façon plus générale, Alain Fuchs rappelle que « la couverture de neige de début d’été de l’hémisphère nord est en train de disparaître à un rythme sans précédent d’environ 18 % par décennie » et que « la calotte glacière du Groenland fond à un taux 5 fois plus important que dans les années 90, contribuant significativement à l’élévation du niveau de la mer ».
Mais les perturbations ne s’arrêtent pas là. Si « le pergélisol fond et libère des gaz à effet de serre, comme le méthane, à un rythme alarmant », il ne faut pas oublier que « de nombreux organismes vivant dans l’Océan Arctique sont très bien adaptés à un type de banquise plus épaisse et plus âgée, les rendant eux et l’écosystème arctique bien plus vulnérables aux changements », ajoute-t-il.
Maigre consolation : les changements en cours ouvrent de nouvelles perspectives économiques pour l’exploitation de la pêche, les minéraux rares, le pétrole et le gaz et le tourisme. L’ouverture d’une route maritime réduirait la distance entre l’Europe et l’Asie d’environ 25 %.
Pour comprendre l’ensemble de ces mutations, une base de données scientifique est nécessaire. C’est l’objectif de « Chantier Arctique », un programme national de recherche sur les grands enjeux scientifiques de l’Arctique en sciences de l’environnement, écologie, géosciences, sciences humaines et sociales et sciences de la santé.
Pour lancer la phase de prospective de ce chantier, un premier congrès national a été organisé du 3 au 6 juin au Collège de France. Les objectifs étaient de réunir pour la première fois toutes les disciplines impliquées en Arctique, attirer de nouveaux chercheurs et développer des approches innovantes.
Les chercheurs présents ont réalisé un premier inventaire interdisciplinaire des compétences, et des activités scientifiques en cours et projetées afin de définir les priorités de recherche et préparer la rédaction d’un livre blanc sur la recherche en Arctique. Le premier appel à propositions sera publié au deuxième semestre 2014.
Par Matthieu Combe, journaliste scientifique
Découvrez notre pack
» Génie des procédés et protection de l’environnement «
73 MW d’éolien, c’est en moyenne une seule éolienne de 3,3 MW par région (puissance aujourd’hui standard pour l’éolien terrestre). Et 88 MW de solaire, c’est 1,3 Watt par français, soit environ un millième de la puissance d’un grille-pain.
« Par rapport au premier trimestre de 2012, la puissance [éolienne] raccordée sur le trimestre a baissé de 31%. » commente le Commissariat. Concernant le photovoltaïque, « comparées au premier trimestre 2012, les puissances raccordées ont diminué de 76 % ».
Pour Arnaud Gossement, ex porte-parole de France Nature Environnement, « la loi du 12 juillet 2010 a volontairement multiplié les freins juridiques au développement des énergies renouvelables. Insécurité juridique, procédures sans fin, refus nombreux, opposition des opérateurs radars, recours des opposants, tarif d’achat gelé, appels d’offres compliqués : la situation est préoccupante et elle l’est depuis trop longtemps. » Et l’avocat spécialisé en environnement d’ajouter que « dans le même temps, une campagne de dénigrement assez efficace a été orchestrée pour porter atteinte à l’image des énergies vertes. En conséquence, nous bouchons des débouchés pour les nombreux étudiants qui souhaitaient s’orienter vers ces filières. »
Pire, alors que la France bénéficiait de panneaux solaires chinois très bon marché qui permettaient de générer de nombreux emplois non délocalisables en France, le gouvernement français a fait campagne auprès de la commission européenne pour taxer lourdement ces panneaux chinois. Une position ubuesque bien entendu dénoncée par Berlin, qui a qualifié la position française de « grave erreur ».
Du solaire et du vin
Non seulement la France pénalise les consommateurs d’électricité ainsi que les entreprises spécialisées dans l’installation des panneaux PV en France avec cette politique, mais en plus la Chine va réagir vigoureusement en visant spécialement un secteur très français : les vins et spiritueux, un domaine dont le montant des exportations européennes annuelles vers la Chine s’élève à plus d’un milliard d’euros, dont 60 % pour la France. Et c’est aussi le deuxième poste excédentaire, derrière l’aéronautique, de la balance commerciale hexagonale. Une balance commerciale globalement très négative et qu’il serait bon de veiller à ne pas aggraver…
Au final, la France va terminer perdante sur tous les plans : dégradation des relations commerciales avec la Chine, mise sous pression des producteurs viticoles, renchérissement du prix des panneaux PV qui pénalisera le pouvoir d’achat des consommateurs français, non création d’emplois dans le domaine des installateurs de panneaux PV et des bureaux d’étude associés, et non respect des engagements pris par la France en matière d’énergies renouvelables qui conduira à des sanctions européennes. Difficile de faire pire.
Qui peut se plaindre que les panneaux solaires soient très bon marché ?
En Allemagne, sur les 10 000 entreprises du secteur photovoltaïque, seules 350 sont spécialisées dans la fabrication de modules PV. Toutes les autres (9750) sont des bureaux d’étude, des installateurs, des fabricants d’onduleurs et autres matériels associés, et des revendeurs. Berlin a bien compris que des panneaux solaires chinois très bons marchés créeront davantage d’emplois locaux en Allemagne que des panneaux solaires made in Europe. Et si la Chine subventionne ses producteurs de modules PV, c’est une excellente nouvelle pour les consommateurs européens qui n’ont alors plus besoin de financer ces subventions ! Et c’est surtout une très bonne nouvelle pour la planète : la cause environnementale n’a pas de frontières. Plus les panneaux solaires seront bon marchés, plus vite aura lieu la transition énergétique.
Le gouvernement français a organisé un grand débat sur l’énergie, qui dure depuis plusieurs mois. Il y a ceux qui parlent. Et il y a ceux qui, comme les allemands, réellement motivés pour passer à de hauts niveaux de renouvelables, agissent de manière pragmatique. Dans l’ombre de cette affaire, la réalité est que l’éolien et le solaire constituent une menace très concrète et imminente pour le business du nucléaire français. Après avoir tout fait pour mettre des bâtons dans les pâles de l’éolien, la France cherche à présent à empêcher que des panneaux solaires très bon marchés soient disponibles pour les consommateurs français. Consternant.
* Olivier Daniélo est un journaliste collaborant pour les Editions Techniques de l’Ingénieur, pour la revue Systèmes solaires d’Observ’ER et créateur du blog Objectif Terre.
L’objectif du projet Hi-Lite, un projet au budget de 3,9 millions d’euros qui s’est étendu sur trois ans, était de démocratiser les méthodes formelles dans le développement de logiciels critiques en associant la vérification formelle et le test.
Le projet s’est appuyé sur l’expérience acquise pendant dix ans par Airbus pour créer des systèmes critiques en utilisant des méthodes de vérification formelles et sur les outils industriels performants déjà développés par les partenaires du projet.
Les travaux ont été financés en partie par le gouvernement français et le Conseil Général de l’Essonne et ont été réalisés en partenariat par AdaCore, Altran, Astrium Space Transportation, CEA List, INRIA Toccata et Thales Communications.
L’objectif principal de Hi-Lite était de rendre la vérification formelle plus rapide et facile d’utilisation pour les projets de grande taille impliquant plusieurs langages de programmation, et soumis à des critères de certification.
Le projet a rempli cet objectif. « Hi-Lite nous a permis d’adapter des technologies de pointe développées dans les Universités à une utilisation industrielle », a déclaré Yannick Moy, responsable du projet Hi-Lite chez AdaCore. « Le projet a montré que la vérification formelle peut remplacer ou compléter les activités de test et jouer un rôle prédominant dans la vérification des logiciels critiques ».
Le test est une activité consommatrice de temps et de ressources, notamment lorsque le logiciel doit se conformer aux standards tels que le DO-178B ou sa nouvelle version DO-178C pour les systèmes avioniques civils (qui sont utilisés par les organismes de certification comme le FAA, EASA et Transport Canada). Alors que les systèmes critiques continuent à croître en taille et en complexité, les méthodes formelles comme celles qui ont été utilisées dans le projet Hi-Lite apportent une solution économique faisant diminuer le recours au test, accélérer le développement de projets et faciliter la certification des systèmes.
Ces techniques sont spécialement pertinentes dans un environnement DO-178C, à la lumière du supplément pour les méthodes formelles (DO-333) qui apporte des indications sur la façon dont l’analyse formelle s’intègre dans le processus de vérification.
Le projet Hi-Lite a produit les premiers outils intégrant le test et la vérification formelle pour les programmes Ada et C. Il s’agit des outils SPARK pour Ada et de la plate-forme Frama-C pour C. Ces deux technologies s’appuient sur les outils de preuve de programmes développés par l’INRIA, partenaire du projet Hi-Lite.
Les avancées pratiques et théoriques résultant de ce projet et de ces outils ont été publiées dans plus de trente conférences et journaux internationaux, parmi lesquels Embedded World et IEEE Software. L’utilisation des outils et de la méthodologie du projet a été expliquée et publiée sous forme d’études de cas par les partenaires Astrium Space Transportation et Altran.
Une conséquence immédiate du projet Hi-Lite est que les méthodologies développées sont actuellement utilisées par AdaCore et son partenaire Altran pour façonner la nouvelle version du langage SPARK, connue sous le nom de SPARK 2014. SPARK, un sous-ensemble d’Ada complété par des annotations qui formalisent différentes propriétés des programmes, est un langage de programmation reconnu pour faciliter la création de logiciels devant atteindre les plus hauts niveaux de sûreté et de sécurité.
SPARK est le seul langage de programmation moderne conçu avec comme premier objectif une vérification statique sûre. L’utilisation du langage SPARK est liée à la boîte à outils SPARK Pro, composée du langage et des outils de vérification SPARK d’Altran et de l’environnement de développement GNAT Programming Studio (GPS) d’AdaCore.
SPARK Pro permet de prévenir, détecter et éliminer les défauts très tôt dans le cycle de vie du projet, lors du développement du code source. Les technologies développées dans le projet Hi-Lite seront entièrement intégrées dans les outils SPARK Pro pour les rendre conformes à SPARK 2014. Plus d’informations sur la disponibilité prochaine de la version SPARK 2014 à l’adresse : http://www.spark-2014.org
AdaCore, fournisseur de solutions logicielles commerciales pour Ada, un langage de programmation de pointe conçu pour des applications de grande taille.