Le microrobot bisontin : Désormais double champion du monde de vitesse

Il y a un an de cela, le microrobot bisontin « MagPieR » (voir photo ci-dessous) avait fait sensation en décrochant, lors de sa première participation, le titre de champion du monde et un record du mondial de vitesse face aux microrobots des plus grandes universités du monde entier. Les chercheurs de l’équipe française, issus de l’institut FEMTO‐ST et des instituts parisiens ISIR et LPN, ont ainsi réussi l’exploit de confirmer leur suprématie dans une nouvelle épreuve encore plus ardue que l’année dernière. Alors que la précédente épreuve consistait en un sprint en ligne droite, cette année « le robot devait parcourir un chemin déterminé dans un petit labyrinthe avec des portes d’un demi-millimètre de large dans une aire de jeu de 3,5 mm x 2 mm », précise Alex Ivan, le principal inventeur de ce microrobot.

Un robot dix mille fois plus petit qu’une voiture

« The French Team », telle que surnommée à Shanghai, a ainsi objectivement écrasé la compétition en réalisant le parcours dans un temps record de 1,86 secondes contre 23 secondes pour l’université d’Hawaii, classée en deuxième position à l’issue de ce challenge.

Le plus des français : un robot complètement automatique

« Notre force, cette année, est d’avoir rapidement développé un robot complètement automatique capable de se déplacer sans intervention humaine », soulève Mohamed Kharboutly, membre de l’équipe, qui est resté à Besançon. En effet, les autres concurrents ont dû piloter le déplacement de leur robot par joystick alors que le robot français fonçait dans le labyrinthe à toute vitesse sans intervention humaine. Pas étonnant, puisque le développement de microsystèmes possédant plusieurs fonctions (multi‐physiques) est l’une des forces de l’institut FEMTO‐ST sur l’échiquier international de l’innovation et de la recherche.

Une belle victoire démontrant le niveau international des chercheurs français

La compétition entre les sept équipes a eu lieu, en ce mercredi 11 mai 2011 à Shanghai, avec un peu plus de pression que l’année dernière puisque les français étaient là pour défendre leur titre. Cette victoire montre que nos chercheurs nationaux sont en bonne place dans la course à l’innovation, source des produits de demain. Ces résultats, sur la commande à haute vitesse de microrobots, ouvrent déjà des applications dans l’assemblage rapide de composants électroniques, projet dans lequel est impliqué l’institut FEMTO‐ST, ou même à plus long terme, dans la manipulation et la production de cellules biologiques à très haute vitesse. Dès son retour à Besançon, le microrobot, double champion du monde, sera l’invité vedette de l’évènement « le Robot fait son show » qui aura lieu à l’ENSMM (École Nationale Supérieure de Mécanique et des Microtechniques) le 21 mai 2011.

 

Déjà paru :

Les limites de l’approche top-down

L’approche descendante, « top-down », implique la conception du produit dans ses grandes lignes, puis itérativement de s’intéresser à des détails de plus en plus fins. Appliquée aux domaines des technologies, cette approche est notamment utilisée dans le domaine des circuits intégrés, ou évidemment dans celui des nanotechnologies. Cette déclaration soulève une question essentielle eut égard aux milliards de dollars déversés dans le secteur des nanotechnologies chaque année, dans l’espoir que la toute dernière technologie développée en laboratoire puisse marquer la transition vers un produit manufacturable et disponible sur le marché.

Les nanotechnologies sont construites sur la possibilité de contrôler et de manipuler la matière au niveau atomique et moléculaire, et ont des applications d’une portée considérable telles que la diffusion de médicaments dans le corps humain, l’amélioration de l’efficacité des panneaux solaires et l’évolution des méthodes d’emballage de nourriture. L’introduction des nanotechnologies sur le marché a pour finalité la baisse des prix, la production à haut volume mais dans le même temps les propriétés du matériau doivent pouvoir être tout à fait reproductibles dans une limite prédéfinie, que Kelly voit autour de 3 nanomètres.

L’approche top-down liée à la fabrication en série, que Kelly pense limitée, utilise des outils extérieurs pour couper et façonner de plus gros matériaux, aux caractéristiques précises. L’approche alternative, dite ascendante, « bottom-up », implique l’assemblage de petites unités afin d’élaborer le matériau complet, comme pour un puzzle, bien que ce procédé lui paraisse trop imprévisible.

A titre d’exemple, il évoque l’évaluation statistique de nanocolonnes développées pour intégrer des capteurs, et constate que lorsqu’un matériau d’une telle taille est produit industriellement, de nombreuses variations apparaissent dans la taille des différents composants, ayant pour conséquences de trop nombreuses variations et altérations dans les propriétés.

« Si j’ai tort et qu’on me présente un contrexemple à ma théorie, de nombreux scientifiques seraient rassurés pour leurs travaux en cours, et c’est bon pour la Science », conclut-il.

Moonzur Rahman

 

Déjà paru :

Le cahier « Nanotechnologies » des Instantanés Techniques :

Guide des nanotechnologies 2011 :

Les égouts bloqués par… du savon !

Ces dépôts agglomérés et durcis, qui peuvent ressembler à des stalactites, encombrent les canalisations d’égouts. « Nous avons découvert que ces dépôts sont créés par des réactions chimiques transformant les acides gras, essentiellement, en un gros morceau de savon. », explique le Dr. Joel Ducoste, professeur d’Ingénierie civile et environnementale à l’Université de Caroline du Nord et coauteur de la recherche.

Les systèmes de collecteurs sont composés des tuyaux et des stations de pompages qui emmènent les eaux usées vers les stations d’épuration. Les dépôts réduisent le débit des eaux usées, allant jusqu’à provoquer le bouchage des conduits, dont la réparation est malaisée et chère.

Les deux chercheurs se sont servis d’une technique appelée la spectroscopie infrarouge à transformée de Fourier, mesurant l’acquisition de spectres infrarouges, et permettant de déterminer de quoi ces dépôts étaient composés au niveau moléculaire. Les liaisons moléculaires réagissent à différentes longueurs d’ondes infrarouges, ce qui permet avec un tableau d’équivalence de connaître la composition moléculaire des dépôts, à savoir des sels d’acides gras sur base calcium, autrement dit une forme de savon.

Le glycérol et les acides gras réagissent avec le calcium, créant les dépôts. Ce qui intéresse nos deux chercheurs est donc de savoir d’où provient ce calcium, et à quelle vitesse se forment les dépôts, afin d’établir un modèle numérique prédictif qui permettrait d’établir des « zones à risques » susceptibles d’être sujettes à ces blocages, et d’encadrer la politique décisionnelle au niveau local et national.

Par Rahman Moonzur

Vers une charte éthique des biocarburants

Le professeur Joyce Tait, titulaire de la Chaire de Bioéthique et Biocarburants du Nuffield Council, et Conseillère scientifique pour le Centre Innogen à l’Université d’Édimbourg, en Écosse, fait le compte rendu des propositions faite par le Council concernant le développement détaillé de standards éthiques pour les biocarburants. Ces normes devraient aborder six principes éthiques entourant la production de biocarburants, tels que la protection des Droits de l’Homme, la viabilité environnementale, la réduction d’émission de gaz à effet de serre, ou encore le respect du commerce équitable. Sans ces principes pour cadre, on peut s’inquiéter que cette course effrénée aux biocarburants ne devienne trop agressive et puisse aussi bien dégrader l’environnement que bafouer les Droits de l’Homme.

D’après le professeur Tait, « les biocarburants sont l’une des seules alternatives renouvelables pour les carburants servant au transport, tels que le pétrole ou le diesel, mais les politiques actuelles,  dont le but est d’encourager leur consommation ont eu l’effet inverse que celui escompté ». Elle ajoute : « L’expansion rapide de la production de biocarburants dans les pays en voie de développement a mené à des problèmes tels que la déforestation ou le déplacement de peuples indigènes.

Nous désirons établir une stratégie plus sophistiquée qui prendrait en considération les conséquences à plus large échelle de la production de biocarburants ».

Le professeur Tait remarque que le Nuffield Council préconise l’adoption rapide et au niveau international de toutes ces normes éthiques, ainsi que son renforcement par un plan de validation. Ces principes pourraient aussi servir de modèle et de référence pour des produits ou des technologies similaires.

Par Rahman Moonzur

Déjà paru :

« Lumiwatt », centre de test solaire photovoltaïque unique au monde

La filière photovoltaïque connait une croissance forte dans les zones à fort ensoleillement, mais reste faible dans les zones à ensoleillement modéré. Pourtant, avec un ensoleillement similaire à celui de la région Nord-Pas-de-Calais, l’Allemagne concentre plus de la moitié des installations photovoltaïques mondiales et développe une filière forte sur ces technologies.

Forte de ce constat, la région Nord-Pas-de-Calais, qui représente 15 % des investissements français sur l’environnement et réunit près de 200 entreprises actives sur ce secteur, a, via le CD2E (Création Développement d’Eco-Entreprises), souhaité fédérer les acteurs économiques, techniques et scientifiques régionaux et les aider à participer à la croissance de ce marché comme à l’évolution de ces technologies.

Ainsi, est né le projet LumiWatt qui a donc pour mission de favoriser le développement du photovoltaïque dans les zones moins ensoleillées et développer des connaissances et savoir-faire pertinents au-delà du modèle économique actuel.

LumiWatt, qui vient d’être inauguré, est un centre de test et de formation sur le solaire photovoltaïque, porté initialement par le CD2E, EDF, Forclum-Eiffage, la ville de Loos-en-Gohelle et le Communaupole de Lens-Liévin. Cette plate-forme réunit 22 installations de 3 kWc équipées d’une instrumentation spécifique pour étudier le comportement des installations en fonction des conditions météorologiques réelles. Elle comprend :

  • des structures fixes pour 10 technologies ;
  • des trackers 1 axe pour 10 technologies ;
  • des trackers 2 axes pour 2 technologies (polycristallin et monocristallin) ;

ainsi que :

  • un tracker 2 axes vide et pré-équipé pour des tests/essais de systèmes photovoltaïques ;
  • un espace de comparaison de performances de modules, avec ou sans isolation (polycristallin).

Des tests et des essais vont être pratiqués sur les différentes technologies photovoltaïques (silicium cristallin, poly-cristallin, amorphe, hybride, couche mince) afin de comparer leurs performances, d’analyser les résultats et de proposer des solutions innovantes et adéquates. Ces résultats contribueront au développement de l’intelligence sectorielle et permettront une diffusion large des informations issues du retour d’expérience.

LumiWatt veut faire du Nord-Pas de Calais une région pionnière et modèle en permettant le développement d’activités économiques et de R&D et en favorisant l’usage des technologies photovoltaïques en Europe. Il a pour objectifs :

  • l’amélioration des compétences par l’organisation de formations techniques et pratiques ;
  • le développement des acteurs de la filière (innovation et expertise) ;
  • la réalisation de tests techniques ainsi que l’étude et la comparaison des différentes technologies installées ;
  • le développement des réseaux professionnels ;
  • la sensibilisation du public (professionnel et privé).

« Si le photovoltaïque donne satisfaction dans le nord, cette technologie pourra être mise en place partout en France », rappelle Etienne Corteel, Délégué Régional EDF, qui est membre fondateur de l’association LumiWatt et lui apporte son soutien financier et son expertise pour la réalisation et l’exploitation de la centrale.

 

Déjà paru :

 

Informatique et écologie : quel rapport ?

Avouons-le, jusqu’à présent, le secteur informatique pensait échapper à la préoccupation écologique. Avec, du côté des matériels, une absence de rejet de CO2 et, du côté des logiciels, des produits immatériels, écologiques par nature, il se croyait quasiment exempt de toute réflexion sur le sujet.

Pourtant, informatique ne rime pas vraiment avec écologie. Des déchets électroniques en croissance perpétuelle (6 millions de tonnes en Europe cette année). Des produits (ordinateurs, téléphones…) qui polluent, qui chauffent, qui consomment énormément d’énergie. Des matériels qui ne sont pas recyclables, qui utilisent des substances dangereuses ou qui envoient des radiations électromagnétiques. Des équipements, fréquemment renouvelés qui, une fois obsolètes, sont jetés sans la moindre précaution… Le réveil qui s’annonce risque de se montrer fort pénible.
Après une prise de conscience tardive, la course à la bonne conscience

L’époque de l’inconscience semble effectivement disparaître. À cela, plusieurs explications. Il y a d’abord les discours, les rapports écrits, les actions symboliques qui sont de plus en plus largement relayés par les médias et poussent les entreprises du monde informatique – y compris les plus récalcitrantes – à prendre conscience des multiples dangers qui menacent l’environnement.

Un exemple phare, le tapage médiatique autour de l’étude d’août 2006 de Greenpeace portant sur les efforts fournis par les entreprises de l’industrie électronique pour préserver l’environnement. À la clé : un tableau des bons et des mauvais élèves. Ce classement très médiatisé a fait réagir la plupart des mauvais élèves qui ont tenté de se justifier par voie de presse ou sur leur site Internet. On voit bien là que l’impact négatif de tels documents auprès des consommateurs n’est plus pris à la légère.

Une législation de plus en plus contraignante

Reste que ces actions, aussi médiatiques soient-elles, ne se suffisent pas à elles seules. Les beaux discours ont un impact limité. C’est là qu’intervient le législateur. Et son message se veut de plus en plus ferme en matière d’écologie. Ainsi, une belle palette de directives européennes transposées en droit français oblige aujourd’hui les entreprises à changer leurs attitudes.

Deux d’entre elles sont sous les feux des projecteurs : la ROHS (Restriction Of Hazardous Substances) et le recyclage des DEEE (Déchets d’Équipements Électriques et Électroniques).

Quand l’écologie prend sa place dans la stratégie business

Impossible de reculer, les entreprises sont désormais obligées légalement de prendre en considération les enjeux environnementaux liés à leur métier.

Outre le fait qu’il faille acheter plus propre, produire plus propre, voire même dans le cas des DEEE, récupérer ses produits pour les recycler après les avoir vendus, il faut de plus être capable d’identifier précisément ce qu’on consomme, en quoi on pollue, et communiquer institutionnellement sur ces éléments (une obligation pour les sociétés cotées qui est dictée par la loi française relative aux Nouvelles Régulations économiques).

Comment faire face à la nouvelle donne ? Parmi les solutions, nombre d’entreprises ont presque naturellement mis à contribution leur direction informatique pour trouver globalement les moyens de gérer l’enjeu écologique. Bien sûr, il n’est pas du tout question de faire retomber tout le problème sur les seules épaules du DSI, mais à l’évidence, on estime qu’il a un rôle à jouer. Un rôle sur lequel il est utile de réfléchir dès aujourd’hui…

Green IT

Tout bon DSI éco-responsable est tenu d’anticiper, planifier, organiser le phénomène en cours. Mais aujourd’hui, peu de DSI cherchent à faire la corrélation entre leurs décisions stratégiques en matière de technologies informatiques et la planète en danger.

Pourtant, le discours change peu à peu : dans la presse, quelques DSI prennent la parole et souhaitent convaincre du fait qu’il y a un intérêt économique à promouvoir les « green IT ». À ce titre, un universitaire américain spécialiste du sujet expliquait récemment en quoi les entreprises intelligentes pouvaient utiliser des stratégies écologiques pour innover, créer de la valeur et trouver un avantage compétitif.

Il donnait l’exemple de HP qui a su, à temps, réagir à la concurrence de quelques acteurs qui menaçaient son marché fort lucratif des cartouches d’encre pour imprimante en proposant des consommables recyclés à moitié prix. HP s’est lancé à son tour dans le recyclage de ses cartouches et en a profité pour améliorer sensiblement ses marges.

Des constructeurs rappellent aussi que certaines matières premières ne sont pas éternelles et que chercher à les récupérer après usage vaut la peine : un exemple, une tonne de cartes broyées peut être vendue jusqu’à 1 500 euros pour en valoriser l’argent, l’or et le palladium… De là, l’utilisation d’une formule choc qui semble qualifier les nouveaux alchimistes : « Turn green to gold ».

L’informatique : problème et solution ?

La prise de conscience du danger est bien là. Mais, paradoxalement, si les déchets informatiques et électroniques sont au coeur du problème car ils ont contribué à polluer la planète, ce sont sans doute les mêmes matériels électroniques qui vont aider à la rendre plus propre.

En effet, la simulation, la traçabilité et l’optimisation qui sont nécessaires pour produire, consommer et recycler plus propre reposent sur des technologies informatiques plutôt avancées…

Par Marie-Pierre Alizay, ingénieur documentaliste à Documental / Journal du Net

Lorsque la littérature s’empare de sujets techniques

La littérature semble s’être emparée depuis quelques temps de problématiques propres au monde du travail et de sujets scientifiques et techniques. Plusieurs notes de ce blog en témoignent.

Dans La Centrale, Élisabeth Filhol réalise la synthèse de ces deux tendances, en s’intéressant au quotidien des intérimaires dans les centrales nucléaires. Elle nous raconte les conséquences immédiates d’un dépassement de seuil d’irradiation lors d’une opération de maintenance pour l’un de ces travailleurs : suspension de mission, visites chez le médecin, reconstitution de l’incident…

Nous découvrons comment s’organise la vie très particulière de ces travailleurs itinérants, toujours entre deux missions, entre deux centrales, les relations qui se nouent entre eux, dans la banalité de la vie quotidienne, et dans l’exceptionnel de l’incident.

Ce sont probablement les passages les plus touchants, les plus efficaces de ce roman, ceux où l’auteur a le plus pu broder une trame fictionnelle.

Enfin, elle décrit la centrale, son fonctionnement, les réactions nucléaires en jeu, les mécanismes de sûreté nucléaire. La centrale apparaît comme un personnage à part entière ; personnalisée, elle est décrite comme un organisme vivant – « L’eau de la Loire coule dans ses veines » – mais inquiétant, « imposant mais paisible », où la menace paraît sous contrôle mais néanmoins bien présente.

Pour la description et la compréhension plus approfondies des phénomènes scientifiques ou des aspects technologiques du secteur nucléaire, nous ne pouvons qu’inviter le lecteur à compléter ses connaissances en consultant la base documentaire Génie nucléaire sur notre site. Car, bien que ces aspects soient évoqués, le cœur de ce roman reste l’humain.

Par A.M

Références : Élisabeth FILHOL, La Centrale, P.O.L., janvier 2010, ISBN 978-2-84682-342-5

Joly, Hulot, Cohn-Bendit et Bové réclament un référendum sur le nucléaire

C’est dans une tribune publiée vendredi dans Le Monde, et co-signée par chacun d’entre eux, que les candidats à la primaire d’EELV (Europe Ecologie-Les Verts) Eva Joly et Nicolas Hulot, ainsi que les eurodéputés José Bové et Daniel Cohn-Bendit, ont clarifié leur position concernant la question du nucléaire en France : « De Tchernobyl à Fukushima, il semble que nous n’ayons rien appris. Car le débat principal (…) est escamoté. Le seul débat qui devrait avoir lieu dans ce pays, c’est celui de savoir si oui ou non les Français veulent assumer collectivement (le) risque » du nucléaire, estiment les signataires.

Ainsi, les acteurs phares de la politique écologique demandent à ce que soit posée « formellement », aux français, la question suivante : « Voulez-vous renouveler le parc nucléaire national par la prolongation ou la construction de centrales ? ». « Si le non est majoritaire, la sortie progressive du nucléaire s’imposerait », ajoutent-ils.

Ils concluent :  « Nous défendons la fermeture immédiate des centrales les plus obsolètes et situées en zones à risque, comme Fessenheim, l’arrêt du chantier EPR de Flamanville et le non-renouvellement des centrales sur la base de leur durée de vie actuelle. »

Samedi, la question de la sortie du nucléaire sera abordée lors du parlement d’Europe Ecologie-Les Verts.

 

C.H.

 

Retrouvez la tribune dans son intégralité sur le site du Monde  : « Un référendum sur le nucléaire en France  ! »

 

DÉJÀ PARU :

La sûreté nucléaire en France, au centre des débats

Un audit va être réalisé sur le parc nucléaire français

Une mini-centrale nucléaire sous-marine en 2017 ?

Nucléaire : il n’y a pas de risques de prolifération avec les réacteurs actuels

Internet sera-t-il toujours aussi résilient ?

L’ENISA (European Network and Information Security Agency), agence européenne de la cyber-sécurité, vient de publier un nouveau rapport sur la résilience (cf. encadré) de l’« écosystème » des interconnexions Internet. Plus précisément, ce rapport se focalise sur l’« écosystème » complexe des couches réseaux interconnectées qui composent Internet. Il identifie un certain nombre de préoccupations et recommande le réexamen des incidents par un organisme indépendant, afin de comprendre la nature des réussites et des échecs.

Jusqu’à présent, Internet s’est montré extrêmement résilient. Même des catastrophes majeures telles que celle du « 11 septembre » n’ont eu qu’un impact au niveau local. Mais est-ce que cela va durer ? Aujourd’hui, une défaillance systémique d’Internet causerait des problèmes significatifs pour plusieurs secteurs, notamment l’énergie, les transports, les finances, la santé et l’économie.

Par ailleurs, l’indisponibilité intentionnelle et unilatérale d’Internet représente une réelle menace pour le bien-être social et économique, et peut sévèrement affecter le droit d’accès des citoyens à des informations et des services comme les récents faits saillants de la Communication commune COM(2011) 200 « A partnership for democracy and shared prosperity with the southern mediterranean » de l’Union Européenne.

Les mécanismes actuels de résilience seront-ils efficaces à l’avenir ?

Internet ne dispose d’aucun centre d’opérations réseau. Certes, son organisation ouverte et décentralisée est l’essence même de cet « écosystème » et elle est indispensable à la réussite et à la résilience d’Internet. Il reste toutefois un certain nombre de préoccupations :

  • Internet est vulnérable aux risques et défaillances techniques, aux cyber-attaques et aux perturbations simultanées. Le service pourrait être considérablement perturbé par d’autres défaillances, telles que des pannes d’électricité ;
  • la taille et la forme de l’infrastructure Internet ainsi que ses opérations au quotidien sont très mal connues ;
  • la fiabilité et l’économie peuvent interagir de façons potentiellement malveillantes, conduisant à une possible « tragédie des biens communs » pour l’« écosystème » des interconnexions.

« La stabilité d’Internet est cruciale pour l’économie des sociétés modernes. Nous devons donc vérifier que les mécanismes de résilience qui sont en place aujourd’hui seront également efficaces dans les crises qui éclateront à l’avenir », a déclaré le Professeur Udo Helmbrecht, Directeur Exécutif de l’ENISA.

Ce rapport vérifie si les mécanismes de résilience qui sont en place seront également efficaces à l’avenir. L’ENISA propose un certain nombre de recommandations pour s’en assurer comme, par exemple :

  • des études des incidents qui doivent être menées par un organisme indépendant afin de comprendre la nature des réussites et des échecs ;
  • une nécessaire recherche majeure, notamment dans le routage inter-domaines, l’ingénierie de trafic, la priorisation et la redirection de trafic, en particulier pendant une crise ;
  • de bonnes pratiques qui doivent être identifiées et respectées, notamment en ce qui concerne la fourniture de services divers (pluralisme), les pratiques d’audit et les tests indépendants d’équipements et de protocoles.

 

Définition > résilience

En informatique, la « résilience » est la capacité d’un système ou d’une architecture réseau à continuer en cas de panne ou de sollicitation extrême.

Finch, robot programmable ludique

Finch, un petit robot en plastique blanc à deux roues, ayant plus ou moins les caractéristiques physiques d’un oiseau, pourrait radicalement changer l’apprentissage en classe des élèves en informatique. Équipé de capteurs de température et de lumière, de haut-parleurs, de diodes multicolores et d’un accéléromètre sur trois axes, comme celui que l’on trouve sur la console Wii, Finch peut être facilement programmable et ainsi transformé en réveil ou en souris 3-D. Il peut aussi servir à dessiner et peut danser, parmi quelques unes de ses capacités.

« Les élèves sont plus intéressés et plus motivés lorsqu’ils sont en mesure de travailler avec un instrument interactif, et créer des programmes qui fonctionnent dans leur monde », raconte Tom Lauwers, le créateur de Finch, qui enseigne à l’Institut de Robotique de l’Université américaine de Carnegie Mellon, à Pittsburgh, en Pennsylvanie. « Nous l’avons équipé de capteurs et de mécanismes qui stimulent la vue, l’ouïe, autant de sens que possible ».

L’université prévoit d’utiliser ce robot gonflé en accessoires pour enseigner comment programmer un ordinateur aux élèves en informatique, espérant retenir l’attention de ces enfants accoutumés aux gadgets high-tech, ayant eu accès dès leur plus jeune âge à des ordinateurs perfectionnés, des consoles ou des smartphones dernier cri. Souvent, ils arrivent à l’université et se retrouvent à écrire des programmes terre à terre faisant des tâches prosaïques, ce qui pouvait être excitant il y a une vingtaine d’années lorsque les ordinateurs étaient capables de peu de choses, mais plus vraiment maintenant.

Finch, développé par la start-up de Lauwers, BirdBrain Technologies, peut être acheté en ligne pour 99 $, et supporte pour le moment les langages Java et Python, bien que d’autres langages soient en préparation. L’équipe de Lauwers travaille même sur un langage graphique permettant aux enfants d’écoles primaires de programmer Finch. Voici une petite vidéo de description, en anglais :

Par Rahman Moonzur

Déjà paru :

L’électricité pourrait aider à contrôler la polymérisation

Dans un procédé innovant appelé polymérisation radicalaire par transfert d’atomes contrôlée électrochimiquement (eATRP), les chercheurs menés par l’éminent chimiste Krzysztof Matyjaszewski, de l’Université Carnegie Mellon, à Pittsburgh, en Pennsylvanie, ont utilisé une batterie contrôlée par ordinateur pour appliquer un potentiel électrique pendant la réaction. Ils se rendirent compte que cet ajout d’électricité tirait partie de la réaction d’oxydoréduction en modérant le transfert d’électrons, leur permettant pratiquement d’avoir un contrôle en temps réel sur la réaction.

La polymérisation radicalaire par transfert d’atomes (ATRP), développée par Matyjaszewski en 1995, permet de former facilement des polymères de grande masse moléculaire en assemblant des monomères de manière contrôlée, et de faible indice de polymolécularité (un indice égal à 1 correspond à un polymère « parfait », où toutes les macromolécules le composant seraient de même longueur). Le catalyseur permettant de contrôler la polymérisation est composé d’un métal de transition, comme le cuivre, fournissant un équilibre entre une forme active (qui se propage) du polymère et une forme inactive du polymère, autrement appelée forme dormante, qui est favorisée lors de cet équilibre, supprimant de fait les réactions secondaires.

L’ATRP est utilisée dans la création de cosmétiques, de revêtements, d’adhésifs, ainsi que dans la création de matériaux intelligents, s’adaptant à leur environnement.

Oxydoréduction du cuivre

Auparavant, les problèmes d’équilibre dans la réaction étaient résolus par l’ajout d’ion cuivre I, (Cu+) servant d’activateur, pour contrebalancer l’accumulation d’ion cuivre II (Cu2+) dans la réaction d’oxydoréduction entre les deux types d’ions cuivre. Cet ajout générait des matériaux avec un niveau élevé voire toxique de cuivre allant jusqu’à 5000 ppm (parties par million, rapport de 10-6 ), difficile à abaisser sans techniques lourdes et polluantes.

« Nous avons découvert qu’en ajustant le courant et le voltage, nous pouvions ralentir et accélérer, ou même démarrer et stopper la réaction à volonté. Cela nous permettra de profiter de plus de flexibilité dans la conduite des réactions, ce qui devrait aboutir au développement de matériaux plus spécifiques et spécialisés, aux débouchés plus précis car conçus avec beaucoup plus de précision. », explique le professeur Matyjaszewski.

Cette étude n’est que le dernier maillon d’une série d’avancées faites par l’équipe du professeur Matyjaszewski, dans l’espoir de rendre leur technique d’ATRP encore plus précise et encore plus respectueuse de l’environnement, travail qu’ils sont en passe d’accomplir.

Rahman Moonzur

Déjà paru :

Gaz de schiste : pour ou contre ?

POUR

Max Falque est consultant, spécialiste des problèmes d’environnement, et auteur de nombreux ouvrages sur le sujet. Il dirige le centre d’analyse économique de l’Université Paul-Cézanne à Aix-en-Provence, le groupe d’Étude Droits de Propriété et Environnement (GEDPE), et l’International Center for Research on Environmental Issues (ICREI).

« Les informations les plus récentes laissent à penser qu’il s’agit  d’une énorme nouvelle source d’énergie, comme si on avait découvert une ou plusieurs Arabie Saoudite, mais présente sur tous les continents et donc susceptible de bouleverser la géopolitique énergétique. Les enjeux sont tels qu’il vaut mieux voir les choses en face : ne pas s’opposer systématiquement et considérer le gaz de schiste non comme un inconvénient mais comme une chance

Nous risquons en France de nous trouver dans une situation comparable à celle des OGM. Astérix résiste désespérément en s’interdisant une avancée technologique et économique… tout en important des aliments OGM en provenance du monde entier. C’est la double peine, fruit empoisonné du « principe de précaution » malheureusement introduit dans notre constitution au même titre que la Déclaration des droits de l’homme et du citoyen de 1789.

Pour autant, il faut raison garder : on ne connaît pas encore la rentabilité du gaz de schiste car la technologie est très récente ni la réalité des impacts environnementaux. Cependant, aux États-Unis, les sociétés qui les exploitent, sans aucune subvention, gagnent beaucoup d’argent et la multiplication des permis de recherche en France constitue des indications.

La procédure de l’étude d’impact sur l’environnement est précisément au service de la rationalité de la décision.

[…]

La levée de boucliers en France est d’ordre esthétique, environnementale, et économique. Les personnes qui résident dans les zones d’exploitation, auront tout à perdre. En droit français, les ayant droits et notamment les propriétaires n’ont aucun droit sur les ressources du sous-sol. Autrement dit,un agriculteur sera exproprié au prix du terrain agricole mais n’aura pas d’intéressement à l’exploitation d’une ressource dont il n’est pas propriétaire, en fonction du Code minier de 1810. La « Common Law » au contraire  qui régit les pays de droit anglo-saxon, prévoit que le propriétaire possède le sous-sol jusqu’au centre de la terre, et sur la colonne d’air, jusqu’au ciel… à l’exception notable de la navigation aérienne (et cela a du faire l’objet d’arrêts de la Cour Suprême aux États-Unis) ! Le respect du droit de propriété permet aussi au propriétaire de s’opposer à toute exploration au titre de ses préférences pour l’environnement.

S’il y avait une indemnisation qui reste à définir – Claude Allègre propose un intéressement à hauteur de 5 % sur le chiffre réalisé pour les propriétaires de terrains – il est évident que le niveau d’opposition baisserait d’intensité comme on peut le constater en Pennsylvanie.

www.atlantico.fr, 13 avril 2011

CONTRE

Nicolas Hulot, candidat à l’élection présidentielle 2012 et aux primaires de l’écologie, et fondateur de la Fondation Nicolas Hulot.

« Les gaz de schiste ne peuvent résoudre la crise énergétique et représentent une fuite en avant dangereuse pour l’environnement et les équilibres climatiques.

L’exploitation des gaz de schiste fait peser sur de vastes territoires des risques environnementaux et sanitaires : utilisation de grandes quantités d’eau, pollutions causées par les produits chimiques utilisés, nuisances liées aux multiples puits nécessaires et aux passages incessants de camions. Par ailleurs, les gaz de schiste, comme les pétroles non conventionnels, aggravent la crise climatique car leur exploitation émet davantage de gaz à effet de serre que celle des énergies fossiles conventionnelles.

Loin de nous amener vers une plus grande indépendance énergétique, les gaz de schiste seront un frein pour aller vers les solutions viables et durables que sont la sobriété, l’efficacité énergétique et les énergies renouvelables. Pour réduire notre dépendance et assurer l’avenir, la priorité doit être donnée à l’isolation des bâtiments, au développement des transports collectifs et alternatifs, à de nouvelles formes d’urbanisation qui rapprochent les lieux de travail des lieux de vie.

Nous devons dès maintenant entamer la transition vers des sociétés plus sobres et plus équitables, améliorer l’efficacité énergétique, réduire nos consommations d’énergie fossile et abandonner l’idée de recourir aux gaz de schiste qui constituent une voie du passé. »

www.2012hulot.fr

POUR

Eric Zemmour, journaliste politique, chroniqueur et écrivain.

« La France rejoue donc l’affaire des OGM. Le principe de précaution tourne au refus de la Science. […] C’est l’idée même du progrès qui est rejetée, la Science ostracisée. On ne se dit pas qu’elle peut encore améliorer ses méthodes, trouver un moyen ingénieux de pomper sans polluer. On préfère lui couper les ailes avant même qu’elle ne prenne son envol. Pourtant, la France fut jadis ce pays de la Raison, qui adulait Pasteur et Marie Curie, et avait inventé la mongolfière, l’avion, et l’automobile. Mais c’était il y a fort longtemps. »

« Z comme Zemmour », chronique quotidienne sur RTL, dans la matinale de Vincent Parizot.

CONTRE

André Picot est président de l’association ATC (Association Toxicologie Chimie), directeur de recherches honoraires CNRS, et expert français honoraire auprès de l’Union européenne pour les produits chimiques en milieu de travail.

« Dans les eaux usées rejetées lors de la fracturation, apparaissent de nombreux sels hydrosolubles, entraînés lors de la lixivation des différentes couches géologiques traversées lors de la remontée des fluides. Beaucoup de ces éléments sont toxiques pour l’Homme, dont certains très toxiques (As, Ba, Cd, Pb,…)…

La majorité des composés chimiques repérés dans les fluides de fracturation hydraulique d’exploration et d’exploitation des huiles et gaz de schistes ou hydrocarbures de roche-mère, sont pour l’essentiel des xénobiotiques, dont plusieurs sont très toxiques. Il est évident que ces éléments naturels qui enrichissent l’eau de sortie des puits de fracturation, sont autant de polluants, qui vont perturber les stations d’épuration, classiquement saturées dans ces zones d’extraction.

Comble de difficultés, ces eaux rejetées, peuvent aussi concentrer des éléments radioactifs comme le radium 222, qu’il est pratiquement impossible d’éliminer.

Tous ces risques toxiques à plus ou moins long terme, ne doivent pas faire oublier les éventuels risques d’explosions et d’incendies, liés à la présence dans l’eau de sortie de gaz en particulier du méthane extrêmement volatil et très inflammable.

Il semble parfaitement acquis que les dangers écologiques, sont bien plus considérables que les retombées économiques, pourtant très rentables pour les pétroliers et accessoirement pour les populations locales. »

 

Extraits du premier rapport toxicochimique français sur la composition des produits utilisés lors de la fracturation hydraulique sur les sites de forage, envoyé le 3 mai 2011 à François Fillon, Nathalie Kosciusko-Morizet, Eric Besson et 14 députés.

POUR

Claude Allègre, géochimiste, écrivain, et ministre de l’Education Nationale, de la Recherche et de la Technologie de 1997 à 2000.

« Interdire l’exploitation des gaz de schiste serait incompréhensible car on se priverait d’importantes ressources énergétiques. Je serais plutôt partisan d’une réglementation comme l’ont fait les Américains, qui viennent de voter une loi de protection de l’environnement.

Les principaux opposants au gaz de schiste rappellent qu’au début des accidents se sont produits aux États-Unis, mais ils étaient le fait de petites sociétés qui n’offraient pas toutes les garanties de sécurité. Les mêmes dénoncent également une consommation excessive d’eau. Il y a enfin des problèmes liés à l’utilisation de produits chimiques : il faut donc faire attention aux rejets d’eaux. Il faudrait également changer le code Napoléon, dont dépend le droit minier. Prévoir que le propriétaire du sol et les collectivités territoriales soient bénéficiaires si on trouve quelque chose dans leur sous-sol. Cela changerait leur perception : aujourd’hui, ils n’ont aucun intérêt à promouvoir cette ressource énergétique. »

Valeurs Actuelles, 21 avril 2011

CONTRE

José Bové, député Europe Écologie-Les Verts

« Contrairement aux discours que les compagnies ont essayé de distiller, la fracturation hydraulique fait partie de l’exploration. C’est cela le véritable danger pour les nappes phréatiques et pour l’environnement. Si l’on commence à accepter les explorations, ça veut dire qu’on va obligatoirement vers l’exploitation sans aucune possibilité de marche-arrière.

Les produits chimiques qui sont introduits lors de cette fracturation peuvent ensuite se retrouver dans les nappes phréatiques ou l’eau de surface. Aujourd’hui, personne ne connaît la teneur des 600 produits utilisés lors de ce processus, puisque les compagnies refusent de divulguer la liste de ces produits, tant au niveau national qu’au niveau européen.

Les technologies « propres » n’existent pas. Seule la firme américaine de Dick Cheney détient l’ensemble des brevets pour l’extraction, et il n’y a qu’une seule technique qui existe. Il est évident que Total ment quand elle affirme disposer de techniques propres. Ils essaient de gagner du temps, mais c’est de la poudre aux yeux. Le lobbying est en marche. Il va falloir que les parlementaires fassent un choix. Vont-ils aller jusqu’à interdire la technique de fracturation horizontale ? Nous allons voir dans les jours ou les semaines qui viennent. »

Le Nouvel Observateur, 15 avril 2011

POUR

Isabelle Moretti est géologue et chef de projet des gaz non conventionnels à l’Institut français du pétrole (IFP-Energies Nouvelles).

« Globalement, je pense que n’importe quelle richesse dans le sous-sol est une bonne nouvelle. L’exploitation des gaz de schiste n’est pas forcément polluante, il faut simplement bien travailler, il faut qu’il y ait des réglementations. Il y a déjà beaucoup de réglementations qui sont mises en place, qu’elles soient appliquées, qu’on s’assure que c’est une production non-polluante.

Nous avons une dette, des impôts, un régime social qui est en baisse. Toute richesse dans le sol français est une bonne nouvelle. On peut produire « propre » n’importe quelle richesse actuellement. Une grande partie de l’eau qu’on injecte est repompée derrière, et peut être traitée comme n’importe quelle eau industrielle. Au niveau du paysage, c’est vrai qu’au moment où l’on construit le puits, on va occuper l’équivalent d’un terrain de foot, pour les camions, les aires de forage, etc. Ensuite, si la loi dit « remédiation », on replante des arbres et quatre ans après, c’est comme avant.

Ce qu’il faut voir, c’est qu’aux États-Unis, les gens étant propriétaires de leur sous-sol, ils s’enrichissent sur les puits. Remédier ne les intéressent absolument pas. Ils prennent l’argent et ils vont à la plage. Leur champ reste abîmé. Il n’y a aucune nécessité que ce soit comme cela. On peut replanter derrière, comme n’importe quelle activité. »

Reporterre.net, 2 février 2011

POUR

Jean-Louis Schilansky est président de l’Union française des industries pétrolières.

 

« Aux États-Unis et au Canada, on est bien après le stade de l’exploration, on est en plein dans celui de la production. C’est-à-dire que ces deux pays produisent en quantité très importante notamment du gaz de schiste. Ce n’est pas du tout la même situation en France, où on n’a même pas encore commencé à explorer et à forer pour voir s’il y avait vraiment une ressource. En France, nous en sommes à un stade très préalable alors qu’aux États-Unis, on en est au stade industriel.

Ceci dit, le premier enjeu est un enjeu d’amélioration de l’indépendance énergétique parce que si on trouve de nouvelles ressources d’hydrocarbures, que ce soit du gaz ou du pétrole, ça évitera d’en importer et nous voyons avec les événements en Libye, combien cela peut être important.

Le second enjeu est un enjeu de développement économique, dans la mesure où ces hydrocarbures qui ont un prix relativement élevé ont une valeur pour l’économie du pays.

[…]

On comprend qu’il y ait des préoccupations environnementales. La question posée est précisément une question de développement durable, c’est-à-dire celle d’une tension entre l’économique et l’environnemental. C’est cette tension qu’il faut explorer d’une part pour savoir quel est exactement le risque environnemental, dont on sent qu’il est très exagéré, et d’autre part pour évaluer l’enjeu économique. Ça, on ne le saura que quand on aura réussi à forer et à voir s’il y a effectivement une ressource. Donc , on est vraiment dans un sujet de développement durable au sens où il s’agit de concilier, ou tout du moins de trouver un équilibre, entre l’économique et l’environnemental.

[…]

Sur les cycles de vie CO2 il faut voir, parfois on peut faire dire aux cycles de vie CO2 un petit peu ce qu’on veut leur faire dire. Il faut donc pouvoir comparer. Quand on a lancé les biocarburants, on n’avait pas évalué le cycle de vie et pourtant on disait qu’ils étaient bio. Donc, il faut mesurer l’impact gaz à effet de serre. Cela dit, je ne vois pas bien en particulier pour les gaz, comment il pourrait y avoir un cycle de vie proche de celui du charbon.
En revanche, c’est vrai pour l’eau, mais là, la technologie avance. Les quantités d’eau pouvant être recyclées augmentent, du moins les technologies pour faire plus de recyclage progressent. La situation n’est pas figée, on espère qu’on trouvera des solutions qui permettront de recycler une très très grande quantité de l’eau nécessaire.

[…]

Il est vrai qu’au moment des permis d’exploration, il y a jusqu’à présent assez peu de consultation publique dans le processus d‘exploration. Peut-être faut-il améliorer cette partie là de façon à ce que les populations soient plus rassurées. Il faut trouver les moyens de montrer ce qui se passe, de montrer qu’on prend des précautions. Mais ce qui me préoccupe, c’est qu’on a tendance à vouloir interdire l’exploration avant même de l’avoir analysée en profondeur. Une mission a été nommée par la ministre de l’écologie et le ministre de l’industrie, ça c’est une bonne chose car il faut que l’on mette les choses au clair, qu’on voit effectivement quels sont les enjeux économiques et quels sont les risques éventuels. »

 

Le journal du développement durable, 1er mars 2011

 

C.H.

La main invisible de la radioactivité

Prenez un phénomène invisible, et donc nécessairement mystérieux : la radioactivité. Dotez-le d’une unité de mesure dont personne ne connaît la définition : le becquerel, et d’une unité de « dommage aux êtres vivants », encore moins accessible au commun des lecteurs de journal : le sievert (et ses sous-multiples le millisievert et le microsievert). Annoncez alors que vous avez détecté des becquerels ici, ou que telle population a pris tant de microsieverts là. Résultat assuré : quelle que soit la valeur mesurée, une large partie de vos interlocuteurs va penser qu’il y a du danger.

La radioactivité a beau être un processus connu depuis un siècle, la Commission Internationale sur la Protection Radiologique a beau exister depuis 1928, les Nations Unies ont beau avoir créé en 1955 une commission spéciale chargée de documenter les effets de la radioactivité et de produire des rapport sur ce sujets, la méfiance est de mise dès qu’un soupçon de rayonnement ionisant se profile à l’horizon, alors que pourtant, ici comme ailleurs, c’est la dose qui fait le poison. Et de fait, la radioactivité est une nuisance parfaitement négligeable dans tous les processus qui font mourir prématurément nos semblables, et cela resterait vrai si la production nucléaire devait être multipliée par 10 sur terre.

LA SUITE ICI

Le blog Manicore

Un nouveau modèle de mesure du carbone dans l’eau

Un nouveau modèle permettrait aux scientifiques, en pistant le carbone, d’estimer les sources et les pertes de carbone organique dans les eaux de surface américaines, c’est-à-dire comprenant les eaux courantes (cours d’eau : rivières, canaux) et les eaux stagnantes ou plans d’eau (lacs, retenues de barrage, étangs…), dans le but d’en étudier l’impact sur la hausse du taux de dioxyde de carbone dans l’atmosphère. Les travaux ayant inspiré ce modèle indiquent que les ruisseaux se trouvent aussi bien au début qu’à la fin de la vie de ce carbone organique, à l’échelle régionale et continentale.

L’étude pointe du doigt la photosynthèse des algues dans les ruisseaux, qui serait le principal contributeur de carbone organique des rivières américaines, et la source la plus importante de carbone organique dans les eaux côtières allant du bassin du Mississippi jusqu’au Nord Ouest du Pacifique. Les sources de carbone terrestre, comme celui provenant des forêts ou des zones humides, sont dominantes dans toutes les eaux côtières, incluant les eaux de l’Atlantique Nord, de l’Atlantique Sud, du Golfe du Mexique ou encore les Grands Lacs.

Les résultats fournissent également des estimations sur la quantité de carbone organique charrié par les ruisseaux et donc retiré de la colonne d’eau, colonne conceptuelle importante dans les études environnementales, allant de la surface aux sédiments du fond, permettant d’y effectuer tout un panel de mesures chimiques, de pH, de température, de salinité… Le carbone éliminé se retrouve aussi bien dans les sédiments sur un très long laps de temps qu’oxydé et retourné dans l’atmosphère sous forme de dioxyde de carbone. Le destin spécifique de ce carbone n’est pas quantifié dans ce nouveau modèle.

Les conclusions de l’étude se sont appuyées sur l’emploi d’un modèle de bilan massique hydrologique basé sur un suivi de près de 1125 courants, et sur l’estimation de l’apport en carbone aux ruisseaux par la productivité primaire, liée à la photosynthèse.

Rahman Moonzur

[Vidéo] Crash Rio-Paris : les deux boîtes noires repêchées

La deuxième boîte noire, contenant les conversations de l’équipage dans le cockpit (le CVR ou « Cockpit Voice Recorder ») de l’Airbus d’Air France accidenté en 2009 au large du Brésil, a été localisée à une dizaine mètres du premier enregistreur et repêchée lundi soir.

Elle est « entière » et « en bon état », a indiqué le directeur du Bureau d’Enquêtes et d’Analyses (BEA), chargé de l’enquête technique de la catastrophe. « La boîte noire est entière. Le châssis, le module et même le cylindre de balise sont là. Globalement, l’aspect extérieur du boîtier est correct, en bon état », a précisé ce dernier.

Dimanche dernier, la première boîte noire (« Flight Data Recorder » ou FDR), contenant tous les paramètres du vol, avait été localisée et remontée hors de l’eau, à bord du navire Ile-de-Sein par le robot Remora 6 000.

Grâce à cette découverte, la lumière va peut-être pouvoir être faite sur le crash de l’Airbus A330-203 du vol AF447 qui s’était abîmé dans l’Atlantique sud le 1er juin 2009 – faisant 228 morts dont 72 Français. « Si on arrive à lire les deux enregistreurs, on arrivera à comprendre ce qui s’est passé », a expliqué le directeur du BEA.

Un bras terminé par une pince du robot sous-marin Remora 6  000 saisit le module pour le placer dans un panier et le remonter à la surface.

Les mémoires seront-elles lisibles ?

Après deux ans dans l’eau de mer, rien n’indique que les données du FDR et du CVR seront exploitables. Prévues pour résister un mois à 6 100 mètres de profondeur, celles-ci auront passées près de 22 mois à 3 900 mètres de profondeur.

Jean-Paul Troadec, directeur du BEA, semblait pourtant confiant à la découverte du premier module : « Le boîtier a l’air en bon état physique. Nos experts nous disent que nous pouvons espérer pouvoir lire ces données. » La porte-parole du BEA se montre toutefois plus nuancée :  « Une chose est claire, c’est que même si la boîte n’a pas l’air endommagée, on ne peut pas se prononcer sur son fonctionnement tant qu’on ne l’a pas ouverte. Cela demande des équipements extrêmement pointus. L’analyse ne peut se faire qu’à Paris. »

Les modules mémoires, placés sous scellés et immergés dans de l’eau douce pour les conserver le plus possible dans leur état actuel, seront transportés d’ici 8 à 10 jours au BEA, au Bourget, près de Paris, où ils seront dépouillés par des experts.

 

C.H.

 

Déjà paru :

Vol AF447 : un navire d’Alcatel-Lucent choisi pour remonter l’épave

 

La découverte, en images, de la première boîte noire (reportage du BEA) :

 

Découverte de la deuxième boîte noire :

 

Boîte noire : comment ça marche ?

Les boîtes noires, en fait de couleur orange, sont étudiées pour résister à de fortes pressions, 6 000 mètres sous l’eau pendant un mois, et des températures pouvant atteindre 1 000 degrés C. Les cartes mémoire électronique qu’elles contiennent sont en revanche plus fragiles.

La première boîte ou FDR flight data recorder » )  comprend un support qui centralise et compacte les données, un bloc mémoire ainsi qu’un émetteur radio. Elle enregistre tous les paramètres électroniques, jusqu’à un millier sur les avions les plus modernes. Vitesse, altitude, cap magnétique, état des moteurs, fonctionnement du pilotage automatique, des commandes de vol, pressurisation, température… sont enregistrés toutes les secondes. Le FDR Honeywell 4700 de l’A330 d’Air France peut stocker dans la mémoire statique 1 300 paramètres des 25 dernières heures de vol.

La seconde boîte noire ou CVRcockpit voice recorder ») enregistre en boucle, tout l’environnement acoustique du poste de pilotage, pour une durée maximale de 120 minutes d’enregistrement ou une demi-heure en haute qualité. Cela inclue les conversations entre les pilotes mais aussi avec les contrôleurs. Avec les nouvelles technologies, le moindre son peut être analysé : bruit des moteurs en arrière-plan, sons extérieurs, pluie, orage, choc sur la carlingue, etc.

La balise à déclenchement automatique est intégrée à chaque boîte noire. Elle permet de les récupérer. Leur autonomie dépasse rarement un mois.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Conférence Google I/O 2011 : lancement de Chromebook et accès aux services offline

Chromebook

Lors de la conférence Google I/O 2011 des développeurs de la compagnie de Mountain View, tenue à San Francisco ce mercredi, Google a annoncé la venue d’une nouvelle génération d’ordinateurs portables, uniquement basés sur le système d’exploitation Chrome OS. Ce nouveau laptop, d’ores et déjà baptisé « Chromebook », possèdera une interface entièrement basée sur le navigateur Web de Google, Chrome, ce qui veut dire en d’autres termes que tout ce qui pourra se faire avec un Chromebook se fera sur et à travers internet.

En collaboration avec Acer et Samsung

Google s’est associé aux constructeurs informatiques Acer et Samsung pour la construction matérielle du hardware, chacun de ces constructeurs étant à même de produire un netbook. Le modèle du Taïwanais Acer se basera sur un processeur Intel Atom dual-core, équipé d’un écran HD de 11,6 pouces, d’une batterie assurant six heures d’autonomie, d’un boot instant-on (la possibilité de booter presque instantanément), pour un poids n’excédant pas les 1,4 kilos. Il pourra être équipé du Wi-fi ou d’une fonction 3-G en fonction des modèles, et son prix d’appel sera d’environ 350 dollars.

Le modèle du constructeur Samsung est assez similaire, bien que disposant d’un écran un peu plus grand (12,1 pouces). Le Chromebook du Coréen pèserait lui un peu moins du kilo et demi, reposant sur le même processeur Intel Atom dual-core, et posséderait les même ports USB et slots pour cartes SD que le modèle d’Acer. Il devrait par contre bénéficier d’une autonomie très largement supérieure à celle de son concurrent direct, puisque la batterie devrait lui permettre de tenir huit heures et demie. Son prix de lancement devrait être de 430 dollars pour le modèle Wi-fi, et de 500 dollars pour la version 3-G.

Dans la lignée du prototype CR-48

La précédente incursion de Google dans ce domaine s’était faite l’année dernière avec le lancement pour les développeurs et testeurs de 60 000 laptops CR-48, uniquement dédiés au web, dont le programme pilote a compté plus d’un million de participants, dans le but de collecter les retours et critiques. Le feedback, globalement positif, a servi de base pour le Chromebook. Le seul vrai point noir concernait le pavé tactile, le « touchpad », qui aurait été totalement retravaillé et remanié pour le Chromebook, annonce faite par le vice-président de Google Chrome, Sundar Pichai, devant son parterre de développeurs.

Jailbreaking

Dans un clin d’oeil amusé et amical qu’il leur a adressé, le vice-président Pichai a aussi expliqué que le Chromebook viendrait sur le marché avec un mode « Jailbreak » complet leur permettant de toucher au noyau. Ce jailbreak, ou débridage, permet d’outrepasser les restrictions systèmes, généralement grâce à une élévation des privilèges, autorisant ici des modifications du kernel, du noyau du système d’exploitation, ouvrant des possibilités relativement grandes.

Le portable Chromebook sera disponible et mis en vente sur les sites Amazon.com et Bestbuy.com dès le 15 juin prochain, pour le public américain, mais sera aussi disponible dans un petit panel de pays privilégiés, dont la France. Les Anglais, Espagnols, Allemands, Italiens et Hollandais pourront aussi en bénéficier.

Tout-web ?

On peut par contre être sceptique quant au tout-web, bien que cela semble séduisant. Qu’en sera-t-il lorsque le wi-fi sera lent, dans un endroit public ou lors d’un simple ralentissement ? Cela pénalisera la navigation web, comme pour tout ordinateur, mais aussi la plus simple consultation de documents.

Gmail, Google Docs et Google Agenda disponibles… hors-ligne

C’est probablement avec cette idée en tête que la conférence Google I/O s’est aussi orientée sur un autre point important et innovant : la possibilité bientôt de pouvoir accéder à certains services Google… sans être connecté à internet. Pichai a notamment révélé que Google utilisait déjà depuis quelques mois en interne les versions offline de la messagerie Gmail, de la solution programme Google Documents et de l’application Google Agenda. Le grand public pourra accéder à cette fonctionnalité dans le courant de l’été 2011.

Par Moonzur Rahman

Déjà paru : les Instantanés Techniques sur GOOGLE

Un système de transmission de données ultra-rapide développé en Italie

Les chercheurs de l’Institut Tecip de la Scuola Superiore Sant’Anna de Pise, ainsi que ceux du Laboratoire National de Réseaux Photoniques du Cnit (Consortium National Interuniversitaire pour les Télécommunications), ont mis en place, dans le cadre d’une collaboration avec le géant des télécommunications Ericsson, le premier système de transmission cohérente au monde fonctionnant à 448 Gbit/s sur double porteuse optique.

Le nouveau système permettrait de transmettre en quelques minutes une quantité de données équivalente à 20 films en HD ou 500 films en qualité standard d’un bout à l’autre de la planète, et en l’espace d’une seule seconde, on pourrait effectuer 22 500 connexions ADSL de 20 Mbit/s, 7 millions d’appels vidéo ou encore 100 millions d’appels audio standards. « Nous avons quadruplé le record précédent pour les infrastructures commerciales qui était de 100 Gbit/s », explique l’ingénieur Luca Poti, responsable de l’aire de recherche du Cnit. « En exploitant les potentiels d’une technologie mature comme l’électronique couplés avec les capacités de transmission de la photonique, nous sommes parvenus à améliorer les prestations du système en fibre optique qu’Ericsson utilise comme support pour son réseau de téléphonie mobile, atteignant ainsi ces vitesses extraordinaires ». En clair, avec ce nouveau système, les informations sont assemblées au niveau électronique puis transmises sous forme de signal lumineux à travers un câble optique sur des centaines de kilomètres, sans interférence ni perte de qualité.

La découverte, signée par Ericsson et la Sant’Anna, ne créera pas de nouveaux services mais permettra d’améliorer nettement les performances des systèmes en fibre optique déjà utilisés dans le milieu industriel. Cette solution permettra non seulement les connections entre les machines, mais aussi de relier entièrement les centres de triage de données. Ce qui aurait pour conséquence d’augmenter drastiquement la capacité de ces noeuds et ainsi les services mis à disposition du client.

Concrètement, pour l’utilisateur final, cette innovation technologique se manifesterait donc par une diminution, ou du moins une non-augmentation du coût. Dans le cas de la téléphonie mobile par exemple, l’augmentation du trafic de données, lié aux appels vidéo et à la navigation internet sur les portables, a nettement augmenté la consommation et nécessiterait bientôt un agrandissement des infrastructures. Le système, développé à Pise, permettrait de ne pas intervenir sur la physique de ces appareils et, à coût égal, d’en augmenter la vitesse de connexion. La nouvelle technologie mise au point par les chercheurs italiens pourrait s’appliquer dans de nombreux domaines, et elle pourrait aussi permettre par exemple d’améliorer les connexions internet. Dans les prochains mois, elle sera testée sur des segments de réseau installés à travers le monde pour ensuite devenir un produit du portefeuille d’Ericsson.

Sources : http://www.bulletins-electroniques.com/actualites/66662.htm

 

Déja paru :

La protection des bâtiments contre le terrorisme pourrait passer par… un plastique !

Sarah Orton, professeur assistant de Génie Civil à l’Université du Missouri, s’est concentrée depuis quelques années sur l’utilisation du plastique à renfort fibre de carbone (CFRP), très résistant et très léger, et ayant de nombreuses applications, notamment celle de pouvoir renforcer les bâtiments en cas de tremblements de terre. « Le CFRP a été utilisé dans des régions comme la Californie depuis les années 1980 pour protéger les bâtiments des séismes, mais il a de nombreuses autres applications. Nous nous occupons actuellement des dégâts occasionnés par une attaque à la bombe. Ce polymère peut être un outil de protection des personnes », explique Sarah Orton.

Pour protéger un bâtiment d’une telle éventualité pas si improbable, le CFRP est utilisé pour augmenter la souplesse et la flexibilité des murs et des colonnes. Combiné à un point d’ancrage spécialement conçu par le professeur Orton pour le rendre plus efficace encore, il peut librement atteindre son point d’efficacité maximale plutôt que de se désolidariser du béton.

Le CFRP peut être utilisé pour protéger un mur entier d’une explosion. En collaboration avec l’armée américaine, l’équipe a étudié différentes manières d’employer le polymère, puis a testé la résistance de leurs dalles de béton renforcées à l’aide d’explosifs. La protection était réelle lorsque le CFRP était superposé et correctement ancré, et pourrait même être sensiblement améliorée en ajoutant à la dalle une plaque d’acier. Comme souvent, le prix reste pour le moment un frein au développement de cette technique, en dehors de constructions antisismiques.

Rahman Moonzur

Comment se mettre en conformité avec la réglementation NF-e

« Il est presque impossible pour un système ERP d’anticiper toutes les réglementations gouvernementales en cours d’élaboration dans le monde entier », déclare David Cottongim, directeur du service Finance Applications and Development chez Sony DADC, fournisseur de technologies et de solutions dans le domaine des supports optiques. Pourtant, « une société internationale doit pouvoir adapter ses processus de manière agile et avec une incidence minimale sur son infrastructure informatique », poursuit David Cottongim dont la société a dû se se mettre en conformité avec les obligations de la réglementation NF-e (Nota Fiscal Eletronica) du gouvernement brésilien.

Le Brésil, huitième puissance économique du monde, exige en effet une confirmation numérique de la réception des documents fiscaux pour la plupart des marchandises, avant que celles-ci puissent être expédiées dans le pays. Selon le ministère brésilien des Finances, plus de 1,8 milliard de documents NF-e ont été émis au Brésil, couvrant plus de 39 000 milliards de dollars de marchandises. Plus de 400 000 sociétés du monde entier doivent respecter les réglementations NF-e brésiliennes.

Concrètement, la nouvelle loi impose à toutes les entreprises opérant au Brésil, d’établir leurs factures au format électronique XML et de les faire valider par le Ministère des Finances (Ministerio de Fazenda ou SEFAZ) avant que le transport des marchandises ou la prestation de services n’ait lieu. Après validation de la facture, le SEFAZ génère une lettre d’autorisation, matérialisée par un code à barres. Chaque envoi est associé à un document spécifique – le DANF-e (Digitally Authorised NF-e) – qui se présente sous la forme d’un bon d’expédition sur lequel figure clairement ce code à barres. En cas de non-respect de ladite procédure, les entreprises contrevenantes sont soumises depuis la fin 2010 à une pénalité. Sachant que la plupart des ERP ou autres systèmes informatiques de gestion d’entrepôt et de logistique n’ont pas été conçus pour répondre à cette nouvelle réglementation, les entreprises ayant une activité au Brésil doivent impérativement mettre à jour leurs systèmes informatiques pour s’y conformer.

Les cinq étapes du processus de la réglementation NF-e

L’an dernier, Sony DADC a donc fait l’acquisition d’iBOLT, de Magic Software Entreprises, en vue de se mettre en conformité avec les obligations de la réglementation NF-e, mais, depuis, il a étendu son utilisation à d’autres domaines. Pour Sony DADC et de nombreuses entreprises, le défi qui consiste à adapter ses systèmes d’information pour répondre aux exigences des différentes réglementations gouvernementales existant dans le monde, met en évidence la nécessité d’une plateforme d’intégration telle qu’iBOLT. Cette solution qui permet d’émettre des documents NF-e et de gérer les demandes et les reçus DANFE, est également capable de se connecter aux ERP et d’orchestrer l’ensemble du processus automatisé, relatif aux documents NF-e.

iBOLT gère les cinq étapes du processus de la NF-e :

  • 1°) Le vendeur sollicite auprès des autorités du Ministère des Finances (SEFAZ)  une demande d’autorisation de NF-e, qu’il va signer électroniquement. Il crée une
  • « nota fiscal dans son ERP qu’iBOLT convertit au format XML demandé par le SEFAZ et l’envoie sur le réseau de de Magic Software. Là, elle est traitée, signée électroniquement, sa conformité est validée et elle est transmise en temps réel aux serveurs du SEFAZ pour approbation ;

  • 2°) Après approbation de la signature digitale, le SEFAZ enregistre la demande et accorde une autorisation de NF-e au vendeur. Le vendeur est maintenant en mesure d’expédier ses marchandises. L’autorisation transmise par le SEFAZ est envoyée automatiquement à iBOLT qui la répercute dans l’ERP et/ou le WMS en validant le bon de commande en attente, ce qui a pour conséquence d’autoriser l’envoi des marchandises. Le processus est terminé pour le vendeur ;
  • 3°) L’administration fiscale contrôle les marchandises et vérifie la NF-e puis envoie une demande de validation de DANF-e (Digitally Authorized NF-e) au SEFAZ qui la lui retourne au format électronique ;
  • 4°) Les marchandises sont expédiées à l’acheteur. ;
  • 5°) Dès la livraison, l’acheteur valide la NF-e et informe le SEFAZ de la bonne réception des marchandises. Si, pour une raison ou une autre, le SEFAZ n’est pas joignable, le système génère un document DANFE temporaire qui devra par la suite être enregistré auprès du SEFAZ.

« Le processus tout entier se déroule de façon rapide et sécurisée, en parfaite harmonie avec notre logiciel de gestion », commente Gilberto Talaquia, directeur de Conquest Soft Drinks (Refrigerantes Conquest). « Nous avons choisi iBOLT car cette solution répond efficacement à nos besoins. Ce projet faisait partie d’une stratégie recommandée par notre fournisseur d’ERP, qui consistait à émettre les documents NF-e à l’aide d’un outil d’intégration. Maintenant nous pouvons même utiliser iBOLT pour intégrer d’autres processus dans notre société, par exemple entre les lecteurs optiques d’étiquettes utilisés dans l’industrie alimentaire et notre système d’information centralisé. » 

L’architecture logicielle système au cœur du test automatique

Le rôle du logiciel dans le test automatisé a pris une ampleur considérable. Dans les faits, les coûts de développement logiciel sont fréquemment deux à dix fois plus élevés que celui des équipements dans la plupart des systèmes de test actuels. La répartition au sein de nombreux départements de test reflète cette tendance qui consiste à employer davantage d’ingénieurs logiciels que d’ingénieurs matériels. En réponse à l’augmentation des coûts de développement logiciel et à l’accélération des cycles de développement des produits, de nombreuses sociétés mettent aujourd’hui l’accent sur la conception d’une architecture logicielle système robuste, afin d’optimiser la longévité et la réutilisation de leurs investissements logiciels. En fait, une enquête menée en 2010, par National Instruments auprès des responsables de test, a révélé qu’une attention accrue portée aux logiciels système arrivait en deuxième position des principales stratégies visant à accroître l’efficacité de leur processus de développement de test en 2011. Une tendance confirmée dans le rapport annuel « Perspectives du test automatique » que National Instruments vient de publier.

La plupart des sociétés s’éloignent des architectures logicielles monolithiques qui contiennent souvent du code figé et des appels d’accès directs aux drivers d’instruments. A l’inverse, elles recherchent des architectures logicielles modulaires sous la forme d’éléments distincts et néanmoins étroitement intégrés en ce qui concerne les logiciels de gestion de test, logiciels d’application et logiciels drivers. Ce type d’architecture permet aux ingénieurs d’employer les meilleurs outils pour chaque domaine et de choisir entre les outils « sur étagère » et les outils développés en interne à chaque niveau. Une tendance significative est l’extension de la modularité au niveau de chaque couche de l’architecture logicielle, notamment avec l’utilisation accrue de modèles de processus, de bibliothèques de modules de code et de couches d’abstraction matérielle.

Plusieurs modèles de processus pour différentes lignes de produits

Le logiciel de gestion de test définit le flux élémentaire d’automatisation et de séquencement d’un système de test. Ce modèle de processus est une technologie cruciale en raison de son rôle dans la séparation des tâches de test des autres tâches, ce qui permet aux ingénieurs de standardiser et de gérer facilement ces dernières sur différentes séquences et stations de test. Les tâches sans rapport avec le test comprennent majoritairement la connectivité avec l’entreprise pour les entrées de données, l’enregistrement des données dans une base qualité, la communication avec l’atelier et la génération de rapports de test. Avec ce framework modulaire, les entreprises peuvent disposer de quelques modèles de processus qu’elles peuvent mettre en œuvre sur différentes lignes de produits et sur des centaines de testeurs déployés, voire davantage. Le modèle de processus simplifie également les modifications apportées aux fonctions non liées au test dans une station de test, sans pour autant avoir d’incidence sur les tâches de test, réduisant ainsi le temps nécessaire à l’actualisation des stations de test déployées. Par exemple, les ingénieurs peuvent rapidement modifier le flux d’exécution d’une station de test en fonction de la demande du marché en changeant de modèles de processus (tests séquentiels, par lot ou parallèles).

Succès des bibliothèques de code de test réutilisables

La couche du logiciel d’application est aussi importante car elle a un impact direct sur les tâches liées au test d’un système. De nombreuses entreprises se sont tournées vers le développement de code de test modulaire ou « modules de code ». Appelés par les logiciels de gestion de test, ces modules effectuent les mesures et analyses utilisées afin de déterminer l’état réussite/échec d’un pas de test. De nombreux modules de code remplissent des fonctions d’E/S similaires sur différents types de produits sous test (DUT), et constituent donc un domaine essentiel pour la réutilisation et les responsabilités de développement distribué avec des méthodes de développement en équipe. Récemment, l’industrie a vu un nombre croissant de sociétés adopter des bibliothèques de code de test réutilisables et davantage d’outils de contrôle de code source (SCC).

De nombreux fournisseurs de logiciels d’application assurent désormais l’intégration avec les outils SCC et proposent des caractéristiques avancées telles que la différenciation-fusion pour répondre à cette tendance relative au développement de logiciels de test. Certaines entreprises ont même mis en place des directives afin de garantir un certain niveau de réutilisation et de développement en équipe pour éviter de réinventer la roue et de devenir trop dépendantes d’un seul et même développeur pour toute la connaissance relative au développement du code.

En outre, les sociétés intègrent de plus en plus de logiciels de gestion des exigences dans la couche des logiciels d’application. Cela permet un suivi précis de la couverture de test par rapport aux exigences de conception, ce qui est critique au sein des industries fortement régulées. De nouveaux logiciels de traçabilité des exigences offrent un lien entre les logiciels d’application et les environnements de gestion des exigences, comme Telelogic DOORS, afin de réduire considérablement le temps passé à tracer la couverture des exigences dans le développement des systèmes de test.

Couche d’abstraction matérielle : Deux approches de conception

Un dernier élément de l’architecture logicielle système est de plus en plus demandé et utilisé : il s’agit de la couche d’abstraction matérielle (HAL). Cette dernière se trouve dans la couche du driver de l’architecture logicielle système, entre le logiciel d’application et le matériel d’instrumentation, ce qui réduit le temps et les coûts associés à la migration ou à l’actualisation des systèmes de test. Deux approches permettent de concevoir une couche d’abstraction matérielle : l’approche centrée sur l’instrument et l’approche spécifique à une application. En ce qui concerne l’interface de programmation d’applications (API) centrée sur l’instrument, cette approche permet de définir un « standard » commun interne pouvant être utilisé sur plusieurs types de DUT.

Les instruments IVI (Interchangeable Virtual Instruments), couche d’abstraction matérielle standard, ont une approche d’abstraction centrée sur l’instrument. À savoir, les applications de test de plus haut niveau appellent une API centrée sur l’instrument, ce qui fait que tous les instruments se ressemblent (par exemple, IviScope Configure AcquisitionType). Dans une approche spécifique à une application, les applications de test appellent une API spécifique à une application qui correspond au type de test qui doit être réalisé (un test de LED par exemple). Une couche d’abstraction matérielle est une méthode qui a fait ses preuves pour développer et maintenir un système de test faiblement couplé. Elle gère mieux les décalages entre les cycles de vie des produits et de l’instrumentation de test, et évite le code de test fortement couplé avec l’instrumentation de test. Coupler faiblement le code de test et l’instrumentation de test améliore la conception globale d’un système, tout en le rendant plus facile à maintenir et plus évolutif tout au long de sa durée de vie.

Étendre la modularité de l’architecture système à la couche logicielle apporte davantage de flexibilité et fournit un framework permettant de développer des stratégies de gestion de cycle de vie complexes. Ces stratégies permettent de réduire les temps de développement logiciel et de limiter les problèmes d’obsolescence en facilitant la gestion de sujets tels que le calendrier de lancement des caractéristiques, les mises à jour de systèmes ainsi que les prévisions d’insertion de l’instrumentation et des technologies conclut National Instruments.

 

Déjà paru :

 

DIAPORAMA – Concours Lépine : l’environnement, grand vainqueur 2011

C’est un ingénieur à la retraite de 77 ans, qui s’est vu remettre le plus haut prix, le prix de la Présidence de la République, du concours Lépine qui fêtait cette année ses 110 ans.

Déjà récompensé en 1999 pour sa foreuse à marteau oscillant, c’est une invention d’une toute autre nature qui lui a valu cette fois les faveurs du jury : un procédé de pompage des hydrocarbures en milieu marin profond.

André Boniface a eu l’idée de ce dispositif anti-pollution suite à la marée noire provoquée par la catastrophe de la plateforme pétrolière BP DeepWater Horizon dans le golfe du Mexique (Louisiane), en 2010.

Outre cette invention, les questions énergétiques et environnementales ont tenu le haut du pavé de cette 110e édition, avec l’attribution du troisième prix à un inventeur belge de 15 ans pour son groupe électrogène écologique.

Le deuxième prix (la médaille d’or) a été remis à Jacques Pitoux pour son « manège » à café, qui permet d’utiliser toutes les dosettes vendues sur le marché. L’inventeur avait déjà reçu le deuxième prix du concours en 1997 pour son dispositif d’ouverture des huîtres.

Le presse-purée à lame hélécoïdale

En 1931, Jean Mantelet dévoile au Concours Lépine son presse-purée à lame hélécoïdale. L’engin l’emporte haut la main, séduit les ménagères de tous âges et devient, quelques années plus tard, le fleuron de la société Moulinex, née de son succès.

Lancé en 1901 par le préfet de police Louis Lépine, lui-même inventeur (on lui doit le rond-point giratoire, le permis de circuler et la limitation de vitesse), le Concours Lépine récompense chaque année des innovations destinés à faciliter la vie au quotidien. Le moulin à café, le presse-purée ou encore le fer à repasser à vapeur sont parmi les célèbres inventions à avoir été mises sur le marché en partie grâce au concours.

 

 

 

 

 

C.H.

André Boniface et son dispositif de pompage des hydrocarbures en milieu marin profond

La médaille d’argent est allée à Célestin de Wergifosse, 15 ans, pour son « Éco-groupe », un groupe électrogène mobile qui n’émet pas de CO2 grâce à ses panneaux solaires, son éolienne et sa dynamo.

L’Oxybar est un bar à oxygène inventé par le Dr Jean-Guillaume Laurent et Nathalie Ramet. Il propose de respirer des huiles essentielles émulsionnées dans de l’eau, en présence d’oxygène.

Le « Freezcube », crée par Alain Elba, indique les ruptures de la chaîne du froid au congélateur. Il permet ainsi d’éviter de consommer des surgelés avariés. La couleur rouge signifie qu’il faut jeter les aliments, la couleur bleu, qu’il reste 14 jours de consommation.

La « Lumipouss » est un luminaire avec des plantes naturelles installées dans un pot, l’ampoule basse consommation favorisant le développement des végétaux. Une invention de Sophie Fiacre.

Inventé par Jacques et Michel Pitoux, le « Manège à café » est une machine à café compatible avec 6 modèles de dosettes différents.

Ce décapsuleur nommé « Ezbotop » permet, d’un seul geste et d’une seule main, de récupérer la capsule et de verser le contenu de la bouteille.

 

Le « Magic Huître » est un appareil électroménager conçu pour ouvrir les huîtres rapidement et en toute sécurité. Une fois l’huître posée sur le socle, elle ressort ouverte et non abîmée. Une invention de Cédric Cautard et Jacques Pitoux.

Ce petit appareil de poche, inventé par Didier Antile, permet de trier et de récupérer facilement la petite monnaie, d’un seul doigt.

Samuel Renouard, un Vannetais âgé de 32 ans, est l’inventeur d’un porte-assiettes qui devrait faciliter la vie des serveurs.

Le « Top-braille », vainqueur du Concours Lépine 2010, est un appareil de poche permettant la lecture instantanée en braille ou en vocal de n’importe quel texte imprimé, en 7 langues différentes.

Gaz de schiste : « Il y a des risques de contentieux »

Pourquoi avoir présenté une proposition de loi contre les gaz de schiste ?

Le principe d’extraction des gaz de schiste consiste à faire un forage traditionnel vertical, et après, à 2000 ou 3000 mètres, un forage horizontal où on fait exploser les gaz de schiste avec de la pression. Quand on tombe sur des roches où il y a une faille, on ne sait pas où vont remonter l’eau et les adjuvants. Est-ce qu’ils vont se séparer de l’eau ou pas, est-ce qu’ils vont recréer des agrégats qui sont des sources de pollution ou pas? Compte tenu de l’état de nos informations aujourd’hui, je me suis dit qu’il était très dangereux d’autoriser l’exploitation. On ne peut pas faire les choses n’importe comment, en créant des dommages irréversibles en matière d’environnement, de paysage, de pollution dess nappes phréatiques et du reste. Ma proposition de loi a deux volets : abrogation des permis existants et interdiction d’exploration et d’exploitation.

Pourquoi décréter l’urgence sur cette question ?

Pour ne pas rester en situation de vide juridique. Sans l’urgence, le texte ne serait pas voté à la fin de l’année. Avec l’urgence, on l’étudie dès le 10 mai, il passe au Sénat dans le mois qui suit et le droit sera dit avant l’été. Plus on a des fragilités juridiques, plus on a de risques de contentieux. À partir du moment où on laisse à une entreprise la capacité d’explorer en leur disant qu’ils n’auront pas la capacité d’exploiter, on risque de s’ouvrir des contentieux dans tous les sens.

Une mission d’information doit rendre un rapport d’étape en fin de semaine. En connaissez-vous le contenu ?

Non. En revanche, j’ai demandé au Premier ministre qu’on prolonge la mission d’expertise. J’avais reçu des membres de cette mission. Les ingénieurs des mines chargés de cette inspection nous ont dit que le délai de trois mois était très court pour faire un vrai travail de qualité. Dans la mesure où la loi sera votée et qu’on interdit tout, autant se donner le temps de faire une expertise scientifique la plus fine possible.

François Fillon n’exclut pas d’autres permis d’exploitation avec d’autres techniques. Qu’en pensez-vous ?

Il ne faut surtout pas faire de l’obscurantisme. Ce qui est dangereux, aujourd’hui, c’est la technique. La fracturation hydraulique telle qu’elle est présentée n’est pas rassurante. La mission doit montrer quels sont les risques réels. Peut-être que d’autres technologies vont évoluer dans le temps et nous permettre d’extraire des gaz ou des huiles sans risque environnementaux. Ce n’est pas le cas pour le moment.

Des forages étaient prévus à partir du 15 avril en Seine-et-Marne, dont certains n’utilisaient pas la technique de fracturation hydraulique. Seront-ils maintenus ?

Non, ils seront abrogés. Pour l’exploration, les industriels font un puits comme pour extraire du pétrole. C’est à partir de ce premier puits vertical qu’ils vérifient la présence de gaz ou d’huile de schiste. S’ils en découvrent, ils utilisent la fracturation hydraulique avec le système d’injection à pression pour exploiter. Je préfère qu’on bloque tout pour qu’on ne soit pas dans l’ambiguité. Autoriser une entreprise à explorer et pas à exploiter, c’est un marché de dupes.

Dans un contexte d’énergie chère et de dépendance énergétique très forte, va-t-on pouvoir se passer des gaz de schiste ?

Ça aurait pu être une solution, mais on ne peut pas le faire n’importe comment. Le principe de précaution se trouve dans la charte de l’environnement, qui a valeur constitutionnelle. Il est précisé qu’on doit pouvoir bloquer ou interdire un projet en amont tant qu’on n’a pas démontré qu’il n’y avait pas de risque importants de pollution. Si on me fait la démonstration qu’il n’y a aucun risque, on pourra rediscuter, mais on le fera d’autant mieux qu’on aura bloqué les choses. Ce que la loi fait, une autre loi pourra toujours le défaire. Toute autre technique peut demander un permis, après, on l’accorde ou pas.

Vous êtes député de Seine-et-Marne. Est-ce que cela a joué ?

Le fait d’être élu de ces territoires me rend plus sensible. J’ai déposé ma proposition de loi après avoir entendu les élus, les maires. À partir du moment où les travaux vont commencer sur votre circonscription, vous vous y intéressez, je ne suis pas le seul, tous les parlementaires concernés s’y sont intéressés. On ne va pas jouer les apprentis sorciers. Il faut que les études soient prolongées, qu’elles soient scientifiquement incontestables, transparentes et accessibles à l’opinion publique. Compte tenu de la sensibilité qu’il y a sur ce sujet, il faut jouer la transparence totale.

Les permis d’exploration ont été donnés par le ministère de l’Environnement. N’y a-t-il pas eu un problème de communication ?

Je suis d’accord, c’est ça qui a brouillé le message. Ce qu’on a autorisé, ce sont des forages conventionnels. Mais si on explore, c’est dans le but de trouver, et d’exploiter. Le plus simple aurait été de ne pas donner les permis, ça aurait évité de faire une proposition de loi pour abroger les permis qui ont été donnés.

 

Interview de Christian Jacob pour Metro

 

DÉJA PARU :

Gaz de schiste : Fillon veut « tout remettre à plat »

L’exploitation des gaz de schiste plus polluante que celle du pétrole ou du charbon ?

Le gaz de schiste, au premier plan de l’actualité

Un robot chinois précieux dans la gestion des accidents nucléaires

Face aux évènements survenus au Japon, la Chine a ralenti le rythme du développement de son énergie nucléaire. Le pays a suspendu temporairement la ratification de nouveaux projets en la matière et entreprend également un contrôle des centrales nucléaires en construction. Mr Feng Yi, vice-secrétaire général de l’association du secteur d’énergie nucléaire et expert du comité de coordination de prévention d’urgence nucléaire nationale, a fait savoir que le principe en matière de développement de l’énergie nucléaire chinoise à long et moyen terme restait inchangé, et que le ralentissement temporaire avait pour but de consolider la base de sécurité. Le développement en Chine de l’énergie nucléaire a globalement atteint en une vingtaine d’années un niveau moyen voire supérieur à la moyenne mondiale, et un niveau d’avant-garde pour huit normes de production définies par l’association mondiale du fonctionnement des générateurs nucléaires.

La Faculté des Sciences et de Génie en instrumentation de la Southeast University à Nanjing, a récemment dévoilé un système de détection nucléaire et chimique à distance associé à un robot. Le système peut ainsi venir en aide aux humains dans des situations d’urgence telles que des missions de sauvetage en milieu de radiations nucléaires, toxiques ou nocifs.

Le robot pèse 30 kg et mesure 85 cm. Il est principalement utilisé pour effectuer des tâches telles que des mesures, des échantillonnages et le traitement d’urgence sur des sites pollués chimiquement, biologiquement ou présentant des radiations nucléaires pour lesquelles l’humain ne peut approcher ou lorsque la situation présente un risque trop important.

Le robot, dont la coque est composée d’un alliage d’aluminium très rigide, est doté d’une caméra résistante aux radiations. Un petit détecteur nucléaire localisé au sein du robot peut mesurer la quantité de rayonnement dans les environs et ainsi tracer un graphique de la distribution du rayonnement. Le robot peut également trouver le point de plus forte intensité, qui peut être la source de rayonnement ou l’emplacement de la fuite. Une fois que le robot a détecté la source radioactive, il peut se servir de son bras mécanique pour saisir celle-ci et la placer dans une boîte de plomb d’épaisseur conséquente. Lors d’une fuite radioactive, la tâche du robot est de détecter le point de fuite et de transférer les informations vers le personnel impliqué. Si le robot détecte une soupape lâche, il pourra la resserrer.

Le Pr. Song Ai’guo, Président de la Faculté des Sciences et de Génie en instrumentation, explique qu’ « en temps normal, le robot peut être contrôlé dans un périmètre de 5 km, mais dans des zones de fortes interférences qui limitent le fonctionnement du robot, le contrôle peut être gardé dans un rayon d’un kilomètre ». L’équipe du Pr. Song, qui travaille dans le domaine de la robotique, a depuis 2004 mis au point cinq générations de robots. La dernière génération a été développée début 2011.

Sources : http://www.bulletins-electroniques.com/actualites/66522.htm

Déjà publié :

CO2 : Plus il y en a, mieux c’est !

Le premier centre de capture de CO2 d’Espagne a été mis en marche le 16 avril à El Bierzo (León). Cette centrale thermique qui peut fonctionner soit au charbon, soit à la biomasse, est une usine pilote de taille industrielle faisant partie du Centre de Développement des Techniques de Capture de CO2.

La fondation Ciuden

Le financement (128,4 millions d’euros), la construction et la mise en route de ce centre pionnier en Espagne ont été possibles grâce à la Fondation Ville de l’Energie ( « Ciuden » pour sa contraction en espagnol). Depuis sa création en 2006, dans laquelle s’est impliqué personnellement le chef du gouvernement et natif de la région José Luis Zapatero, cette fondation a eu pour objectif de dynamiser le développement économique et social de la région d’El Bierzo, notamment au travers de projets et activités en relation avec l’énergie et l’environnement. L’inauguration de la centrale thermique à capture de CO2 est donc la concrétisation de cette action, qui vise à doter l’Espagne d’outils de pointe dans la recherche pour la réduction des émissions de gaz à effet de serre.

 

Pourquoi continuer à développer les centrales thermiques ? 

Les centrales thermiques produisent de l’électricité via la combustion de carburants fossiles comme le charbon, le pétrole ou le gaz naturel. Réputées polluantes et grandes productrices de CO2, elles représentent pourtant une part non négligeable du bouquet énergétique espagnol. Dans la lutte contre le changement climatique et les émissions de CO2, il existe de nombreuses options technologiquement valides. Conjointement au développement des énergies renouvelables, une des stratégies consiste ainsi à repenser et modifier les installations thermiques existantes pour les rendre moins polluantes.

C’est le pari de la fondation Ciuden avec sa centrale à charbon et biomasse qui permet de produire des fumées hautement concentrées en CO2, ce qui est paradoxalement un progrès car cela facilite la capture du CO2 en vue de son futur stockage.

L’oxycombustion et la capture de CO2

Dans une centrale thermique conventionnelle, le comburant utilisé est l’air. Dans ce cas, dans les gaz produits par la combustion on retrouve bien sûr le CO2, mais également des oxydes d’azote et de la vapeur d’eau (entre autres). Pour séparer ou « capturer » le CO2 faiblement concentré, il faut effectuer des traitements physico-chimiques pour l’instant peu rentables. La solution retenue pour la centrale thermique d’El Bierzo consiste à utiliser comme comburant de l’oxygène pur à la place de l’air, réalisant ainsi une oxycombustion : « les gaz d’échappements » obtenus sont alors composés à 90 % de CO2, ce qui permet de l’isoler facilement et à moindre coût.

L’oxycombustion est difficile à démarrer, à maintenir en régime continu, et elle requiert une alimentation en combustible particulière et performante. La singularité de la centrale à capture de CO2 espagnole réside dans le fait qu’elle peut s’adapter à de nombreux types de carburants et procédés d’oxycombustion. Elle est en effet capable de brûler des anthracites, du charbon bitumineux, de la coke, ou encore de la biomasse, en utilisant la technique dite de charbon pulvérisé (PC en anglais) ou bien la combustion sur lit fluidisé (CFB en anglais). La capture de CO2 après oxycombustion CFB est d’ailleurs une première mondiale.

Enjeux futurs

Comment obtenir de l’oxygène pur en consommant un minimum d’énergie ? Où stocker le CO2 purifié ? Pour résoudre ces questions et selon le calendrier établi par la fondation Ciuden, il faudra encore une dizaine d’années de recherche et de développements pour atteindre un procédé commercialement viable. Peut-être que la conversion du CO2 pour la production de biocarburant de troisième génération est une des solutions qui, à terme, rendront l’ensemble du cycle performant et écologique.

 

Sources : http://www.bulletins-electroniques.com/actualites/66666.htm

 

Déja paru :

Les gaz de schiste enflamment l’assemblée

Le mardi 10 mai, les députés ont achevé la discussion sur les amendements relatifs aux articles de la proposition de loi déposée par M Christian Jacob. Pour rappel, celle-ci vise à interdire l’exploration et l’exploitation des mines d’hydrocarbures liquides ou gazeux par fracturation hydraulique et à abroger les permis exclusifs de recherches comportant des projets ayant recours à cette technique. Mais la nouvelle version du texte de loi a fait apparaître des fractures sur les bancs de l’Assemblée.

Pour résumer, la journée de mardi à l’Assemblée s’est déroulée dans la confusion la plus totale. Ce n’est que vers 23 heures, après des débats houleux tout au long de l’après-midi, que Jean-Marc Ayrault,  président du groupe PS à l’assemblée, a pu répondre à Nathalie Kosciusko-Morizet.
Plus tôt dans l’après midi, la ministre de l’Écologie, du Développement durable, des Transports et du Logement avait défendu la nouvelle version du texte, au motif de l’insécurité juridique qui naîtrait de l’ancienne version faisant jusqu’ici l’unanimité des parlementaires. En clair, la ministre a laissé entendre que le texte initial comportait des failles juridiques permettant aux industriels se voyant retirer les permis précédemment délivrés, d’exiger de l’État des indemnisations

Lors de son intervention, Jean-Marc Ayrault a fait part de son étonnement au sujet de l’« insécurité juridique » évoquée par la ministre : « La disposition d’abrogation des permis de recherche de mines d’hydrocarbures liquides ou gazeux est proportionnée à l’objectif poursuivi, c’est-à-dire la préservation de l’environnement. Cet objectif dispose d’une solide base juridique avec la Charte de l’environnement et notamment son article 5 qui dispose que :  « Lorsque la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l’environnement, les autorités publiques veillent, par application du principe de précaution et dans leurs domaines d’attributions, à la mise en oeuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. » » Ainsi, Jean-Marc Ayrault a-t-il voulu justifier la solidité juridique du texte initial.

En ce qui concerne la possibilité pour les entreprises  de bénéficier d’indemnisations en cas de retrait de permis, le président du groupe PS a évoqué l’article 17 de la Déclaration des droits de l’homme et du citoyen qui n’impose une indemnisation qu’en cas d’atteinte au droit de propriété. Dans le cas des gaz de schistes, les entreprises ne sont pas propriétaires des terrains, pas plus qu’elles ne le sont des permis.

Sur le plan juridique, quelles sont les évolutions effectives du texte de loi ? Les articles 1 et 2 sont principalement concernés. Voyons sur quels points.

Quels sont les modifications du texte ?

Les débats qui se sont déroulés à l’Assemblée nationale hier soir ont démontré l’existence d’un problème juridique important. Les risques liés à la fracturation hydraulique faisant eux plutôt consensus, les divergences se cristallisent sur les moyens de prévenir ces risques.

L’article 1

Dans le texte d’origine, c’est-à-dire la rédaction retenue par la Commission du développement durable, l’article fait référence, d’une part à la Charte de l’environnement, d’autre part au « principe d’action préventive et de correction prévu à l’article L.110-1 du code de l’environnement ». Au final, cette double référence aux principes de prévention et de précaution avère juridiquement le fait qu’une activité ou une technique peut générer des risques, avérés ou incertains.
La version retenue par les députés centre l’interdiction sur la technique de fracturation hydraulique qui est précisément celle susceptible, en l’état des connaissances, de présenter un risque de pollution. On notera que tous les amendements tendant à conditionner ou à assouplir cette interdiction ont été écartés. En conséquence, à la date d’entrée en vigueur de la loi, aucun forage suivi d’une fracturation hydraulique, pour l’exploration et l’exploitation des mines d’hydrocarbures liquides ou gazeux, ne pourra être légalement réalisé.

 L’article 2 

Après modifications de l’article 2, voici la rédaction retenue :

  • « Dans un délai de deux mois à compter de la promulgation de la présente loi, les titulaires de permis exclusifs de recherches de mines d’hydrocarbures liquides ou gazeux remettent à l’autorité administrative qui a délivré les permis un rapport précisant les techniques employées ou envisagées dans le cadre de leurs activités de recherches. L’autorité administrative rend ce rapport public ».
  • Si les titulaires des permis n’ont pas remis le rapport prescrit au l ou si le rapport mentionne le recours, effectif ou éventuel, à des forages suivis de fracturation hydraulique de la roche, les permis exclusifs de recherches concernés sont abrogés.
  • Dans un délai de trois mois à compter de la promulgation de la présente loi, l’autorité administrative publie au Journal officiel la liste des permis exclusifs de recherches abrogés.
  • Le fait de procéder à un forage suivi de fracturation hydraulique de la roche sans l’avoir déclaré à l’autorité administrative dans le rapport prévu au l est puni d’un an d’emprisonnement et de 75000 € d’amende. »

Par Pierre Thouverez

 

Déjà paru :

« Le PageRank Google est mort, vive le TrustRank »

Une des caractéristiques importantes du référencement naturel dans les moteurs de recherche est qu’il repose nécessairement sur une démarche empirique, c’est-à-dire basée sur l’analyse des résultats, obtenus par l’expérience. Les algorithmes des moteurs étant tenu le plus secrets possible, chaque site disposant de son propre potentiel, popularité et historique, chacun d’entre nous peut se faire sa propre expérience et acquérir sa propre connaissance en référencement, entre fantasmes, mythes et parfois réalités.

Cet article sur le PageRank de Google n’y échappe pas et ce que vous lirez ici est le résultat de notre expérience de 9 ans en SEO, et de connaissance en philosophie des moteurs de recherche et de Google en particulier, en plus de plusieurs centaines de sites référencés depuis 1999.

Toujours à propos de cet empirisme dans le référencement, il nous amène parfois, à devoir dire, c’est vrai, l’opposé de ce qu’on pouvait dire ne serait-ce que quelques mois ou années précédentes et c’est aussi vrai pour le cas du PageRank de Google.

Soyons clair, autrefois utile, le PageRank était un critère déterminant et significatif pour avoir un bon référencement et un bon positionnement dans Google, ce qu’il n’est plus depuis plusieurs années maintenant.

Déjà en 2004, le site Actulab écrivait un article (« Le PageRank ne sert à rien ») sur la question de l’importance et la fiabilité de la valeur du PageRank affiché dans la barre Google. Durant ces mêmes années, la DarkSeoTeam met à jour une faille dans l’affichage de la valeur du PR et obtient à désir, des PR10, PR9, PR8, PR7, PR6, etc. Et pourtant, à voir l’ampleur du buzz fin octobre 2007 suite au changement d’affichage de la petite barre verte, la notion de PageRank semble encore être importante pour bon nombre de webmasteurs et l’occasion de voir resurgir les peurs et fantasmes autour du PageRank.

Il n’y a pas de relation entre PageRank et position dans Google, ni trafic

Votre PR vient de subir une baisse importante ? Avant de vous alarmer, regardez d’abord si dans le même temps, votre site à perdu en positionnement sur vos mots clés concurrentiels et si le trafic en provenance de Google a également baissé sur la même période. Dans la majeure partie des cas, vous constaterez qu’en réalité, rien n’a changé, preuve que la valeur du PageRank ne signifie plus rien d’un point de vue position et trafic depuis Google.

Lors du changement d’affichage du PR en France et notamment du site Webrankinfo, et après avoir contacté le webmaster qui a accepté de me répondre, le site n’a effectivement ni perdu de position dans les moteurs, ni subi une baisse du trafic en provenance de Google. C’est même l’inverse, le buzz ayant même réussi à créer des pics de consultation. Pour l’anecdote, cela me rappelle le cas du blacklistage du site bmw.de en 2006, où se situe le pic d’audience sur le site de la maison mère de BMW.

Vous pouvez avoir un site avec un petit PageRank (2 ou 3) et être très bien positionné, y compris sur des requêtes concurrentielles et réciproquement, avoir un gros PR (6 ou 7) et un mauvais positionnement dans Google.

Le PR est surtout un outil de RP (Relation Publique)

Quand votre PageRank augmente, ce qui va surtout changer, c’est que vous allez devenir d’un seul coup plus sexy et « bankable » aux yeux de nombreux webmasters qui voudront se mettre à échanger des liens avec vous. Avoir un gros PageRank (à partir de 6), impressionne encore et vous permettra d’avoir une position de force pour négocier plus facilement des échanges de liens et jouer sur cette croyance fortement répandue mais erronée.

Le PageRank n’est pas un indicateur de bon (ou mauvais) référencement

C’est même une mauvaise bonne idée que de se baser sur la valeur du PR d’un lien pour faire des échanges de liens, tout simplement parce qu’il n’a plus de sens et que c’est maintenant une erreur de débutant que de fonctionner ainsi. Moins amusant, vous le verrez aussi, après une augmentation de PageRank, c’est surtout le nombre de mails et de demandes d’échange de liens non ciblés qui va augmenter. Entre les webmasters qui vous expliqueront comment l’échange d’un lien avec eux va booster incroyablement votre référencement, que c’est important, et ceux qui ne font même pas l’effort de cibler leurs demandes de liens en envoyant tout azimut leurs mails de Spam.

La valeur du PR affichée dans la Google ToolBar n’est plus mise à jour

Cela fait maintenant des années que la Google Dance, la mise à jour de l’ensemble des serveurs Google dans le monde, n’existe plus et fait désormais partie du mythe que Google aime bien continuer d’entretenir pour son marketing viral. Idem pour le PageRank qui est dorénavant recalculé en permanence et pour chacune des pages d’un site Web, bien que la mise à jour de l’affichage dans la barre Google se fasse tous les 3-4 mois environs, quand Google le décide en réalité pour faire buzzer autour des pseudos mises à jour.

À lire sur ce thème, le passage au référencement et positionnement en temps réel désormais en place sur Google.

La baisse du PageRank ne vous mettra pas en faillite

C’est pourtant ce qu’on a pu lire sur la toile : « Le pagerank est le paramètre le plus important de nombreuses startups qui comptent sur un emplacement de choix dans les résultats organiques des recherches de Google. » « La décision de Google pourrait bien entraîner de nombreux réseaux de blogs, incluant un certain nombre de sociétés ayant levé des fonds, à fermer … »

C’est une manipulation et un énième coup de buzz de Google, dans lequel des journalistes et bon nombre de webmasters crédules, tombent à chaque fois. La baisse de PageRank décidée par Google n’avait qu’un seul but de la part de Google, nous faire croire qu’il a encore de l’importance et que Google est capable de sanctionner les sites qui proposent la vente de liens et la vente de PageRank.

La notion de lien, le cross-linking est la base même et le socle fondateur du calcul de la pertinence du moteur Google, qu’il ne peut se permettre de remettre en question tant il a fait son succès et être en mesure de le faire sans repartir d’une feuille blanche et développer un moteur en repartant de zéro.

La notion de lien est la force mais aussi la faiblesse de Google qui n’a pas les moyens – et comment les aurait-il – de savoir quand un lien à été acheté ou pas. Google n’a pas les moyens de pouvoir se mettre entre deux webmasters lors d’une transaction financière pour savoir si un lien est vendu ou pas. Google peut, par contre, décider de manière précise et ponctuelle de sanctionner et pénaliser des sites Web, en cas de blacklistage, les webmasters recevant dorénavant un mail pour les avertir.

Le PageRank est mort, place au TrustRank

Si le PageRank est mort, la notion de lien et son poids dans l’algorithme de Google reste cependant le premier critère pour positionner un site Web et augmenter son rythme d’indexation et de rafraichissement. Dans la philosophie Google, le lien est un vote. C’est un moyen démocratique de voter pour un site, et ainsi de certifier et s’engager sur la confiance qu’il peut accorder à un lien.

Les moteurs dans leur ensemble ont bien essayé de nous inciter à mettre du nofollow sur les liens de nos partenaires, estimant que ce type de liens n’est pas un vote démocratique au sens Google. Pour ma part, je fais confiance à mes partenaires et vouloir sanctionner le cross-linking est à la fois impossible pour Google et contraire au mode de construction du Web : les liens.

En 2008, il nous faudra vraiment arrêter d’accorder une bonne fois pour toute de l’importance à cette seule petite barre verte et se concentrer sur des stratégies de linkbaiting et d’échange de liens avec des sites de qualité et complémentaires/prescripteurs de votre site et indépendant de leur PageRank, car il ne signifie définitivement, plus rien du tout !

par David Degrelle, PDG, 1ère Position / Journal du Net

 

Déjà publié :

L’algorithme PageRank : comment ça marche ?

 

Emploi des ingénieurs : les secteurs porteurs en 2011

Les secteurs porteurs :

  • Énergie

Sans aucun doute, le secteur le plus porteur pour les années à venir. Industrie pétrolière, gaz, électricité, nucléaire… La France se place en première position mondiale dans ces secteurs, dont les embassadeurs sont EDF, Véolia, Areva, GDF-Suez Pour les grands énergéticiens, les recrutements principaux se font sur des postes liés à l’exploitation et à la maintenance, surtout depuis l’ouverture à la concurrence. Concernant le nucléaire, les profils mécaniques pour l’ingénierie des réacteurs ou les métiers de la sûreté nucléaire sont recherchés.

Même en temps de crise, ces entreprises ont continué à recruter, car ces projets sont essentiellement  pensés sur du long terme. 20 à 30 % des ingénieurs sont attirés par ce secteur qui connaît toutefois une pénurie. Les salaires sont plutôt élevés, entre 60 000 euros brut par an et 90 000 euros brut en fin de carrière.

Profils recherchés : production, gestion de projets, géologue, géophysicien, spécialiste des installations électriques, ingénieur procédés, pétrochimiste, expert de la planification et du contrôle des coûts, etc.

Les énergies renouvelables (éolien, biomasse, etc.) représentent un secteur en pleine croissance. L’éolien offshore, selon Nicolas Leroy, devrait concentrer le plus gros des recrutements. Quant au photovoltaique, il subit actuellement de plein fouet la réduction des aides de l’État. Le secteur des énergies renouvelables est essentiellement constitué de PME, où les salaires sont nettement inférieurs à ceux des grands groupes.

  • Environnement

Avec le développement des filières vertes, l’environnement et le développement durable ont la cote. Autre domaine qui recrute : l’eau et le traitement des déchets.

Profils recherchés : hydraulicien, chimiste, ingénieur d’études, technico-commercial

  • Travaux Publics et génie Civil

Construction, rénovation ou maintenance de bâtiment, réseau routier et ferroviaire, ouvrages d’art, ingénierie… Après avoir fortement souffert de la conjoncture ces deux dernières années, le BTP repart à nouveau. Une main d’œuvre qualifiée est hautement recherchée. Les spécialités HQE (Haute Qualité Environnementale) sont très demandées et le seront encore plus à l’avenir, de même que les experts en climatisation, électricité ou mécanique.  Les grands groupes comme Vinci, Bouygues, Razel ou Sade, présents également à l’étranger, sont ceux qui recrutent le plus.

Profils  recherchés : conducteur de travaux, expert en climatisation, électricité ou mécanique, géomètre, ingénieur études de prix, spécialiste de la production de matériaux, ingénieur structure, ingénieur recherche et développement sur les produits et techniques, ingénieur en conception-maintenance, etc.

  • Finance / Banque

Un des secteurs les plus porteurs en termes d’embauche et de salaires. En salle des marchés, le salaire moyen avoisine les 100 à 150 000 euros, hors prime et bonus. Selon le CNISF (Conseil National des Ingénieurs et Scientifiques de France), l’ingénieur en finance est payé 60 % de plus que ceux ayant choisi un autre secteur. Ce n’est pas un hasard si 20 % des polytechniciens choisissent de s’orienter vers cette filière. Quant aux ingénieurs de moins de 30 ans, ils peuvent espérer un salaire annuel brut médian de 41 000 euros.

Profils recherchés : gestion des actifs (finance), ingénieur en mathématiques appliquées (banque), analyste financier

  • Conseil

Les sociétés de conseil, et en particulier conseil en stratégie d’entreprise, sont avides d’ingénieurs.

Profil recherché : ingénieur généraliste issu d’une école du groupe A (les mieux cotées) avec spécialisation en gestion et une expérience en management.

  • Informatique et télécoms

Les nouvelles technologies recrutent toujours autant, que ce soit les réseaux, la programmation ou les télécoms. Les sociétés de services informatiques et le conseil recrutent en masse. En 2009, le salaire moyen était de 65 000 euros brut par an. C’est l’un des secteurs où les salaires sont les plus élevés, surtout pour les profils hautement qualifiés.

Profils recherchés : ingénieur développement, chef de projet (à la fois expert technique et manager), ingénieur et technicien en informatique industrielle, architecte des systèmes d’information, ingénieur réseaux, ingénieur sécurité, administrateur de base de données

 

Les secteurs les moins porteurs à l’heure actuelle :

  • L’automobile a subi de plein fouet le contrecoup de la crise économique. Le secteur se relève doucement, mais à moyen terme il ne devrait plus rester beaucoup d’opportunités en France, pour cause de délocalisations croissantes.
  • L’aéronautique /aérospatiale. Le secteur fonctionne sur des projets à long, voire très long terme : vous ne redimensionnez pas un avion ou une fusée tous les deux ans. D’où un faible taux de turn over, et, du coup, des salaires qui ont du mal à grimper.
  • La chimie (hors chimie du pétrole très porteuse), marche au ralenti depuis plusieurs années. Le nombre de postulants y est supérieur au nombre de places offertes.
  • L’agriculture / agroalimentaire. De secteurs toujours porteurs en termes d’embauche, mais traditionnellement assez peu payants.

 

S’adapter à la crise

L’adaptabilité et la souplesse sont de mise en période de crise. N’hésitez pas à élargir votre champ de recherche à des secteurs plus porteurs et à vous réorienter. Si vous ne trouvez vraiment pas de poste, pourquoi ne pas envisager de poursuivre votre formation pour acquérir des compétences supplémentaires : mastère, MBA. Dans un contexte où l’insertion des ingénieurs est rendue plus difficile qu’avant, les jeunes ingénieurs sont presque trois fois plus nombreux qu’avant à poursuivre leurs études (9,9 %). Le simple savoir technique ne suffit plus aujourd’hui. Les candidats privilégiés sont souvent ceux, qui en plus de leur formation d’ingénieur, ont acquis des connaissances en management. Sinon, pensez aussi à un poste de VIE (Volontaire International en Entreprise), un cursus complet ou un premier job à l’étranger, une expérience dans une ONG… Vous y améliorerez votre niveau de langues et bénéficierez d’une ouverture à l’international, très recherchée aujourd’hui par les recruteurs.

 

Embellie pour les cadres

Après une longue période d’inertie, le marché de l’emploi cadre semble retrouver son dynamisme depuis 2010. Une tendance confirmée en ce début d’année 2011. Selon une étude de l’Apec de 2010 :

  • 31 % des entreprises prévoyaient de recruter des cadres dans la finance au quatrième trimestre 2010 ;
  • 29 % en services techniques (qualité, achats, logistique, sécurité) ;
  • 25 % en production, chantier ;
  • 21 % en informatique ;
  • 20 % en études techniques ;
  • 18 % en recherche et développement.

 

Les ingénieurs qui perçoivent de très hauts salaires

C’est dans le secteur tertiaire que la fréquence des hauts salaires est la plus forte. C’est particulièrement vrai en 2007, quand le tertiaire en rassemblait les deux tiers.

En 2009, les ingénieurs qui travaillent dans le secteur de la finance sont près de cinq fois plus représentés dans les 1 % des salaires les plus élevés que dans la population totale (22,5 % contre 4,7 %).

La composition de la tranche des 1 % les mieux payés a évolué de 1998 à 2009. Ainsi, la part des ingénieurs travaillant dans la finance a fortement augmenté de 1998 à 2007, puis a diminué en 2009, du fait de la crise.

Parmi les autres secteurs parmi lesquels se rencontre une proportion notable d’ingénieurs à très hauts salaires, l’industrie chimique (6,1 % du total en 2009) et les SSII (7,9 %) peuvent aussi être mentionnés.

Répartition des 1 % des ingénieurs les mieux payés par secteur d’activité, en %
Secteur 1998 2007 2009
Base 135 208 280
Agriculture, sylviculture et pêche 0,7 0,0 0,4
Industrie chimique 8,9 2,4 6,1

Métallurgie et fabrication de produits

métalliques (sauf machines

et équipements)

1,5 1,9 4,6
Industries extractives 0,0 0,0 4,3

Fabrication de matériels de transport,

aérospatial

2,2 4,8 4,3

Fabrication de produits informatiques,

électroniques et optiques

8,2 4,3 3,9

Fabrication de machines, équipements,

armements

5,2 1,4 3,6

Fabrication de denrées alimentaires,

de boissons et tabac

2,2 1,9 3,2

Production et distribution d’électricité,

de gaz, de vapeur et d’air

0,7 0,0 2,9
Industrie pharmaceutique 0,0 1,4 2,1
Autres industries 6,7 11,1 5,0
Sous-total industrie 35,6 29,3 40,0
Construction 4,4 3,4 5,7
Activités financières et d’assurance 17,8 54,8 22,5

Services informatiques et services

d’information

0,7 4,3 7,9
Télécommunications 0,7 2,9 3,9

Activités d’ingénierie, de contrôle

et d’analyses techniques, etc.

3,0 1,0 3,2
Transports et entreposage 0,0 0,0 2,9
Autres activités de services 34,1 4,3 13,6
Sous-total tertiaire 56,4 67,3 53,9
Total 100 100 100

Source : Conseil national des ingénieurs et scientifiques de France (CNISF), enquête 2010 sur la situation des ingénieurs diplômés français

 

C.H.

 

(Sources : www.ingenieurs.com ; www.reussirmavie.net ; www.cadremploi.fr)

 

Vous recherchez un poste ou un stage ? Rendez-vous sur l’espace Réseau & Emploi de Techniques de l’Ingénieur

 

Découvrez la formation Techniques de l’Ingénieur : INGÉNIEUR MANAGER

Astrid : futur réacteur nucléaire de 4ème génération

Baptisé « Astrid », le prototype français de réacteur de quatrième génération devrait voir le jour en 2020. D’après le CEA, ce futur réacteur à neutrons rapides au sodium présentera de nombreux avantages, dont un recyclage total des matières, une préservation de la ressource uranium et une gestion « durable » des déchets et matières radioactives grâce à la transmutation.

À l’horizon 2030, l’Agence Internationale de l’Énergie Atomique (AIEA) prévoit une augmentation de 20 à 80 % de la puissance nucléaire installée dans le monde, notamment en Chine. Le marché de l’uranium pourrait connaître des tensions dès le milieu du siècle, voire une pénurie à la fin du XXIe siècle. Dans ce contexte, le Forum génération IV vise à catalyser les efforts de recherche des différents pays. Il a retenu 6 systèmes, qui doivent répondre à des exigences de sûreté, d’économie, de disponibilité, d’inspection en service et de réparabilité. La France se consacre à deux d’entre eux, le RNR au gaz (20 % de ses efforts avec le projet Allegro), et surtout le RNR au sodium, filière plus mature.

Séparation et transmutation

Les RNR permettent d’élargir le spectre d’utilisation des combustibles potentiels et d’utiliser l’ensemble des stocks de plutonium en le recyclant de façon récurrente, préservant ainsi les ressources en uranium. On pourra profiter de la totalité du minerai d’uranium, y compris l’uranium 238. En effet, à défaut d’être fissile, l’uranium 238 peut se transmuter en plutonium 239, à son tour fissile. Dans les réacteurs actuels, seuls quelques neutrons lents parviennent à transmuter. Dans les réacteurs de 4e génération, l’ensemble de l’uranium 238 pourra être transmuté en Pu239. D’après le CEA, la disponibilité mondiale en ressources fissiles primaires pourrait ainsi être multipliée par 100.

Par ailleurs, les réacteurs devraient être en mesure de brûler les actinides mineurs, partie déterminante des éléments radioactifs à vie longue. Les déchets ultimes se limiteraient donc aux produits de fission qui, débarrassées des actinides mineurs, seraient plus facilement stockables et retrouveraient le niveau de radioactivité de l’uranium naturel au bout de 300 ans.

650 millions d’euros

Ces techniques, dont la faisabilité est prouvée en laboratoire, vont être confrontées à l’échelle industrielle avec Astrid (Advanced Sodium Technological Reactor for Industrial Demonstration). Prévu pour 2020, ce prototype de 600 MWe, qui devrait se situer à Marcoule, s’inscrit dans la loi du n°2006-739 du 28 juin 2006. L’échéance de 2020 vise également à maintenir les compétences, permettant ainsi aux experts de former une nouvelle génération avant de partir à la retraite.

Astrid bénéficie d’un financement de 650 millions d’euros pour la période 2010-2017 dans le cadre du grand emprunt national. Le CEA compte également obtenir un soutien dans le cadre du prochain PCRDT (Programme Cadre de Recherche et Développement Technologique). Le projet repose sur différentes collaborations en France (Areva, EDF, et GDF Suez) et à l’international, dont un partenariat renforcé avec le Japon.

C.G.

 

Calendrier du projet Astrid

  • Mi-2010 : définition des choix structurants et des options ouvertes, lancement de l’avant-projet sommaire
  • Avant fin 2012 : avant-projet phase 1 (recherche de rupture technologique en maintenant le risque projet à un niveau raisonnable, dialogue avec l’Autorité de sûreté nucléaire, évaluation des perspectives industrielles des filières de transmutation)
  • De 2013 à fin 2014 : avant-projet phase 2 (avant-projet sommaire finalisé et dossier d’options de sûreté)
  • 2016 : mise en service de l’atelier de fabrication de cœurs
  • 2020 : mise en exploitation du prototype Astrid

 

 

 

original

 

Crédit CEA

 

DÉJÀ PARU :

La sûreté nucléaire en France, au centre des débats

Un audit va être réalisé sur le parc nucléaire français

Une mini-centrale nucléaire sous-marine en 2017 ?

Nucléaire : il n’y a pas de risques de prolifération avec les réacteurs actuels

Impacts du règlement CLP sur les FDS et les ICPE

Le règlement européen n°1907/2006 sur REACH (Registration, Evaluation and Authorization of Chemicals) a été adopté fin décembre 2006 par le Parlement et le Conseil européen et est entré en vigueur le 1er juin 2007. Il a pour objectif de mieux connaître et de mieux maîtriser les effets des substances chimiques mises sur le marché, sur la santé et sur l’environnement. Il s’applique à tous les pays de l’Union Européenne. Une première phase de ce règlement s’est déroulée jusqu’au 30 novembre 2010 avec l’enregistrement :

  • des substances produites ou importées à plus de 1000 tonnes par an ;
  • des substances classées comme dangereuses pour l’environnement (R50/53) à plus de 100 tonnes par an ;
  • des substances classées CMR (cancérogène, mutagène et toxique pour la reproduction) à plus de 1 tonne par an.

En parallèle de cette réglementation, un autre règlement européen sur les substances chimiques, et plus spécifiquement sur la classification, l’étiquetage et l’emballage des substances et des mélanges (Règlement européen CLP de décembre 2008) est entré en vigueur le 20 janvier 2009. Ce règlement reprend les principes généraux du GHS (globally harmonized system) dont l’objectif est d’informer les utilisateurs sur les dangers des produits chimiques par le biais de symboles et de phrases de risques standardisées.

Le règlement CLP est fortement lié au règlement REACH mais également à toutes les législations faisant référence aux directives 67/548/CEE « Substances dangereuses » (DSD) et 1999/45/CE « Préparations dangereuses » (DPD). Deux exemples d’impacts du règlement CLP sur les fiches de données de sécurité (règlement REACH) et sur la réglementation relative aux installations classées pour la protection de l’environnement (ICPE) sont présentés ci-après.

Impacts du règlement CLP sur les fiches de données de sécurité (FDS)

Le règlement européen REACH impose à tout fournisseur de substances ou de mélanges de fournir au destinataire de la substance ou du mélange une fiche de données de sécurité (FDS) (article 31 du règlement REACH et Annexe II du règlement REACH « Guide d’élaboration des fiches de données de sécurité »). Le règlement CLP vient impacter ces fiches de données de sécurité de part la nouvelle classification. L’ancienne classification faisait référence aux directives 67/548/CEE « Substances dangereuses » (DSD) et 1999/45/CE « Préparations dangereuses » (DPD). Ces deux règlementations seront abrogées au 1er juin 2015 à l’issue de la période de transition.

Les rubriques 2 (Identifications des dangers) et 3 (Composition/informations sur les composants) des FDS sont modifiées :

Rubrique 2 : Identification des dangers

Sous-rubrique 2-1 Classification de la substance ou du mélange :

Les FDS devront comporter une double classification : la classification DSD/DPD et la classification CLP jusqu’au 31 mai 2015. A compter de cette date, seule la classification CLP devra être présente.

La classification CLP s’effectue en déterminant des classes et des catégories de danger, alors que dans l’ancienne réglementation, la classification se faisait au travers de catégories de danger.
Exemple de classification :

– selon la directive DSD :

  • F, R11 ;
  • T, R24/25.

– selon le règlement CLP :

  • Liquide inflammable, catégorie 3, H225 ;
  • Toxicité aigüe, catégorie 3, H 301 ;
  • Toxicité aigüe, catégorie 3, H 311.

Sous-rubrique 2-2 Eléments d’étiquetage :

  • Les substances, depuis le 1er décembre 2010, ne doivent présenter que l’étiquetage CLP ;
  • Les mélanges, jusqu’au 31 mai 2015, devront comporter l’étiquetage DSD ou DPD et l’étiquetage CLP. A compter du 1er juin 2015, seul l’étiquetage CLP devra apparaître ;
  • Les pictogrammes de dangers évoluent et passent de sept à neuf (voir image ci-dessous) ;

  • Les indications de danger dans l’ancienne règlementation deviennent des mentions d’avertissement dans le règlement CLP (danger ou attention) ;
  • Les phrases de risque R et les conseils de prudence S deviennent avec le règlement CLP des mentions de dangers H et des conseils de prudence S.

Rubrique 3 : Composition/informations sur les composants

Pour le cas des mélanges, les FDS devront comporter la concentration ou les gammes de concentration et les classifications (y compris les classes de dangers, mention de danger… dans le cadre du règlement CLP, et les indications du danger, phrases R … dans le cadre des directives DSD/DPD) pour :

  • les substances présentant un danger pour la santé ou l’environnement ;
  • les substances ayant une VLEP (Valeur Limite d’Exposition Professionnelle) ;
  • les substances PBT (persistant, bioaccumulable, toxique) ou vPvB (very persistant, very bioaccumulable)…

Une FDS existante pourra nécessiter une mise à jour si :

  • une substance ou un mélange a été classé, étiqueté et emballé conformément au règlement CLP et avait déjà été classé conformément aux directives DSD/DPD. Les classifications DSD/DPD et les nouvelles classifications CLP doivent être incluses dans la FDS ;
  • de nouvelles connaissances sur les dangers sont disponibles ;
  • des substances ou des mélanges qui n’étaient pas classés conformément aux directives DSD et DPD sont désormais classés comme dangereux ou contiennent une ou plusieurs substances composantes classées comme dangereuses pour ses effets sur la santé ou l’environnement au-dessus du seuil spécifié de ≥ 1 % en poids pour des mélanges non gazeux et ≥ 0,2 % en volume pour des mélanges gazeux.

Impacts du règlement CLP sur les Installations classées pour la protection de l’environnement (ICPE)

La nomenclature des installations classées se décompose en deux catégories :

  • les rubriques 1xxx relatives aux substances qui sont associées aux phrases de risque R ;
  • les rubriques 2xxx relatives aux activités.

Les rubriques 1xxx découlent de la Directive SEVESO II de 1996 et notamment de l’annexe I qui comprend deux parties :

  • Partie 1 : Liste des substances désignées ;
  • Partie 2 : Liste des catégories de substances et préparations non spécifiquement désignées dans la partie 1 (selon DSD/DPD).

Le règlement CLP concerne les substances et aura donc un impact sur la partie 2 de l’annexe 1 de la directive SEVESO II. Aujourd’hui, une directive SEVESO III, qui abrogera la directive SEVESO II de 1996, est en cours de rédaction. L’annexe I de cette nouvelle directive sera totalement modifiée pour tenir compte des nouvelles classifications liées au règlement CLP.

Concernant la nomenclature des installations classées, certaines rubriques seront faiblement impactées. Il s’agit notamment des rubriques 1171 et 1172 (dangereux pour l’environnement, très toxique et/ou toxique pour les organismes aquatiques), 1810 (substances ou préparations réagissant violemment au contact de l’eau), 1200 (comburants)… D’autres rubriques seront fortement impactées :

  • 111x (très toxique : phosgène …) ;
  • 113x (toxique : ammoniac, chlore) ;
  • 114x (formaldéhyde, chlorure d’hydrogène anhydre liquéfié) ;
  • 131x (explosifs) ;
  • 132x (autres substances explosibles).

L’annexe VI « Classification et étiquetage harmonisés pour certaines substances dangereuses » du règlement CLP présente, dans son tableau 3.2, la liste des classifications et des étiquetages harmonisés des substances dangereuses, provenant de l’annexe I de la directive 67/548/CEE (DSD). Quelques modifications ont été apportées par rapport à la directive DSD avec notamment la suppression de certaines concentrations spécifiques remplacées par les limites de concentration génériques, ce qui a pour but de « sévériser » la classification des mélanges contenant les substances impactées. C’est notamment le cas de l’eau de javel ou hypochlorite de sodium.

Cette annexe VI du règlement CLP est mise à jour régulièrement. Il est donc fortement recommandé de suivre les évolutions. Les dernières en date, avec la parution de l’Adaptation au Progrès Technique (APT) (Règlement du 10/09/2009 qui modifie les tableaux 3.1 et 3.2 de l’annexe VI du règlement CLP à compter du 1er décembre 2010) concernent environs 340 substances qui entrent dans le champ de la classification et 180 substances qui voient leur classement modifié.

L’exploitant d’une installation classée concernée par une modification de son statut peut bénéficier des droits acquis, sous réserve qu’il se fasse connaître au Préfet dans les douze mois suivant l’entrée en vigueur du règlement qui entraîne ce nouveau régime administratif. Ce bénéfice des droits acquis dispense de procédures d’autorisation, d’enregistrement ou de déclaration mais il ne dispense pas de l’application des prescriptions de fonctionnement des textes règlementaires désormais applicables à l’entreprise dans un délai à valider avec l’inspection des ICPE.

A ce jour, tant que la nouvelle directive SEVESO III n’est pas approuvée, et donc la nouvelle nomenclature ICPE modifiée, et sachant que les phrases de risque R sont toujours présentes dans la classification des substances et des mélanges et ce jusqu’au 31 mai 2015, aucun changement n’est applicable, sauf pour les substances concernées par les ATP.

Par Céline Nectoux, Ingénieur Environnement au Centre National des Risques Industriels

Références :

  • Règlement européen REACH n° 1907/2006

http://eur-lex.europa.eu/JOHtml.do?uri=OJ:L:2007:136:SOM:FR:HTML

  • Règlement européen CLP n° 12721/2008

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32008R1272:FR:HTML

  • Conférence du 25 novembre 2010 sur « L’impact du règlement CLP sur la réglementation des ICPE et sur la future directive SEVESO »

 

  • Aïda pour la nomenclature des Installations classées :

http://www.ineris.fr/aida/?q=consult_doc/navigation/2.250.190.28.6.2862/5

LES FORMATIONS TECHNIQUES DE l’INGENIEUR :

 

 

Premiere technologie QoS pour la vidéoconférence sur les postes de travail

Les architectures de communication et de collaboration unifiées (UCC) ont un succès croissant dans les entreprises. Les directions informatiques commencent par déployer des services unifiés de messagerie électronique, de messagerie instantanée et de présence, et parfois de communication voix. Ajouter des services de communications vidéo à partir des postes de travail est plus complexe car cette fonctionnalité consomme beaucoup de bande passante, ce qui peut avoir un impact négatif sur le fonctionnement du réseau, par exemple sur le trafic lié aux applications critiques. Avec l’avènement de nouvelles applications vidéo telles que Skype, MSN Messenger ou Apple Facetime, les utilisateurs sont désormais familiarisés aux appels vidéo et attendent de leur entreprise qu’elle leur fournisse en interne de telles applications. Pour résoudre le problème de consommation de bande passante que cela implique, des technologies telles que « Call Admission Control » (CAC) peuvent être mises en œuvre et fixent un nombre maximum de communications vidéo autorisées par site. Cette solution est mal perçue par les utilisateurs, qui ne comprennent pas pourquoi les applications vidéo ne sont pas accessibles de façon intermittente.

Fournisseur de solutions qui garantissent les performances des communications unifiées et des applications interactives sur les réseaux étendus, Streamcore annonce le dépôt de plusieurs brevets, portant sur la première technologie au monde dédiée à l’optimisation des vidéoconférences sur les postes de travail. Cette nouvelle technologie réduit au minimum les temps de latence et la gigue, ainsi que l’impact des pertes de paquets sur le réseau pour les utilisateurs de vidéoconférences. Elle est basée sur un moteur de QoS (Qualité de Service réseau) qui gère automatiquement la répartition de la bande passante entre les utilisateurs, appelée UCPA/V (User Competition Prioritization for Audio/Vidéo), combinée avec une technologie de classification des flux DPI (Deep Packet Inspection).

Visibilité et contrôle personnalisés de la vidéoconférence sur les postes de travail

Cette technologie brevetée réserve un volume maximum de bande passante pour tout le trafic de vidéo conférence sur les postes de travail, site par site, et optimise la qualité vidéo perçue par les utilisateurs s’il y a trop de communications vidéo simultanées pour la bande passante disponible :

  • les trames audio sont automatiquement détectées et « prioritisées » pour garantir la qualité de la partie audio des vidéoconférences ;
  • les flux vidéo sont gérés par un moteur de QoS par session, garantissant une latence minimale et exactement le même débit pour chaque utilisateur ;
  • le contenu des trames vidéo H.263 et H.264 est analysé à la volée afin de détecter et de protéger les plus critiques pour la qualité vidéo.

Cette technologie peut même être appliquée aux codecs vidéo les plus récents tels que le H.264-SVC, qui utilise de nouveaux types de trames vidéo nécessitant un traitement QoS préférentiel.

En combinant les technologies brevetées UCPA/V et DPIA/V, les mesures de performances pour les communications audio/vidéo et l’approche orientée business des solutions Streamcore, les entreprises peuvent facilement définir des politiques de visibilité et contrôle personnalisées par département ou par type de site pour la vidéoconférence sur les postes de travail.