Mieux courir grâce aux mathématiques

Il confirme en outre un fait bien connu des sportifs : varier sa vitesse permet de mieux dépenser son énergie et de courir plus longtemps. Les mathématiques offrent ainsi l’opportunité aux coureurs de passer de simples outils de mesures statistiques au conseil sportif personnalisé. Ces travaux, disponibles sur l’archive ouverte HAL, seront présentés le 16 mai 2014 lors du forum Futurapolis à Toulouse, dont le CNRS est partenaire, puis publiés dans la revue SIAM J.Applied Maths.

Ce modèle mathématique prend tout d’abord en compte l’énergie du coureur, notamment sa consommation maximale d’oxygène (VO2max) et son stock d’énergie anaérobie, en les faisant intervenir dans un système d’équations différentielles reliant la vitesse, l’accélération, la force de propulsion et les forces de frottement. Ce système est couplé à des conditions initiales de départ de la course, vitesse nulle et quantité d’énergie donnée, et des contraintes : l’énergie et la force de propulsion doivent être positives (le coureur ne peut pas reculer). Les chercheurs sont capables avec ce modèle de prédire le comportement que doit avoir le sportif tout au long de sa course au moyen d’un bilan instantané déterminant à la seconde près la vitesse optimale du coureur et l’énergie dépensée depuis le départ.

Leur résultat principal montre ainsi que varier sa vitesse permet de dépenser moins d’énergie et de courir plus longtemps. De plus, en comparant ces résultats avec ceux d’athlètes professionnels, les scientifiques peuvent également préciser quels paramètres physiologiques les coureurs doivent développer pour s’améliorer en répondant par exemple aux questions suivantes : quels seront les résultats d’un champion s’il avait le poids et la consommation maximale d’oxygène d’un coureur amateur ? Quels sont alors les paramètres que le sportif amateur peut améliorer pour s’approcher des résultats habituels du champion ? Peut-il améliorer sa capacité respiratoire ou son énergie anaérobie ?

Les applications de ce modèle concernent deux types de publics. Dans le cas des coureurs « semi-professionnels » qui n’ont pas l’opportunité de travailler avec un entraîneur ou dans le cadre de cours d’éducation physique et sportive à l’école, les chercheurs imaginent un logiciel capable de créer des programmes d’entrainements personnalisés qui indiquent les paramètres physiologiques à développer en priorité et de réaliser des stratégies précisant les vitesses optimales à atteindre à chaque moment de la course. Pour les « coureurs du dimanche », le système d’équations étant adaptable à toutes les variables intéressantes pour le sportif (et pas seulement la vitesse), ces derniers pourront, par exemple, connaitre instantanément le nombre exact (et non pas une simple moyenne comme pour les autres outils) de calories perdues lors de la course et comment améliorer leur perte de poids.

Les chercheurs souhaitent désormais améliorer leur modèle mathématique en intégrant au système d’équations de nouveaux paramètres comme l’altitude ou l’effet du vent et l’appliquer à d’autres sports d’endurance comme le cyclisme, la natation ou le canoé kayak.

Source : Ecole Polytechnique

Vidéo : le projet Ara se dévoile un peu plus

De l’eau a coulé sous les ponts depuis ce mois d’octobre 2013, date à laquelle nous parlions pour la première fois du projet « Phonebloks » du designer néerlandais Dave Hakkens. Rappelez-vous, il s’agissait de ce smartphone évolutif et modulaire, fonctionnant un peu comme un jeu lego.

À l’époque, l’idée originale du jeune homme avait suscité un emballement remarquable, tant sur les réseaux sociaux que sur la plateforme de crowdspeaking Thunderclap. La vidéo de présentation postée sur Youtube avait même atteint 20 millions de vues en un temps record. Si bien que la branche de Motorola (appelée Motorola Mobility) rachetée en 2011 par Google s’était emparé du projet pour continuer de le développer. Devenant alors le « projet Ara » de Google.

Or depuis ce rachat, l’avancement du fameux smartphone révolutionnaire, censé lutter contre l’obsolescence programmée et tenir toute la vie comme le titrait Arion McNicoll pour CNN, semble s’accélérer. Dans une nouvelle vidéo mise en ligne, on peut en effet voir un prototype fonctionnel du « phonebloks » conçu par la société d’ingénierie NK Labs. On y découvre un design quelque peu changé, assez coloré. Mais surtout on apprend que les modules ne sont plus clipsables comme prévu originellement mais qu’ils s’emboîtent par un système de glissement; et ce même lorsque l’appareil est allumé. Désormais, on sait que l’ossature du « phonebloks » se compose d’au moins huit éléments dont une batterie, un micro-processeur, un écran LED, un port de charge USB, des haut-parleurs et un appareil photo. La base étant de concevoir selon ses goûts le smartphone idéal.

De nombreux détails restent encore à parfaire. Pour l’heure, le mobile fonctionne avec « l’ancienne » version du système d’exploitation Android Jelly Bean. À priori, il n’est donc pas aussi puissant que les prochains smartphones disposant de Lollipop. La modularité quant à elle présenterait également un défaut que les ingénieurs de NK Labs souhaitent corriger : celui de prendre la moitié de l’espace du prototype. Le but serait donc de rendre ces composants moins encombrants tout en améliorant leurs performances.

À en croire Paul Eremenko, en charge de l’avancée du projet, les objectifs devraient être respectés selon le calendrier fixé. Ainsi Google devrait normalement dévoiler une nouvelle mouture du prototype fonctionnel, appelé Spiral 2 avec probablement de nouveaux modules lors d’une conférence prévue pour le 14 janvier prochain à Mountain View. Et la commercialisation pourrait avoir lieu en avril 2015. Nous devrions donc en savoir plus à ce moment au sujet de la viabilité du modèle économique…

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Comment réussir une paroi perspirante ?

Un matériau perspirant a la propriété de laisser passer l’humidité à travers son épaisseur de façon à ce qu’elle s’évapore une fois arrivée de l’autre côté. Tout l’enjeu est de réussir à évacuer l’eau sans qu’elle condense le long de la paroi ou à l’intérieur du mur.  Pour cela, une paroi perspirante se décompose en plusieurs matériaux positionnés du moins perméable au plus perméable, le moins perméable étant le plus proche de l’intérieur. Ainsi, quand l’air intérieur est plus humide qu’à l’extérieur, l’excédent de vapeur d’eau est absorbé par la paroi, puis exfiltré de l’habitat jusqu’au mur extérieur. Idéalement, la réciproque est vraie. Si l’air intérieur est trop sec, la paroi perspirante rend de la vapeur d’eau, rajoutant l’humidité nécessaire au sein de l’habitat.

Une telle régulation de l’hygroscopie est réputée renforcer le confort des résidents. Mais pour bien fonctionner, de telles parois doivent à tout prix empêcher l’humidité de s’accumuler dans le mur, sous peine d’y faire apparaitre des moisissures. En période de grand froid, le risque va même jusqu’à l’apparition de fissures du fait du gel de l’eau stagnante.

La réussite de cet équilibre nécessite la mise en place d’un pare vapeur, c’est-à-dire  une couche qui va garantir l’étanchéité de l’air tout en laissant s’échapper l’eau. Car une paroi perspirante n’est pas qu’un régulateur d’humidité, celle-ci doit en parallèle se montrer étanche à l’air. Ce pare vapeur, souvent appelé frein vapeur, présente un facteur de diffusion de la vapeur d’eau  inférieur à 10 et garanti l’isolation du mur. Celui-ci doit être parfaitement jointé sur la totalité de la surface intérieure de la paroi. La moindre fuite pourrait être source d’une concentration de particules d’eau. Un pare vapeur peut être constitué de feuilles de kraft paraffinées renforcé à la fibre de verre.

Les matériaux utilisés pour créer une paroi perspirante peuvent être la laine de mouton qui se caractérise par une importante capacité d’absorption. Les panneaux en fibres de bois présentent aussi une bonne absorption. Les isolants dérivés du bois tels que la laine de bois, la ouate de cellulose ou encore les panneaux OSB font des pare-pluie efficaces. Enfin, on optera pour des panneaux de plâtre vers l’intérieur pour répondre aux besoins d’une bonne stabilité au feu.

A noter qu’une paroi perspirante diminue les dépenses énergétiques  globales du bâtiment, mais ne dispense pas de ventiler l’air intérieur.  Ceci en fait une solution privilégiée de l’éco-habitat.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

A quoi est due l’instabilité du marché énergétique européen?

La 16e édition de l’Observatoire européen des marchés de l’énergie met en garde contre l’instabilité des marchés de l’électricité. Selon ce rapport, les épisodes où les prix de gros de l’électricité sont négatifs se sont multipliés, les centrales à gaz ferment faute de rentabilité et les prix de vente au détail augmentent. Le problème serait particulièrement important en Allemagne.

Le développement des énergies renouvelables en cause?

Il est courant que les médias attribuent principalement les difficultés actuelles du marché aux énergies renouvelables. Mais sont-elles aussi coupables que cela ?

Rien n’est moins sûr. Rappelons qu’en France, le développement des énergies renouvelables est prévu par arrêté ministériel. Les trajectoires jusqu’en 2020 sont prévues depuis le Grenelle de l’environnement et n’ont pas été dépassées.  » Nous sommes même en dessous du point de passage prévu pour 2012 « , prévient Damien Mathon, Délégué Général du Syndicat des énergies renouvelables.

En réalité, le problème serait ailleurs. Le développement des énergies renouvelables est programmé par RTE à partir des programmations pluriannuelles des investissementsde production d’électricité (PPI). Suite au bilan prévisionnel de RTE en 2007, les investisseurs avaient prévu la construction de nouvelles centrales au gaz. La PPI de 2009 prévoit que ces constructions soient accompagnées de la fermeture de centrales au charbon : passage de 6,9 GW installés en 2009 à 3,3 GW en 2016. Mais entre temps, la crise économique a fortement impacté la consommation d’électricité. De plus, le développement du gaz de schiste en Amérique du Nord, accompagné d’importations de charbon à bas prix en Europe, a fait diminuer la compétitivité des centrales à gaz face au charbon.

En France, entre 2008 et 2012, les capacités installées en cycle combiné gaz (CCG) ont dépassé les prévisions initiales : près de 4 gigawatts (GW) de CCGet 1 GW de turbines à gaz ont été installées. Mais le parc n’a perdu que 292,5 MW de centrales au charbon et 750 MW de centrales au fioul. Le déclassement programmé de centrales à fioul et charbon n’a pas eu lieu dans le même temps et a commencé entre 2012 et 2013, mais moins vite que le déploiement de nouvelles capacités de gaz. Selon le bilan életrique RTE de 2013, entre 2012 et 2013, le parc de production installé en France a perdu 1,6 GW de centrales aucharbon, 607 MW de centrale au fioul et 71 MW de centrale au gaz. Fin 2013, la France comprenait donc encore 5,3 GW de centrales au charbon. Le résultat est que nous sommes en surcapacité de production d’origine fossile, ce qui destabilise forcément le marché.

Avec l’application de la directive européenne sur les grandes installations de combustion, qui demande la fermeture de 15,8 GW de capacité de charbon d’ici fin 2015, ce déclassement devrait s’achever l’année prochaine pour atteindre une capacité finale installée de 3,3 GW. En complément, la directive relative aux émissions industrielles (IED) entraînera la fermeture de 65 à 70 GW de centrales au charbon en Europe d’ici 2020-2023. Ces deux directives devraient contribuer à rééquilibrer le marché à l’avenir. Mais sur le court-terme, le problème n’est pas résolu.

Mais alors, quel rôle jouent les énergies renouvelables dans la destabilisation du marché ? En France, pas grand chose. Les PPI prévoient la trajectoire de développement des énergies renouvelables.  » On est en dessous des objectifs de la PPI fixés en 2009 et en dessous du point de passage prévu de 2012 « , rappelle Damien Mathon. En France, les énergies renouvelables variables représentent moins de 5% de la production d’électricité.  » Dire qu’elles sont à l’origine des problèmes du marché est un peu exubérant « , déplore Damien Mathon.

Néanmoins, la situation française diffère de la situation européenne et notamment allemande, en raison de son parc nucléaire important et du faible développement, pour le moment, des énergies renouvelables intermittentes.

La situation est-elle différente en Allemagne ?

En Allemagne, le bilan est plus mitigé, mais les choses évoluent. L’Allemagne a été le premier pays à s’engager dans la voie de la transition énergétique, avec un développement massif des énergies renouvelables. Résultat : le pays doit construire de nouvelles lignes haute-tension, les subventions aux énergies renouvelables ont explosé et les prix de l’électricité ont sensiblement augmenté. Les centrales nucléaires situées dans le sud du pays sont remplacées, dans le nord du pays, par des installations solaires photovoltaïques décentralisées et des éoliennes, nécessitant de nouvelles lignes électriques. Le pays se heurte également au développement du charbon au détriment du gaz.

Pour prévenir les hausses de prix dues à sa transition énergétique, l’Allemagne a réagi en adoptant en avril 2014 une nouvelle loi sur les énergies renouvelables. Celle-ci prévoit notamment de muter graduellement d’un système de tarif d’achat classique à une vente directe sur le marché, accompagnée d’une prime pour compenser l’écart par rapport au prix du marché. Cette évolution semble vertueuse, avec une réduction des périodes de prix négatifs sur le marché de gros de l’électricité. Notons qu’en France, le dernier épisode de prix négatif remonte à Juin 2013; la situation est donc loin d’être récurrente dans notre pays.

Au final, en Europe, la baisse de la demande et la concurrence du charbon ont entraîné la perte de rentabilité des centrales au gaz et la fermeture deplus de 10 GW de centrales au gaz en 2013.De plus, la faiblesse du prix des quotas de CO2, qui ne joue plus son rôle pour orienter l’industrie vers une production moins polluante, ajoute de la complexité au problème.

Un réseau en manque d’investissements ?

À plus long terme, l’Agence internationale de l’énergie (AIE) estime que malgré une croissance lente de la demande d’électricité (11% d’ici à 2035), l’Europe aura besoin de 740 GW de capacité supplémentaire d’ici 2035 pour remplacer l’infrastructure vieillissante. En effet, 40 % de la capacité des centrales thermiques doit être remplacée à cet horizon. Cela représente 2 200 milliards de dollars d’investissements, dont 70 % pour les centrales électriques et 30 % pour les réseaux. Capgemini estime que le prix de l’électricité devrait augmenter de 10% dans la prochaine décennie pour réaliser ces investissements nécessaires.

Un manque de gaz à prévoir ?

Le rapport de Capgemini s’intéresse aussi à la sécurité d’approvisionnement en gaz de l’Europe. La crise russo-ukrainienne pourrait entraîner des coupures d’approvisionnement en gaz dans certains pays dès cet hiver. Cela pourrait créer d’importantes tensions. En effet, 30 % du gaz utilisé en Europe provient de Russie et la moitié de ce gaz transite par l’Ukraine. Dans ce contexe, l’importation de gaz de schistes dans les pays qui ont commencé son extraction (Angleterre, Pologne et Roumanie) ne suffirait pas à satisfaire la demande. De plus, en raison de la baisse de la demande en gaz, les investissements concernant des gazoducs contournant la Russie, l’amélioration des capacités de stockage ou des importations de gaz naturel liquéfié ne se sont pas matérialisés.

On vous l’accorde, en réalité, la question de l’instabilité du marché de l’énergie est bien plus complexe qu’une simple question d’énergies renouvelables !

Par Matthieu Combe, journaliste scientifique

Voyage au coeur d’un système solaire triple en formation

Si les découvertes observationnelles récentes ont démontré l’existence de nombreuses planètes autour des étoiles doubles, leur formation se heurtait au problème des instabilités gravitationnelles engendrées par la nature binaire de ces astres. Les observations d’étoiles jeunes binaires sont encore trop rares pour fournir une image détaillée de ces processus. Jusqu’à très récemment, GG Tau A, située à près de 450 années-lumière de la Terre dans la constellation du Taureau, était connue comme une étoile binaire avec deux composantes Aa et Ab. Mais des mesures infrarouges récentes réalisées avec les instruments du VLT et du VLTI (ESO) ont révélé que GG Tau A est en fait un système stellaire triple1 : GG Tau Ab est elle-même une étoile binaire. L’étoile centrale Aa est suffisamment éloignée du couple Ab pour être entourée d’un disque circumstellaire, observé dès 2011 avec l’interféromètre de l’IRAM.

Autour de ce système stellaire triple, les chercheurs ont déjà mis en évidence un disque de gaz et de poussières en rotation, évidé en son centre par les effets de marée gravitationnels. En tournant les unes autour des autres, les trois étoiles créent en effet une zone gravitationnellement instable appelée cavité, où la matière ne peut que transiter avant de tomber sur les étoiles centrales. Plus loin, là où réside l’anneau externe de matière, le champ gravitationnel n’est plus perturbé et la matière en rotation peut s’organiser en une structure stable. L’existence d’une cavité centrale autour de GG Tau A, connue dès les années 1990 grâce aux observations de l’interféromètre de l’IRAM, confirmait en partie ces prédictions théoriques. Dans les années 2000, on a détecté la présence de gaz dans cette cavité, mais la dynamique précise de ce gaz, pierre essentielle à la compréhension des mécanismes d’accrétion donnant naissance aux planètes, restait largement méconnue.

Dans cette nouvelle étude, des observations du monoxyde de carbone (CO sous forme gazeuse) et de l’émission des grains de poussière autour de GG Tau A ont été obtenues de manière complémentaire avec les interféromètres ALMA (Chili) et IRAM (Alpes françaises). Elles ont permis de lever une partie du voile sur la répartition de la matière et sur la dynamique à l’intérieur de la cavité, avec une précision encore jamais atteinte dans ce domaine. Les images montrent en effet un filament de gaz provenant de l’anneau externe tombant vers les étoiles centrales. La quantité de gaz ainsi transportée se révèle suffisante pour alimenter le disque interne autour de GG Tau Aa. Les mouvements de gaz observés confirment ainsi les prédictions des simulations numériques antérieures. Ils démontrent que la matière provenant de l’anneau externe est capable de nourrir le disque interne autour de GG Tau Aa pendant assez longtemps pour éventuellement permettre la formation des exoplanètes.

Si ce résultat était attendu, le suivant l’était moins : les deux cartes de l’émission du CO révèlent une surbrillance remarquable sur le bord externe de l’anneau autour du système stellaire triple. Son étude détaillée montre qu’elle est deux fois plus chaude que le milieu environnant et qu’il pourrait s’agir de la signature d’une jeune exoplanète géante en cours de formation. Cette planète serait en train de creuser un fin sillon dans le disque externe, mais la détection d’une telle structure reste pour l’heure hors de portée des instruments. La mise en service prochainement des antennes NOEMAde l’IRAM sur le plateau de Bure sera, sans nul doute, un atout majeur pour en savoir plus sur GG Tau, un système de soleils jeunes qui n’a pas fini de livrer ses mystères.

Source : CNRS

Angle mort à droite avec les lunettes Google, selon une étude

Les effets sur la vision de ces lunettes sont encore largement inconnus, précisent les auteurs de cette étude parue dans le Journal of the American Medical Association (JAMA).

Certaines montures de lunettes traditionnelles peuvent aussi réduire le champ visuel, créant parfois des angles morts. Or les lunettes Google ont une branche sur le côté droit très large, expliquent ces chercheurs, dont le Dr Tsontcho Ianchulev de l’Université de Californie à San Francisco.

Ces ophtalmologues ont effectué des tests de vision périphérique avec trois personnes ayant une acuité visuelle de 20 sur 20.

Les participants ont d’abord chaussé des lunettes Google et suivi les instructions du fabricant, qui prévoit une période d’acclimatation de 60 minutes.

Les chercheurs ont mesuré leur champ de vision périphérique, avant d’effectuer le même test sur ces trois participants avec des lunettes normales, dotées de montures similaires.

Les auteurs ont aussi évalué comment les gens portaient les lunettes Google, en analysant des photos de personnes avec ces lunettes faisant face à l’objectif.

Les résultats ont montré des angles morts importants chez les trois participants qui portaient les lunettes Google, créant de facto une obstruction clinique significative de la vision dans la partie droite supérieure du champ visuel.

Selon ces chercheurs, ces angles morts résultent de la conception des montures mais pas d’une distraction créée par le système d’affichage d’informations qui se trouve sur le verre droit.

Une analyse de 132 photographies de personnes avec ces lunettes ont montré qu’un grand nombre les portaient près ou chevauchant l’axe de leurs pupilles –ligne perpendiculaire à la surface de la cornée passant au centre de la pupille–, ce qui peut induire des angles morts.

Les auteurs admettent que les résultats de cette recherche sont limités par le petit nombre de sujets et suggèrent d’effectuer des essais avec davantage de participants.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Dépenses de recherche: l’effet d’entraînement du CIR s’accentue (étude)

« L’intensité en recherche et développement de l’industrie française est supérieure à celle de l’Allemagne et figure parmi les plus élevées d’Europe », note le cabinet de conseil Acies dans son 3ème Observatoire du CIR.

L’intensité en recherche et développement globale des entreprises tous secteurs d’activité confondus « a augmenté fortement depuis 2008 pour atteindre 1,44% du produit intérieur brut 2013, son maximum historique », précise-t-il. Elle reste pour sa part inférieure à celle de l’Allemagne (1,96%).

Le CIR « a contribué à un effort annuel supplémentaire de recherche et développement des entreprises chiffré à 5,3 milliards entre 2007 et 2012, et a permis l’embauche de 28.000 chercheurs depuis 2008 » dans les entreprises, affirment les auteurs de l’étude réalisée en « regroupant plus d’une vingtaine d’indicateurs basés sur les seules données officielles ».

Cet effort annuel supplémentaire de 5,3 milliards est 1,51 fois supérieur à la dépense supplémentaire en CIR (3,53 milliards). Ce ratio était en 2011 de 1,20.

Les dépenses de recherche des entreprises sont évaluées à 24,75 milliards pour 2007 et 30,07 milliards pour l’année 2012. Ces chiffres sont de 1,80 milliard et 5,33 milliards respectivement pour les dépenses de l’Etat liées au CIR.

Le CIR « aurait toutefois besoin d’être prolongé par de nouvelles mesures favorisant l’industrialisation sur le territoire français des résultats de la recherche », estime Franck Debauge, directeur associé d’Acies Consulting Group et animateur de l’Observatoire du CIR.

« Grâce au CIR, qui permet de réduire de 25% le coût du chercheur pour l’entreprise, ce dernier est l’un des plus faibles d’Europe. Sans le CIR, il serait l’un des plus élevés. Le CIR a fait de la France l’un des pays les plus compétitifs en la matière, devant les États-Unis, l’Allemagne ou le Canada », constate l’étude, selon laquelle le nombre de chercheurs employés dans le secteur public a également progressé de 3,2%, avec 3.100 emplois supplémentaires.

En 2012, 2.981 entreprises ont externalisé des travaux de recherche et développement à des institutions publiques de recherche, presque deux fois plus qu’en 2008, explique l’étude.

Le nombre annuel de projets d’investissements étrangers dans des centres de recherche et développement en France a été multiplié par 2,5 depuis 2008, année où ce dispositif a été renforcé.

« Grâce au CIR, la France est l’un des pays européens les plus attractifs pour les activités de recherche et développement, avec le Royaume-Uni et l’Allemagne », affirme l’observatoire.

« La France a connu depuis le début des années 2000 une désindustrialisation croissante de son économie. Avec un ratio de 12,8% (de la valeur ajoutée brute totale en 2013, contre 25,5% en Allemagne, NDLR), elle est aujourd’hui l’un des pays les moins industrialisés de l’Union européenne ».

« Depuis 2010, le déclin industriel semble néanmoins enrayé. Il est même observé une amorce de réindustrialisation depuis 2012 », avec une progression du taux de 12,5% à 12,8%, indique l’étude.

Créé en 1983 et relancé en 2008, le CIR permet aux entreprises de déduire de l’impôt sur les sociétés (IS) 30% de leurs investissements recherche et développement, dans la limite de 100 millions d’euros d’investissements (5% au-delà). 20.441 entreprises ont déclaré du CIR en 2012. Cette année-là, 60,2% du crédit est allé aux industries manufacturières, 37,8% aux services, dont 1,7% du total aux banques et assurances, selon l’étude, qui se fonde sur les chiffres du ministère de l’Education et de la recherche.

Acies précise avoir « joué un rôle actif, au plus haut niveau, dans les différentes modifications du CIR depuis 2002 ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’hydrogène : une solution pour le stockage des énergies intermittentes

Production et montage : Bruno Decottignies

L’UE donne la priorité à l’électricité mais finance des infrastructures gazières

Censés privilégier l’électricité, les premiers financements issus du mécanisme pour l’interconnexion en Europe (MIE) ont été affecté… au gaz.  Ce mécanisme de financement mis en place par l’UE afin de soutenir des projets d’intérêt commun en matière de transport, d’énergie et de télécommunication a lancé cette semaine une première série de financements pour 1,37 milliard d’euros.

​647 millions d’euros ont d’ores et déjà été alloués, dont une majorité aux projet liés au gaz (392 millions d’euros), tandis que les projets liés à l’électricité se sont vus allouer seulement 255 millions.

Problème, le règlement du MIE stipule que la « majeure partie de l’aide financière » disponible doit être allouée aux projets liés à l’électricité pour 2014 – 2020. Cet objectif est toutefois « sans préjudice de toute éventuelle réaffectation des financements disponibles pour les projets dans le domaine de l’énergie », précise le règlement.

La décision de financer des infrastructures gazières, soutenue par les pays européens, souligne l’inquiétude croissante des États en ce qui concerne la dépendance de l’UE au gaz russe depuis le début de la crise ukrainienne.

Malgré le règlement qui précise que « l’aide […] dans le domaine de l’électricité représentera la majeure partie de l’enveloppe financière allouée à l’énergie », la Commission a annoncé ce mercredi 29 octobre que l’essentiel des 647 millions d’euros investis ira aux infrastructures gazières dans les pays baltes et dans le sud et le centre de l’Europe de l’Est. C’est la première fois que l’UE transfère spécifiquement des fonds à des infrastructures énergétiques.

Les projets financés sont conçus pour relier les « îlots énergétiques » isolés aux réseaux européens et minimiser leur dépendance vis-à-vis du gaz russe. Cela concerne notamment des ports permettant le transport de gaz naturel liquéfié et des gazoducs.

« [Cela] nous aidera à  construire rapidement les infrastructures dont l’Europe a besoin pour assurer sa sécurité énergétique, a expliqué Günther Oettinger, le commissaire européen à l’Energie. La crise géopolitique en Ukraine a mis en évidence notre besoin de mettre en place des réseaux énergétiques mieux connectés. »

Le poids du gaz

Sur les 34 projets financés, 16 sont liés au gaz naturel et 18 à l’électricité. Tous ces projets n’ont toutefois pas le même poids financier. Ainsi, les six projets de constructions recevront à eux seuls 555,9 millions d’euros. Le reste des investissements ira aux 28 autres projets, qui concernent des études d’impact et de la recherche.

Le groupe de réflexion E3G a prévenu que l’écart d’investissement, c’est-à-dire la différence entre le montant rééls des financements et les véritables besoins des secteurs, est trois fois plus élevé pour les infrastructures électriques que pour les installations gazières.

« Cela montre que les investissements sont centrés sur les importations de gaz. Les infrastructures électriques critiques et les projets liés à l’efficacité énergétique constitueraient des investissements plus avantageux en termes de sécurité et de résistance énergétiques pour l’Europe », explique à EurActiv Jonathan Gaventa, directeur adjoint d’E3G.

E2G a déjà prévenu que l’UE risque de gaspiller des milliards d’euros dans des infrastructures gazières inutiles à cause des pressions actuelles liées à la crise ukrainienne. Les recherches du groupe de réflexion révèlent que les gazoducs financés par le MIE finiront « abandonnés », parce que la demande en gaz sera fortement réduite.

Interconnexion électrique

La première série de financements du MIE prévoit d’allouer 0,5 % de ses fonds à l’interconnexion franco-espagnole, moins d’une semaine après que les dirigeants européens s’accordent sur le statut de « priorité urgente » de cette connexion.

Un maximum de 3,25 millions d’euros sera réservé aux études de faisabilité concernant l’interconnexion franco-espagnole. En comparaison, le gazoduc lituano-polonais, qui n’est donc pas une priorité, bénéficie tout de même d’un maximum de 295,37 millions d’euros.

« Il est décevant de voir que moins de 1 % du financement du MIE sera dédié à résoudre le problème d’un des pires goulots d’étranglement énergétique européen », regrette Jonathan Gaventa.

Lors du sommet européen consacré à l’objectif climat-énergie pour 2030 les 23 et 24 octobre, le Portugal et l’Espagne ont fait pression pour que les États membres soient contraints de mettre 15 % de leurs capacités de génération d’énergie à disposition des autres pays européens.

Depuis longtemps, les deux pays ont été incapables de vendre leurs surplus d’énergies renouvelables à la France, qu’ils accusent de protéger jalousement son industrie nucléaire.

Les dirigeants européens n’ont toutefois pas été aussi loin, se limitant renouveler leur engagement de 2002 d’une augmentation de 10 % des échanges d’énergie via les interconnexions électriques d’ici à 2020. Cet engagement sous-entend néanmoins une élévation de ce chiffre à 15 % une fois l’objectif initial atteint.

Il n’y a aucun lien entre les conclusions du sommet et les décisions concernant les allocations de fonds actuelles du MIE, soulignent certaines sources espagnoles, puisque certains des projets financés avaient déjà été choisis en 2013.

Les financements concernant l’interconnexion franco-espagnole n’ont pas leur place à ce stade, mais apparaîtront plus tard au programme du MIE, selon ces sources. Quelque 5,85 milliards d’euros ont d’ores et déjà été alloués par le MIE aux infrastructures énergétiques pour la période 2014-2020. Les fonds du mécanisme peuvent être utilisés pour financer des projets couteux qui sont clairement dans l’intérêt commun des pays européens. Le financement peut couvrir jusqu’à la moitié du coût total du projet. En cas de circonstances exceptionnelles, il peut monter jusqu’à 75 %.

Une stratégie déconnectée

Le groupe de réflexion E3G appelle à un changement de la stratégie des États membres et de la Commission à partir de la prochaine série de financements et du prochain appel de demande de financement qui aura lieu en 2015.

Il souhaite que le financement des infrastructures soit guidé par les programmes d’efficacité énergétique européens, que le MIE s’engage en faveur de l’électricité et qu’une partie du financement alloué au transport (secteur qui reçoit le plus de financements) soit transférée au secteur de l’énergie. Le groupe de réflexion estime également que les objectifs européens en matière de climat et d’énergie devraient servir de lignes directrices lors de la sélection des projets.

Source : Euractiv

Big data, des solutions pour mieux organiser, traiter, analyser les données

Production et montage : Bruno Decottignies

La place de l’homme dans l’Usine du Futur

Production et montage : Bruno Decottignies

L’automatisation pourrait détruire 3 millions d’emplois d’ici 2025

« Les robots nous volent notre travail ». « Les robots tuent l’emploi ». Depuis quelques jours, les robots sont devenus l’ennemi public n° 1 du travail. En cause, une étude du Cabinet Roland Berger sur la transformation digitale, c’est-à-dire l’intégration du numérique dans notre quotidien. D’après leurs travaux, de nombreux métiers pourraient  être automatisés et donc disparaitre. Le Cabinet avance même le chiffre de 3 millions d’emplois volatilisés dans la prochaine décennie. 

Toutefois, résumer l’étude à cette seule conclusion est erroné, car si de nombreux emplois ne seront plus assurés par des humains, d’autres métiers émergeront de cette fameuse transition digitale, une notion très large qui concerne évidemment les robots, mais aussi les logiciels, les algorithmes, les automates, les machines…

La robotisation reste faible en France

Ainsi, les tâches répétitives sont confiées à des machines plutôt qu’à des hommes, un phénomène à l’œuvre depuis le siècle précédent et qui touche principalement les ouvriers. Les machines outils ont révolutionné la production industrielle dans de nombreux secteurs comme l’automobile, l’agroalimentaire, la pétrochimie ou l’industrie pharmaceutique.

Toutefois, la France reste sous-équipée avec un parc de machines sous-dimensionné et vieillissant. Cette situation est d’ailleurs en partie responsable de la perte de compétitivité de la France face aux autres pays européens. A titre d’exemple, l’Allemagne compte 162 000 robots quand ils ne sont que 34 000 en sur notre territoire. Le Cabinet Roland Berger indiquait un taux de robotisation (nombre de robots installés pour 10 000 employés)  français de 84 contre 125 en Allemagne. Ce retard peut s’expliquer par la réticence des français vis-à-vis des robots. Une défiance illustrée par un sondage réalisé en 2012 par la Commission Européenne dans lequel les français étaient 74% à dire craindre que les robots ne leur volent leur emploi.

Automatiser les services

Ainsi, la France reste timide quant à l’utilisation de robots. Pourtant, cette tendance devrait s’accélérer et s’élargir à d’autres métiers. Car c’est là toute la nouveauté de l’étude : l’automatisation va toucher les services.

Les métiers manuels ne seront plus les seuls à céder leur place aux machines, des actions comme le télémarketing, l’écriture de rapport, la distribution de médicaments peuvent être automatisée. Par exemple, le logiciel Quill permet la rédaction de contenus, l’algorithme News Digest écrit de véritables articles journalistiques, le robot TUG d’Aethon sait se déplacer dans un environnement réel et supplée les aides-soignants en apportant les repas aux patients.

Le développement fulgurant du Big Data, du Cloud mais aussi des objets connectés permet d’automatiser des actions comme la prise de décision, de quoi rendre les robots autonomes. Des robots d’accueil commencent à se démocratiser comme le robot Pepper  que les amateurs de café pourront rencontrer dans les boutiques Nespresso dès décembre. Bien que moins séduisants que George Clooney, leur mission sera aussi de vendre les machines à café.  Plus près de chez vous, depuis la rentrée les téléspectateurs de l’émùission télé Salut les Terriens peuvent regarder le robot Jean-Mi aux côté de Thierry Ardisson jouer le rôle de chroniqueur en posant une question à l’invité. Pour autant, l’animateur en noir n’est pas prêt à lui céder la place…

Le Cabinet auteur de cette étude sur la transformation digitale prévoit que 42% des emplois français sont potentiellement automatisables d’ici 20 ans, dont les emplois industriels peu qualifiés mais aussi les emplois intermédiaires comme les fonctions administratives, les métiers juridiques ou des fonctions d’encadrement. Toutes les tâches à caractère répétitif sont concernées, qu’elles soient qualifiées ou non. Pour résumer, les seuls travailleurs à l’abri sont ceux dont le job nécessite de la créativité ou de l’intelligence social, comme les enseignants, les chercheurs, les ingénieurs ou encore les fonctions régaliennes.  Pour l’instant en tout cas…

Tirer profit de l’automatisation

Faut-il avoir peur et craindre un scénario à la Terminator ? Non, Skynet reste de la science-fiction. Mais consciente de ces évolutions technologiques, la France va devoir s’adapter et transformer le risque en opportunité. Car il y a beaucoup à gagner à réussir la transformation digitale : rehaussement des marges des entreprises, rentrées fiscales liées à la hausse des bénéfices, accroissement de la performance des services publics, création de nouvelles catégories d’emplois. La hausse de la productivité liée à la numérisation de l’économie pourrait  même générer 30 milliards d’euros de recettes publiques. De quoi faire réfléchir.

Par Audrey Loubens

Biomatériaux pour la santé

Production et montage : Bruno Decottignies

Micro-technologies et outils connectés au service de la Santé

Production et montage : Bruno Decottignies

La substitution des produits dangereux dans les résines : cas des époxy

Production et montage : Bruno Decottignies

La mesure in situ dans le sol et l’eau : les plateformes de 3 Insituts Carnot

Production et montage : Bruno Decottignies

Les cinéastes d’Interstellar réussissent la première représentation d’un trou noir

Quand Christopher Nolan sollicite Kip Throne, scientifique habitué des studios hollywoodiens, ce dernier accepte sans se douter un seul instant des avancées scientifiques à venir. Sa mission sera d’accompagner les équipes graphiques dans la représentation des décors spatiaux. Le prestigieux réalisateur travaille en effet sur son dernier film, Interstellar, qui retrace les aventures d’hommes partis à la conquête de l’espace à la recherche d’une nouvelle Terre.

Grâce à un trou de ver, une sorte de raccourci à travers l’espace temps composé d’un trou noir accolé à un trou blanc, les astronautes peuvent voyager au-delà de notre galaxie, et découvrir de nouveaux mondes.  Les effets spéciaux sont donc un élément clé du film, et Christopher Nolan souhaite les effets spéciaux les plus réalistes possibles. 

Sauf que personne n’a jamais vu de trou noir ni à quoi ressemble les mondes au-delà de notre galaxie. Un trou noir est un objet ultra compact, le reste d’étoiles massives effondrées sur elles-mêmes à la fin de leur vie,  dont l’intensité gravitationnelle emprisonne la matière mais aussi la lumière en l’empêchant de ressortir. Les trous noirs seraient donc invisibles. Seule solution, utiliser la simulation. Kip Thorne a donc fourni de nombreuses informations aux équipes techniques, dont des équations sur la théorie des trous noirs. Ces données ont alimenté les logiciels utilisés pour la réalisation des effets spéciaux, dont le résultat des calculs a abouti à une représentation d’un trou noir.

Il aura fallu une année de travail pour aboutir à ce résultat, Kip Thorne ayant écrit une partie des équations. Il ressort que le trou noir tourne sur lui-même à une vitesse proche de celle de la lumière, formant un anneau lumineux courbé autour de lui.  Contre toute attente, la déformation de l’espace provoquée par le trou noir affecte aussi le halo à la forme désormais connue.

L’astrophysicien a indiqué préparer deux articles scientifiques relatant ce travail.

  • Interstellar, 2h43, sortie le 5 novembre
Par Audrey Loubens

Un véritable skate volant digne de l’Hoverboard de « Retour vers le futur » bientôt commercialisé

En à peine une semaine, Hendo a levé plus de 250 000 $.

C’est dire si l’attente est grande ! Son projet ? La commercialisation d’un skateboard flottant au dessus du sol. Les fans de « Retour vers le futur » auront immédiatement reconnu le célèbre Hoverboard du deuxième opus, lorsque Marty McFly débarque en 2015 pour aider son fils. 2015 arrive et l’Hoverboard devient réalité. La société Hendo a fabriqué le premier skate volant. Son fonctionnement repose sur les courants de Foucaults générés par les quatre disques aimantés de l’Hoverboard lorsque celui-ci est placé au dessus d’une plaque métallique.

Et ça marche. Buzz Aldrin, astronaute américain qui a marché sur la lune, a eu la chance de le tester.

L’Hoverboard est donc le premier skate volant à supporter le poids d’un homme. Toutefois, son fonctionnement requiert une surface métallique conductrice, ce qui n’est évidemment pas le matériau utilisé pour les routes ou les trottoirs. Hendo a donc prévu de créer une Hoverpark, un véritable skatepark mais adapté à l’Hoverboard avec un sol recouvert de plaques métalliques.

Dès sa mise en ligne sur le site de crowfunding Kickstarter, le projet a engrangé les dons à vitesse grand V, la somme récoltée atteignant déjà 417 000$, bien mieux que l’objectif initial d’un quart de million de dollars.

Au-delà de l’aspect ludique d’un tel produit, Hendo espère appliquer sa technologie à des immeubles capables de flotter au dessus du sol et ainsi faire face aux tremblements de terre sans risquer de s’effondrer.

  • Découvrez comment fonctionne l’Hoverboard :

Par Audrey Loubens

Quel est l’impact écologique de la viande ?

Elevage et impact environnemental

Pour produire ces protéines que nous adorons tant consommer, l’élevage de bétail est malheureusement responsable :

  • d’un cinquième des émissions de gaz à effet de serre ;
  • d’une partie de la pollution des ruisseaux et des nappes phréatiques ;
  • de l’extinction de certaines espèces animales et végétales, en raison des grandes surfaces utilisées et transformées.

Plusieurs études scientifiques ont étudié ces impacts. Toutefois, aucune n’avait jusqu’à présent comparé le coût écologique de chaque type de viande. C’est désormais chose faite grâce à une équipe de chercheurs de l’Institut Weizmann, conduite par le Dr Ron Milo, en partenariat avec Tamar Makov de l’Université de Yale et de Gidon Eshel du Bard College (Etats-Unis).

L’impact environnemental d’une unité nutritionnelle (calorie) des cinq sources principales de protéines – les produits laitiers, le boeuf, la volaille, le porc et les oeufs – a ainsi été quantifié. Toute la difficulté de cette étude était de rendre comparables des produits et des modes d’élevage si différents. Par exemple, en se cantonnant aux bovins, différentes techniques d’élevage existent, comme le pâturage sur de grandes étendues ou l’élevage au maïs d’ensilage à l’étable. Dans le premier cas, l’irrigation et l’apport d’engrais sont faibles, mais de grands espaces sont nécessaires. Dans le second cas, peu de terres sont nécessaires, mais l’élevage est très gourmand en eau et en engrais.

Un maximum de facteurs pris en compte

Les chercheurs ont utilisé plusieurs sources de données dont certaines appartenant au ministère de l’Agriculture des Etats-Unis. Différents volets de l’impact sur l’environnement ont été pris en compte incluant la surface de terre requise, l’eau nécessaire à l’irrigation des sols, les émissions de gaz à effets de serre (par les animaux et par les machines agricoles), l’utilisation d’engrais ou encore le coût du transport des viandes produites. Les dommages indirects, comme l’atteinte à la biodiversité ou la pollution des eaux environnantes, ont également été pris en compte. Un modèle mathématique original a été bâti par l’équipe israélienne afin de prendre en compte l’ensemble de ces facteurs.

Le plus gros pollueur : la viande de boeuf

Les résultats ont montré que le boeuf est la viande dont la production a le plus gros impact environnemental. Ce résultat était attendu, mais ce qui l’était moins était l’importance de la différence avec les autres types de viande. En effet, les chercheurs ont estimé que consommer de la viande de boeuf est environ dix fois plus néfaste pour l’environnement que consommer du porc ou de la volaille.

Le bilan est sans appel, l’élevage de bovins nécessitant environ 28 fois plus de terres, 11 fois plus d’irrigation, rejette 5 fois plus de méthane et consomme 6 fois plus d’azote, que toutes les autres sources de protéines étudiées (le porc, les volailles, les produits laitiers et les oeufs), qui ont un impact environnemental globalement identique.

Voilà une étude qui devrait faire réfléchir les consommateurs que nous sommes ! Ces résultats seront peut-être pris en compte par les futures politiques agricoles, afin de mieux conjuguer consommation et développement durable.

Source : bulletins-electroniques.com

Et aussi dans les
ressources documentaires :

L’Afrique subsaharienne produira plus de gaz que la Russie en 2040

Les responsables politiques et les hauts fonctionnaires sont conscients du potentiel que représente l’importation du gaz naturel liquéfié (GNL) en provenance d’Afrique, qui est en plein essor, afin de diversifier le mix énergétique européen.

Dominique Ristori, directeur général en charge de l’Énergie au sein de la Commission européenne, a expliqué mercredi 29 octobre, que la crise ukrainienne a fait entrer la coopération entre l’Union européenne et l’Afrique dans une nouvelle ère.

La situation de l’Ukraine a exacerbé le problème de la dépendance de l’UE vis-à-vis du gaz russe. Les efforts diplomatiques visant à sanctionner l’annexion russe en Crimée ont été minés par les craintes que Moscou coupe les vannes en guise de représailles. Le 16 octobre, la Commission a ainsi publié une toute première analyse portant sur les conséquences d’une perturbation, voire d’une interruption complète, des livraisons de gaz russe aux pays de l’Union.

L’Afrique subsaharienne produira près de 175 milliards de mètres cubes par an (mmc/an) de gaz naturel d’ici 2040. L’Angola, le Mozambique, le Nigeria, la Tanzanie en seront les premiers producteurs.

De leur côté, les États-Unis, forts de l’essor du gaz de schiste, produiront plus avec 240 mmc/an. La Russie produira environ 130 mmc/an, selon les projections de l’Agence internationale de l’énergie (AIE).

La production de gaz subsaharien est passée de 7 mmc/an en 1990 à seulement 58 mmc/an en 2012, selon le rapport sur les perspectives énergétiques de l’Afrique publié par l’AIE, présenté le 29 octobre à Bruxelles.

Un acteur au niveau mondial

Le chef économiquede l’Agence internationale de l’énergie, Fatith Biral, a annoncé que l’Afrique subsaharienne représentant un potentiel énorme pour ce qui est de la production de gaz naturel liquéfié.   « Investir dans des projets liés au gaz naturel liquéfié (GNL) pourrait augmenter de façon significative la diversification des importations gazières vers l’Europe »,explique-t-il.   La moitié de la croissance globale de la production de gaz serait destinée à la production nationale d’électricité et à l’industrie, mais une partie pourrait être exporter vers l’Europe.

« L’Afrique subsaharienne restera un acteur clé sur les marchés pétroliers internationaux tout en émergeant en tant qu’acteur de premier plan pour ce qui est des marchés de gaz naturel », poursuit l’économiste.   Dominique Ristori a indiqué à EurActiv que les politiques, les activités et les investissements en vue d’assurer la diversification d’approvisionnement contribueraient à la stratégie européenne sur sa sécurité énergétique.

« Nous avons une priorité claire, qui est de réduire notre dépendance externe et cette approche est la bonne, notamment quand on parle du gaz, car nous avons pour ce qui est de cette source spécifique un seul fournisseur qui domine le marché » poursuit-il.

Le GNL pourrait être transporté par voie maritime. Dominique Ristori affirme que l’UE envisagerait de travailler avec des partenaires africains sur des projets dans le but de réduire les distances et les coûts de transports de gaz vers l’UE. L’UE devrait prendre part aux activités d’exploration, à ses yeux.

Dominique Ristori précise que l’Afrique dispose de nombreuses sources énergétiques, mais n’en tire aucun profit. « Nous devrions développer une stratégie politique pour créer une véritable coopération [et] trouver de nouvelles manières afin de garantir le développement des ressources énergétiques africaines », projette-t-il.

Des potentiels inexploités

L’Afrique subsaharienne n’exploite pas ses énormes potentiels en énergies renouvelables. Par exemple, l’énergie solaire reste largement sous-exploitée, reprend Fatih Birol. « Il n’y a pourtant aucun autre continent au monde où il y a un ensoleillement aussi brillant et fort sur une durée moyenne de 320 jours par an » souligne-t-il.

Ces dernières années, presque 30 % des découvertes de nouvelles sources de pétrole se sont faites en Afrique subsaharienne. Un baril sur trois de pétrole dans le monde est issu de la production subsaharienne, expose-t-il.

Malgré cela, quelque 620 millions de personnes, soit deux tiers de la population de la région, vivent sans électricité dans les pays de cette région. La moitié des populations mondiales non raccordées à l’électricité vivent en Afrique subsaharienne.

Selon l’AEI, près d’un milliard d’Africains seront connectés à l’électricité d’ici 2040. Ceci grâce à la forte croissance que connaît la région et les engagements importants dans différents projets pour une valeur estimée à 25 milliards de dollars (19,6 milliards d’euros).

Cependant, quelque 530 millions d’individus, notamment parmi les communautés rurales, resteront non raccordés.

« Qu’est-ce que cela veut dire si, en 2040, encore un demi-milliard de personnes vivent sans électricité » s’interroge l’économiste. « Ce qui manque, ce sont les investissements dans les infrastructures », analyse-t-il.

Mais l’UE doit faire face à une concurrence en provenance d’Asie, et en particulier de la Chine, qui investit dans de nombreux projets pétroliers, gaziers et hydriques en Afrique subsaharienne.

Lampedusa et le terrorisme

Luigi Marras est directeur général sur les affaires internationales au sein du ministère des Affaires extérieures et de la coopération à l’aide au développement. Il pense que les instruments économiques et politiques, en particulier en faveur de l’énergie, doivent être utilisés de façon stratégique.

« Nous devons nous concentrer sur les régions instables, là où les gens sont forcés de fuir leur pays. Nous devons agir là-bas afin de remédier aux lacunes qui profitent aux forces radicales et terroristes », selon lui.

Le rapport arrive à un moment opportun, à une époque où de plus en plus d’immigrés illégaux essayent de gagner les côtes italiennes par voies maritimes pour accéder au territoire européen.

« Nous sommes confrontés à une forte pression démographique en provenance des pays d’Afrique subsaharienne. Une immigration qui malheureusement termine souvent tragiquement », regrette-t-il.

En octobre 2013, un « boat people » s’abîmait au large des côtes de Lampedusa, où 366 immigrés africains périrent. Récemment, quelque 500 migrants, dont beaucoup fuyaient Gaza, auraient été tués de façon délibérée par des trafiquants, qui décidèrent de couler le navire qui les transportait au large des côtes maltaises à la suite d’un différend.

Selon Luigi Marras, l’Afrique a besoin d’être considérée non pas seulement comme un continent qui peut aider les Européens à diversifier leurs sources pétrolières et gazières, mais aussi comme un partenaire potentiel pour les affaires et le commerce.

« Pour en arriver là, nous avons besoin cependant d’une véritable politique énergétique et de fournir ses gens avec de l’électricité », conclut-il.

Source : Euractiv

Les ingénieurs ont-ils à se préoccuper des enjeux éthiques des techniques ?

Les ingénieurs n’ont pas d’avis légitimes en matière d’éthique

C’est l’argument de Samuel Florman, un ingénieur civil américain, humaniste, auteur de plusieurs articles et ouvrages sur le génie et sa pratique dont The Existential Pleasure of Engineering (1976). Dans ces écrits, Florman se montre très critique à l’égard des nombreux codes promulgués par les associations d’ingénieurs de son pays. Il est très sceptique face à l’obligation faite aux ingénieurs à travers ces codes – tout au moins les plus récents – de protéger le public contre les effets potentiellement néfastes des développements techniques.
Selon lui, les ingénieurs ne sont pas plus qualifiés que les autres citoyens pour déterminer ce qui est le meilleur intérêt de tous. Ils n’ont par conséquent pas de responsabilité particulière dans la protection du public « Heureusement, écrit-il, les ingénieurs ne sont pas plus reconnus pour déterminer comment organiser le monde que ne le sont les politiciens, les romanciers, les dentistes ou les philosophes ». Il précise même dans The Civilized Engineer (1987) que « la place de l’ingénieur n’est ni dans l’arène politique ni dans la cacophonie de l’opinion publique ».
Armin Grunwald, Directeur l’Institut pour l’évaluation des techniques et l’analyse systémique de Karlsruhe abonde dans le sens de Florman. Il a développé ses idées sur le sujet dans un article publié dans Science and Engineering Ethics, dont le titre particulièrement explicite est : « de la surestimation de l’importance de l’éthique dans le développement technique ».

Respecter et faire respecter les normes suffit

Grunwald s’oppose aux éthiciens qui considèrent, selon lui, que le développement technique est dominé par les ingénieurs et en concluent que l’Engineering Ethics (la déontologie professionnelle telle qu’elle est développée aux USA, en fait) est le meilleur, voire le seul instrument pour éviter les impacts négatifs des technologies. Il rappelle que l’éthique a pour objectif de résoudre les conflits moraux et que les ingénieurs n’en rencontrent pas ou presque pas dans leur travail. Il souligne, d’autre part, que si les apports des ingénieurs et des scientifiques sont nécessaires et premiers, ils ne constituent pas le facteur prédominant de l’orientation du développement technique. Selon lui, les choix sont faits par les dirigeants d’entreprise en fonction d’un calcul coût/bénéfice dans le cadre d’un marché concurrentiel et les chefs d’entreprise eux-mêmes ne sont pas libres de faire comme bon leur semble, car ils sont liés à une régulation politique et aux attentes sociales et culturelles de leur environnement.
Grunwald en déduit que la seule responsabilité qui incombe aux ingénieurs est de s’assurer que les normes en vigueur sont appliquées, éventuellement de repérer les vides nécessitant une révision des normes ou l’élaboration de nouvelles. Il précise néanmoins que si les ingénieurs n’ont pas besoin d’être des experts en éthique, il est important qu’ils soient capables de transmettre leurs expériences, leurs inquiétudes et qu’ils développent pour cela une sensibilité éthique.
Christian Hogenhuis est un chercheur Néerlandais qui a participé au projet du manuel européen Technology and Ethic, co-dirigé par deux chercheurs lillois, Philippe Goujon et Bertrand Hériard Dubreuil (2001). Si, selon lui, tous les acteurs ont un rôle à jouer dans la maîtrise du développement technique il n’en reste pas moins que les ingénieurs ont une position et par conséquent des obligations tout à fait particulières.

Des obligations plus étendues dans les faits

Un des rôles des ingénieurs est certes de communiquer les spécifications techniques, mais ceux-ci peuvent aussi (et doivent parfois) proposer des alternatives à leurs supérieurs. S’il n’est pas de leur ressort, en théorie, d’indiquer l’impact social et les implications morales des alternatives techniques en présence, cela fait partie, dans les faits, de leur responsabilité par ce qu’ils sont les seuls à pouvoir le faire. Une autre raison est que les ingénieurs sont souvent managers ou décideurs, c’est encore plus vrai dans notre pays que dans ceux des auteurs cités. Une autre encore, plus universelle, est que les conséquences des choix techniques ne peuvent pas toujours être évaluées par leurs supérieurs et que ces derniers leur font en général confiance.
Alastair S. Gunn et P. Arne Vesilind, spécialistes des questions environnementales vont encore plus loin en affirmant que les ingénieurs doivent introduire les problématiques environnementales au moment de la conception des projets, avant même que ceux-ci ne deviennent publics. Plus largement, les ingénieurs ont, selon eux, la responsabilité d’introduire les questions de valeurs dans les rapports qu’ils remettent à leurs clients ou à leurs supérieurs. S’il est important que le public acquière une compréhension des enjeux des techniques, s’il doit être prêt à assumer ses propres responsabilités là où celles des ingénieurs et experts techniques se terminent, la responsabilité des ingénieurs pourrait bien dépasser la définition minimaliste qui consiste à veiller simplement au respect des normes en vigueur, et les ingénieurs avoir leur place dans les débats sur les enjeux éthiques des techniques.

Références
Florman Samuel, 1976, The existential pleasure of engineering, St Martin’s Press
Florman Samuel, 1987, The civilized engineer, St Martin’s Press
Grunwald Armin, 2000, «Against Over-Estimating the Role of Ethics in Technology Development», Science and Engineering Ethics, 6(2): 181-196.
Goujon Philippe, Hériard Dubreuil Bertrand, 2001, technology and Ethics. The Quest of responsible Engineering, Leuven : Peeters
Gunn Alastair S., Vesilind P. Arne, (1986), Environmental Ethics for Engineers, Levis publisher, Michigan, 1986.

Par Christelle Didier

Les enjeux éthiques de l’espace

La réflexion développée dans cet article s’appuie sur un ouvrage intitulé La seconde chance d’Icare. Pour une éthique de l’espace (Cerf, 2001). Son auteur, Jacques Arnould, docteur en histoire des sciences, travaille depuis plusieurs années, en tant que chargé de mission au Centre national d’études spatiales (CNES), sur la dimension éthique sociale et culturelle de l’activité spatiale.

Les sources sur lesquelles repose son ouvrage sont nombreuses .Les références, tant philosophiques que sociologiques et historiques, ainsi que les témoignages et réflexions d’ingénieurs engagés dans l’activité spatiale y sont de grande valeur.  Chaque question abordée est replacée de façon instructive dans son contexte historique et géopolitique.

Nécessité d’une réflexion critique

Le but de l’auteur n’est pas d’émettre des jugements moraux sur des réalisations passées ou des projets en cours, mais de s’interroger, avec les acteurs concernés par le sujet , sur « les valeurs, les politiques, les stratégies, les relations entre individus ou au sein de la  société » qui en découlent. Quel est le fondement de leur action, et quelle est la justification de leurs savoirs et compétences et celle de leur pouvoir ? Son objectif est également de « préciser la nature des motivations le plus souvent avancées pour présenter, analyser ou justifier les activités spatiales », par ce qu’il appelle les « ressorts » de l’action.

Un espace bien encombré

Dans un premier temps, Jacques Arnould examine le problème de la pollution spatiale qui constitue, selon lui, une bonne entrée dans la question éthique. Les risques de la pollution spatiale ressemblent, en effet, sur bien des points, à ceux causés par  la pollution terrestre. Il rappelle qu’en quarante ans d’activités spatiales, plus de 4000 engins ont été expédiés dans l’espace (satellites, sondes, vaisseaux spatiaux) et que chaque mission spatiale a généré des débris : les

étages supérieurs des fusées, vidangés ou non, des boulons explosifs, des colliers de serrage, les pièces libérées lors de la séparation des satellites et de leurs lanceurs, sans parler des objets « perdus » et des débris générés par la vie en orbite (sacs poubelles principalement). Sur 4800 satellites placés depuis 1957, 2400 y sont encore alors que les trois quarts d’entre eux ont terminé leur mission et ont été abandonnés. Environ 8500 objets ont plus de 10 centimètres, 100 000 entre 1 et 10 cm ;ils sont plusieurs millions de dimension inférieure au centimètre.

Des risques négligés

Cette présence d’objets induit des risques importants de collision en orbite basse. D’autres risques sont liés au fait que certains objets retombent sur terre. Mais l’impact sur l’environnement va au delà de la question des déchets. En effet, le lancement normal induit aussi une forte pollution terrestre du fait de la nature et de la quantité des carburants liquides et solides brûlés. Et, si on peut s’attendre à ce qu’une réflexion sur l’utilisation de carburants moins polluants voit le jour, les effets sur les populations vivant aux alentours des bases de lancement ne sont pas prêts d’être pris en compte ; ils ont été très peu étudiés à ce jour. Face aux     risques dus à ces pollutions, plusieurs réponses peuvent être avancées, qui mettent en avant des stratégies d’action différentes : la première consiste à surveiller les objets en orbite, la seconde à s’en protéger, la troisième à limiter la production de nouveaux déchets.

L’activité spatiale  pose aussi des questions humaines , notamment celle des risques encourus par les spationautes. Bien qu’ils soient souvent perçus par le public comme des risques choisis en pleine connaissance de cause, l’accident de la navette Challenger qui a provoqué la mort de sept personnes, dont des civils, a remis en question ce postulat.

Ressorts et finalités

Jacques Arnould s’interroge aussi et surtout sur les raisons invoquées pour aller dans l’espace. Quelle est la finalité de cette aventure humaine, quelle en est l’utilité, et pour qui ?  C’est une question éthique essentielle que de se demander non seulement s’il y a adéquation des moyens aux fins mais aussi ce que valent les finalités de cette activité. Les réponses données  relèvent de ce que l’auteur appelle des « ressorts ». Il y a d’abord le ressort « mythique », dû au fait que l’espace est un domaine où s’alimente et s’exprime l’imaginaire humain, qu’il s’agisse de l’exploration, de la conquête ou de la fuite. Même si les intérêts économiques et les rivalités politiques l’emportent, le poids de ce ressort mythique dans les décisions. est loin d’être négligeable.

Les autres ressorts, et motivations habituellement invoquées, sont d’abord « logiques » , pour reprendre la terminologie de Jacques Arnould : ce sont les besoins liés aux activités militaires et scientifiques. Il y a enfin des ressorts « pratiques », dont l’utilité tant mise en avant des satellites. Mais, il ne faut pas oublier que si l’intérêt social de cette activité paraît peu discutable, c’est parce qu’on n’en évoque pas la dimension  économique ;l’accès à l’espace dit « utile » est en effet mal réparti. Jacques Arnould  souligne que ceux qui auraient le plus besoin des apports scientifiques de l’espace  sont ceux qui n’ont pas les moyens de se les donner.

Références : Arnould Jacques, 2001, La seconde chance d’Icare. Pour une éthique de l’espace, Paris: Cerf

Par Christelle Didier

Wernher Von Braun : un génie ambigu

Wernher Von Braun est né le 23 mars 1912 à Wirsitz, en Prusse (Wyrzysk est aujourd’hui une ville polonaise qui se situe eu nord de Poznan). C’est le second fils d’une famille aristocratique. Son père, le Baron Magnus Von Braun exerce alors les fonctions de Landrat (sous préfet). Il détiendra, sous les deux derniers chanceliers de la République de Weimar, le portefeuille de l’Alimentation et de l’Agriculture.

Très jeune Wehner Von Braun se montre passionné par les voyages spatiaux. Il faut dire que le sujet est particulièrement à la mode en Allemagne. L’un des pionniers de l’astronautique (avec l’américain Robert Goddard, le Russe Constantin Tsiolkovski et le Français Robert Esnault-Pelterie) est un Hongrois de culture allemande : Hermann Oberth.

Herman Oberth comprit vite l’importance du principe de la fusée à réaction pour le déplacement dans l’espace. En 1922, son projet de thèse de doctorat est refusé par l’université de Heidelberg. Il décide alors de publier ses travaux : un an plus tard, La Fusée vers les espaces planétaires obtient un énorme succès en librairie. En 1925, Werner Von Brau découvre avec enthousiasme cet ouvrage : il a 13 ans. Premier savant à annoncer la possibilité d’envoyer des hommes dans l’espace afin d’explorer l’univers, Hermann Oberth suscite un engouement important en particulier au sein de la société allemande des voyages spatiaux (VfR) fondée en 1927.

En 1927, Wernher Von Braun écrit à Hermann Oberth en joignant des travaux personnels : la réponse qu’il reçoit l’encourage à poursuivre. Un an plus tard, à 16 ans, il rédige un mémoire sur la théorie de la fusée à longue distance. Il obtient son baccalauréat à la fin de l’année puis entre avec une année d’avance à l’Institut polytechnique de Berlin. En 1930, il rencontre enfin Hermann Oberth et commence à travailler avec lui en parallèle de ses études d’ingénieur.

A la même époque les militaires allemands commencent à s’intéresser aux activités de la VfR, En effet, malgré la crise économique qui frappe l’Allemagne et le reste du Monde, les fusées sont un sujet digne d’intérêt pour l’armée. En effet, si le traité de Versailles stipule que « la fabrication d’armes, de munitions ou de matériel quelconque ne pourra se faire que dans des usines ou ateliers dont l’emplacement sera connu et approuvé par les gouvernements des grandes puissances alliées et associées », les fusées ne sont pas spécifiquement désignées comme armes de guerre.

Cependant, les savants de la VfR refusent de collaborer avec l’armée. Ainsi, la tache de recrutement confiée à Walter Dornberger se révèle difficile et les recherches sur les fusées à combustibles solides et liquides menée par l’armée donnent peu de résultats. En 1932, Walter Dornberger rencontre à nouveau les experts de la VfR. Le jeune Von Braun, encore étudiant, est impressionné par les moyens dont est dotée la station expérimentale de l’armée. Il accepte de collaborer car il pense que les moyens techniques de l’armée sont seuls capables de faire avancer la cause de la recherche spatiale. Il prend, en 1932, un poste civil dans la recherche militaire sur les fusées à propergol liquide tandis que le général Becker lui propose de parrainer sa thèse.

En 1933, Hitler arrive au pouvoir. Les activités de la VfR sont interdites : la recherche sur la fusée devient une chasse gardée des militaires. Walter Dornberger est nommé directeur du service de recherches sur les armes nouvelles, et Wernher Von Braun est chargé d’étudier les applications militaires des fusées. Il enregistre son premier succès en Décembre 1934 avec deux fusées A2 propulsées à l’éthanol et à l’oxygène liquide lancées depuis l’île de Borkum dans la mer du Nord et qui atteignent une altitude de plus de 2 km. La même année, à 22 ans, il soutient sa thèse « contribution constructive, théoriques et expérimentales au problème des réacteurs à combustible liquide » qui est classée « secret d’Etat ».

Le centre de recherche, qui était alors situé en banlieue de Berlin, se trouve à l’étroit. En 1936 il s’installe à Peenemünde sur la Baltique dans une importante base d’expérimentation richement dotée en crédits, en matériel et en hommes (vingt mille hommes) et Werhner Von Braun en devient le premier directeur technique. C’est là que vont être mise au point de 1942 à 1944, la fusée Agrégat 4 (A4), appelée aussi V2 (« Arme de la Vengeance » 2), une des armes secrètes de Hitler.

D’une portée de près de 300 km, d’une vitesse de plus de 5 500 km/h et montant à 80 km d’altitude avant de plonger sur sa cible, avec une charge explosive de 1 tonne, cette arme qui arriva néanmoins trop tard pour changer le cours de la guerre. Mais elle permit de bombarder Londres en 1944, faisant des milliers de morts. L’histoire des V2, de leur conception à leur destin final, en passant par les tragiques conditions de leur construction fera l’objet de l’épisode 2 de cet article.

A l’issue de la guerre, les vainqueurs rapatrient les missiles V2 qu’ils trouvent à Pennemüde afin de procéder à des essais et titrer profit des avancées technologiques de Allemands. Dans le cadre de l’affaire « Paperclip », Wernher Von Braun part aux Etats-Unis. En 1955, Wernher Von Braun  est naturalisé américain, il est nommé directeur du centre des missiles balistiques de l’armée, à Huntsville (Alabama). En 1956, il met au point une fusée qui s’élève à 1 100 km du sol et, en 1958, Explorer 1, le premier satellite américain est lancé. C’est meme lui qui aurait suggéré aux conseillers de Kennedy d’aller sur la Lune afin de permettre aux Etats-Unis de reprendre l’avantage dans la compétition qui les oppose aux Soviétiques pour la conquête de l’espace. En 1960, il devient le premier directeur du Centre Marshall de la NASA.

La presse voit d’un très mauvais oeil la présence de Von Braun dans le programme spatial américain et titre « Von Braun vise la Lune …. et touche Londres ».

Par Christelle Didier

Origine de l’éthique scientifique

Selon le Larousse, la morale est une partie de la philosophie qui traite de la façon dont il faudrait vivre. Dans le champ de la philosophie, la morale désigne donc la théorie des fins de l’homme. Mais le mot « morale » morale désigne aussi l’ensemble des règles d’action et des valeurs qui fonctionnent comme normes dans une société. L’éthique, en philosophie, est l’étude des fondements de la morale. Mais elle désigne aussi un ensemble de règles de conduite.

Étymologiquement, le sens de ces deux mots est identique. Historiquement, ils ont d’ailleurs été employés l’un pour l’autre avec un sens très large. Ils ont en commun de concerner tous les deux le bien et le mal. Ce n’est que depuis peu de temps qu’ils sont parfois perçus comme ayant des sens différents voire opposés. Des définitions concurrentes coexistent produite dans des mondes ou des disciplines académiques divers (les milieux économiques, celui de l’éthique des affaires ou encore de la philosophie morale n’utilisent pas ces termes de façon identique).

Des différences d’usage existent aussi au sein de chacun de ces mondes et disciplines (certains philosophes les emploient l’un pour l’autre, les distinctions proposées ne sont pas les même parmi les philosophes). Cependant, au delà des divergences se trouvent des fonctions identifiées par tous : la première consiste à réguler l’action (donner des règles), la seconde à questionner (analyser, légitimer les normes ou les décisions). Enfin, l’éthique comme la morale sont liées au registre de l’action (décider, poser des actes concrets).

Le terme déontologie qui vient du grec (deon-deontos) n’a pas posé de problème d’usage en France jusqu’à la fin du 20eme siècle. Rarement utilisé comme synonyme de morale (bien que l’expression « morale professionnelle » soit très présente dans les travaux d’Emile Durkheim, il comporte un sens juridique étroit et un usage commun plus élargi qui n’en altère pas le sens, et qui est reconnu par le Conseil Supérieur de la Magistrature (CSM). Cependant, la frontière avec le mot éthique est devenue plus floue depuis que l’usage de ce dernier s’est développé dans les milieux économiques dans un contexte de mondialisation des échanges. En effet, le terme anglais ethics désigne parfois, comme dans l’expression code of ethics, des règles non juridiques de bonne pratique professionnelle ou commerciale. Il pourrait être traduit par déontologie ou par code de conduite pour être conforme à l’usage de la langue française. Pourtant, il est souvent traduit par le mot éthique induisant dès lors une certaine confusion. Rappelons ici que dans les années 2000, 90 % des entreprises américaines étaient doté de ce genre de document, contre 10 % des entreprises françaises. Le mot et sa traduction littérale ont traversé l’Atlantique à partir de la toute fin du XXe siècle.

Un rapport demandé fin 2005 par Gérard Larcher, alors Ministre du travail, sur les codes d’éthique et les systèmes d’alerte a été un bon révélateur de l’intérêt croissant porté en France à l’éthique comme outil de gestion des organisations de même que la circulaire de la Direction Générale du Travail du 19 novembre 2008. Cette dernière a aussi été l’occasion de situer le genre d’écrit que sont les codes et chartes d’éthique de plus en plus présentes en entreprise dans le contexte plus large des textes régulant les relations professionnelles, telle que les règlements intérieurs.

Par Christelle Didier

Et aussi dans les
ressources documentaires :

Cas de Challenger : le premier Whistleblower ?

Aucun des sept membres de l’équipage, six militaires et une enseignante civil, ne survit. 

Roger Boisjoly, ingénieur en aéronautique travaillait pour Morton Thiokol, le fabriquant des propulseurs. En juillet 1985, il avait signalé dans une note destinée au Vice Président de Morton Thiokol le défaut de conception des joints, suggérant que sans réponse, ce défaut pourrait conduire à « une catastrophe de la plus grande ampleur, avec perte de vie humaine » lors d’un décollage. Il avait maintenu sa position jusqu’à la mise à feu. Rétrogradé par la suite, il démissionne et dénonce, dans des articles et des conférences, le peu de cas que l’on fait, en pareilles circonstances, de l’avis des experts. 

En 1988, Roger Boisjoly reçoit le prix de la responsabilité et la liberté scientifique de l’American Association for the Advancement of Science (AAAS) pour le courage avec lequel il a collaboré à la commission d’enquête Rogers visant à établir les causes de l’accident.

Si Boisjoly est considéré dans la littérature en éthique de l’ingénierie comme un lanceur d’alerte, ce n’est pas tant pour le rappel de l’inquiétude partagée avec ses collègues et des faits – connus de tous – concernant la fragilité des joints lors de la conférence organisée à la veille du lancement, ni pour le signalement qu’il avait fait en interne 6 mois avant l’accident, mais plutôt par le choix de dévoiler de nombreuses informations inconnue du public auprès d’une instance extérieure à son organisation, la commission Rogers.

 

Et aussi dans les
ressources documentaires :

Quand les ingénieurs font scandale au Québec

Cependant, ce questionnement ne porte pas uniquement sur la question du risque et de la sécurité. Par exemple, ce n’est pas tant l’avènement d’accidents particulièrement marquant qui a réveillé en Allemagne le souci de l’éthique dans les milieux d’ingénieurs : c’est la mise en cause de la collaboration de la profession, de ses savoirs et de son pouvoir d’action, au régime du IIIe Reich.

Au Québec, ce sont les insuffisances d’une approche purement déontologique défendues par l’Ordre des Ingénieurs du Québec (OIQ) chargé d’encadrer de façon réglementaire la profession et la mise en lumière de scandales mettant en cause des membres de cet ordre, qui ont donné un nouvel élan aux discussions en éthique de l’ingénierie au début des années 2000.

Le milieu des ingénieurs connaît en effet, au Québec, une crise sans précédent, depuis le début des années 2000. Il y a eu d’abord l’accident du viaduc de la Concorde qui a entraîné le 30 septembre 2006 la mort de 5 personnes et en a blessé 6 autres qui a révélé de grave manquement aux règles de l’art.

D’autres scandales ont éclaté dans les années qui ont suivi, éclaboussant le secteur de la construction. L’intégrité des ingénieurs, en particulier des 15% des diplômés exerçant dans le conseil, est devenue un sujet d’actualité alimenté quotidiennement par les affaires mis au jour par la Commission Charbonneau. Créée en 2011, par le gouvernement du Québec, cette commission qui porte sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a été mise en place afin « d’alimenter la preuve, de faire connaître les stratagèmes de corruption et de collusion, de protéger les témoins et les victimes et d’assurer de meilleures pratiques dans l’avenir ». Même si toute la profession n’est pas directement concernée, l’ensemble de ses membres a été touché par ces scandales.

Le Bureau de l’OIQ qui est l’instrument prévu par le code des Professions pour contrôler l’exercice des membres des professions réglementées (et doté d’un ordre) se penchait jusqu’en 2009 presque exclusivement sur des plaintes pour fautes techniques (80 en 2008-2009).

Il a été poussé, par la multiplication des reportages et des perquisition menée dans les grandes entreprises de construction, à enquêter sur des dossiers portant sur les problèmes de collusion, de corruption et de contributions politiques illégales, devant ainsi développer de nouvelle compétences.

En 2014, plus de 500 enquêtes étaient en cours dont 180 découlaient directement d’allégations faites devant la Commission Charbonneau. L’OIQ s’est engagé à dégager toutes les ressources nécessaires afin que ses membres adoptent des conduites et des pratiques professionnelles exemplaires et qu’ils gagnent à nouveau la confiance du public : enquête, sanction, information, formation…

 

Et aussi dans les
ressources documentaires :

 

En France : du code de la déontologie à la charte éthique

En 2011, l’enquête socio-économique diffusée par le CNISF comprenait une section sur l’éthique, permettant de donner quelques indications sur la façon dont les ingénieurs diplômés français percevaient les questions relatives à leur responsabilité professionnelle. Au vu des résultats, la première responsabilité des ingénieurs serait de faire profiter l’ensemble de la société de leurs compétences tout en se préoccupant des impacts sociaux et environnementaux de leur activité. En effet, les répondants plébiscitèrent à 91% le second article de la charte qui stipule que « l’ingénieur diffuse son savoir et transmet son expérience au service de la Société » et à 89% le quatrième qui dit que : « l’ingénieur doit inscrire ses actes dans une démarche de développement durable ». Le souci de l’utilisation finale des techniques auxquelles ils contribuent est également largement partagé (75%), même si pour les répondants, il arrive que les ingénieurs se fassent « plaisir avec des belles techniques qui ne sont pas toujours nécessaires » (71%). 

A travers cette enquête, les ingénieurs diplômés apparaissent plutôt bien en phase avec la façon de formuler les contours d’une éthique professionnelle proposée par le CNISF à travers sa charte. Bien que la référence à un code d’éthique ne fasse pas partie de la culture des ingénieurs français, plus de la moitié des répondants voient dans le code d’éthique un moyen permettant de donner des repères dans les situations délicates (66%). La même question posée en 1999 dans le cadre de notre thèse de sociologie publiée en deux volumes en 2008, à 3900 ingénieurs, montrait une moindre adhésion à l’affirmation qu’un code d’éthique adapté à la profession permettrait de donner des repères en cas de difficulté avec 57% de l’échantillon. L’idée d’un ordre professionnel abordée à l’époque avait rencontré l’adhésion d’une minorité de répondant (39% d’accord dont moins de 10% tout à fait d’acord). Interrogés sur les missions qu’un tel organisme pourraient avoir – s’il existait – les ingénieurs ont d’abord cité « donner des repères d’éthique professionnel pour les ingénieurs » (47%), « contrôler les formations » (36%), « représenter les ingénieurs auprès des pouvoirs publics » (22%), « diffuser auprès du public et des décideurs les connaissances techniques » (13%), « défendre les ingénieurs auprès de leurs employeurs » (12%), « décerner l’habilitation à exercer le métier » (11%), « donner des conseils techniques à ses membres » (10%) et enfin « protéger la valeur du titre en en limitant le nombre » (10%), 12% des ingénieurs avaient préféré ne pas répondre à cette question.

Le CNISF avait affirmé que la Charte avait comme objectif de devenir un repère et une référence pour le comportement professionnel des ingénieurs, mais aussi d’aider les élèves–ingénieurs à se préparer à l’exercice de leur métier. Afin de savoir comment ces derniers percevaient ce texte, la Conférence des Directeurs d’Ecoles Françaises d’Ingénieurs (CDEFI) a réalisé fin 2009 une enquête afin de savoir s’ils avaient connaissance de son existence, comment leur école participait à sa diffusion, à quel point ils adhéraient aux termes de ce document et s’il trouvaient la charte compatible avec le métier d’ingénieur : 3589 étudiants issus de 106 écoles ont répondu au questionnaire diffusé en ligne par le CDEFI avec l’aide du Bureau National des Elèves-Ingénieurs (BNEI). Selon les résultats, 38% des répondants connaissaient la charte par l’intermédiaire de leur école avant l’enquête (34% l’avaient reçu à leur entrée dans l’école, dont 3% dans le cadre d’une présentation). Les 62% restant l’avaient découverte par l’enquête. Parmi les quatre rubrique de la Charte, celle qui concerne l’ingénieur dans la société a été jugé la plus importante, en particulier les énoncés 3 et 4 concernant l’impact des techniques sur l’environnement et le développement durable, jugés essentiels (plutôt qu’utiles, peu porteurs ou irréalistes) par plus de la moitié des répondants. En revanche, l’énoncé concernant la diffusion du savoir n’a été considéré essentiel que pour 32% des répondants, bien qu’il soit considéré le plus « utile » des quatre énoncés de cette rubrique.

Par Christelle Didier

Et aussi dans les
ressources documentaires :

 

Aux Etats-Unis, place aux ingénieurs « professionnels »

Le respect d’un code de déontologie ne concerne donc que les individus ayant choisi librement d’adhérer à une association professionnelle. Seul les Professional Engineers (PE) font l’objet d’un enregistrement légal.

En 2000, seuls 5% des un million et demi d’individus se faisant appeler ingénieurs aux USA étaient détenteurs de ce titre (surtout des ingénieurs civils, mais également des mécaniciens et des électriciens).

Le PE dispose d’un sceau qui est obligatoire pour effectuer certains actes protégés. Il doit être enregistré auprès du Bureau de l’Etat fédéral dont il dépend. Ces Bureaux qui disposent théoriquement d’un pouvoir de contrôle sur les PE ont tous adoptés des critères déontologiques de conduites professionnelles. Cependant, il convient de nuancer le pouvoir de ces State Boards dans la pratique, car ils souffrent d’un important manque de moyens pour mener des investigations auprès des éventuels contrevenants.

Parmi les sanctions disciplinaires, on peut lire qu’un PE a vu sa licence suspendue pour quatre ans. Il a du réaliser 400 heures de travail d’intérêt général et suivre un cours de déontologie par correspondance pour avoir été convaincu de détournements d’argent.

La National Society of Professional Engineers (NSPE) a été créée en 1934 pour promouvoir l’idée d’un registre des ingénieurs, aider à la création de State Board dans les Etats où ils n’existaient pas et promouvoir l’adoption de loi créant des licences professionnelles pour les ingénieurs.

La NSPE qui avait adopté dans un premier temps le code de déontologie de l’ECPD (devenu l’ABET), a finalement choisi en 1954 d’en avoir un en propre qu’elle a révisé plusieurs fois depuis. Elle est dotée d’un comité d’éthique (Board of Ethical Review) qui est le plus actif des Etats-Unis.

Les réponses que donne ce comité aux questions éthiques que ses membres lui soumettent, publiées très régulièrement dans la revue Professional Engineer et accessibles en ligne, sont même considérées comme une ressource importante par de nombreux chercheurs dans le domaine de l’éthique professionnelle des ingénieurs.

 

Et aussi dans les
ressources documentaires :

Nintendo développe des instruments pour améliorer la qualité de vie avec l’américain Resmed

« Le premier thème de la qualité de vie, c’est la santé », a expliqué M. Iwata lors d’une conférence de presse.

« La santé, c’est notamment éliminer la fatigue », a poursuivi le patron de la firme qui n’est pas au mieux de sa forme depuis quatre ans.

« Tout le monde a besoin de sommeil, tout le monde se fatigue. Le fait de bien dormir ou non a une grande influence sur l’état de santé », c’est pourquoi Nintendo veut proposer des appareils qui permettent de façon simple d’évaluer précisément comment on dort.

Selon Nintendo, même s’il existe déjà des moyens de mesurer le sommeil, c’est trop contraignant, pas assez amusant. Le groupe veut proposer des produits « qui ne se portent pas sur soi, sont sans contact, sans action à effectuer (sinon dormir), sans attente et sans effort d’installation ».

Le partenariat avec Resmed doit permettre de développer des produits, bénéficiant des technologies médicales et du savoir-faire de cette société, à l’adresse du grand public que connaît parfaitement Nintendo, a argué M. Iwata.

La firme de Tokyo dit en outre travailler avec plusieurs professeurs japonais.

Le but final est de développer ainsi une « plateforme d’augmentation de la qualité de vie », comprenant non seulement les instruments de mesure, mais aussi une base de données en ligne et un lien avec les consoles de jeu du groupe, entre autres appareils connectés.

Lors d’une conférence de presse en janvier, M. Iwata avait déjà promis de l’inédit pour 2015-2016, avec un accent mis sur la santé ludique, un sujet qui intéresse un large public.

Cette voie avait été ouverte il y a quelques années avec le Wii Fit, une sorte de pèse-personne qui permettait diverses activités physiques en association avec la console Wii, ou encore avec les jeux d’entraînement cérébral (Quel âge a votre cerveau ?).

Nintendo, une maison centenaire initialement spécialisée dans les jeux de cartes, va encore se « métamorphoser » pour s’adapter aux circonstances, assure M. Iwata.

Reste que les investisseurs à la Bourse de Tokyo n’ont guère été convaincus par la prestation de M. Iwata: l’action Nintendo n’a finalement gagné que 1% après avoir pourtant bondi de 7,7% en début de matinée au lendemain de l’annonce de résultats semestriels meilleurs qu’espéré.

Dans les toutes premières minutes, le titre Nintendo affichait un gain de 860 yens à 11.980 yens (+7,73%), avant de se dégonfler pour retomber à 11.235 yens (+115 yens ou 1,03%) à la clôture, après des déclarations du patron sur la stratégie du groupe.

kap/ros

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Amazon est-il en train de s’essouffler ?

Les investisseurs tirent la sonnette d’alarme. Leur patience a atteint ses limites et ils commencent à douter que le modèle économique d’Amazon devienne rentable. Les raisons de cette défiance ? L’absence de bénéfice. En effet, malgré une croissance à 2 chiffres insolente, plus de 277 millions de clients, un chiffre d’affaire de 60 milliards de dollars en 2013, Amazon vient d’annoncer une perte nette de 437 millions de dollars ! Une énième déception qui entame la confiance des investisseurs, lassés de patienter devant des choix stratégiques audacieux certes, mais qui peinent à rapporter. Dans les heures qui ont suivi la publication des chiffres, l’action a dévissé de 8,3% à 287,06$. Ce même action valait 407,50$ en janvier, soit une chute de 30% en moins d’un an.

Car Amazon n’est pas une entreprise comme les autres. Son fondateur, Jeff Bezos, est convaincu que détenir le plus de parts de marché est fondamental, quitte à faire passer la rentabilité au second plan.  Depuis 1995 et ses pertes colossales avec -60% de rentabilité, -52% en 2000, le mastodonte a enfin atteint l’équilibre en 2003 avec une rentabilité de 0.02%. Faible, mais encourageant. D’autant qu’en 2008, Jeff Bezos parvenait à porter la rentabilité à 3.3%, résultat confirmé en 2010 avec 3.4%. Malheureusement, impossible de maintenir le niveau et depuis 4 ans, Amazon peine à garder la tête hors de l’eau. L’année 2013, avec 0,4% de rentabilité, se révèle être le calme avant la tempête de 2014 et ses pertes  abyssales. D’autant plus que la croissance du chiffre d’affaire s’érode elle aussi, malgré la période pourtant propice au commerce liée aux fêtes de fin d’années.

Les parts de marché au détriment de la rentabilité

Pourquoi Amazon n’arrive toujours pas à gagner de l’argent ? Deux raisons expliquent ce paradoxe. Tout d’abord Jeff Bezos accorde peu d’importance à la marge et s’attache à développer sa clientèle, à l’image de son comportement dans le domaine de l’édition. Véritable cauchemar des libraires, Amazon représente 60% de part de marché du livre numérique aux USA, pendant qu’il représente les deux tiers des ventes en ligne en France. Sauf que, toujours dans son optique de gagner des parts de marché, Amazon n’hésite pas à vendre à perte ou quasiment. En France par exemple, Amazon propose systématiquement 5% de réduction sur les livres, le maximum autorisé. Mais les frais de port sont offerts ! De quoi séduire les clients, mais sans faire rentrer d’argent dans les caisses. Cette exemple illustre parfaitement la politique de casser les prix pour faire gonfler le fichier client et tuer la concurrence. On verra plus tard pour les bénéfices. Sauf que « plus tard », les actionnaires ont décidé que c’était « maintenant » !

Des diversifications coûteuses

De plus, Amazon réalise de  nombreux investissements qui plombent les résultats économiques. Ces derniers visent dans un premier temps à développer les activités existantes et à accompagner les besoins en logistiques galopants du fait de la croissance très forte de l’entreprise. Ces dépenses sont nécessaires. En parallèle, Amazon tente de se diversifier. En 2007, sa liseuse Kindle est un succès. Malheureusement, Jeff Bezos n’a pas renouvelé l’exploit avec son téléphone maison. Le Fire Phone a été un fiasco retentissant malgré les centaines de millions de dollars dépensés dans le projet.  Autre secteur dans lequel se lance Amazon et où personne ne l’attendait, l’alimentaire ! Jeff Bezos teste déjà Amazon Fresh à Seattle, San Francisco et Los Angeles. Amazon a aussi décidé de se lancer dans la vidéo en ligne et la production de contenu.

A ce jour, Amazon n’a même pas réussi à faire vaciller le n°1 du secteur, Netflix et ses 50% de part de marché américain. L’ogre persévère et  s’intéresse aussi aux geek, plus particulièrement aux jeux vidéo. Jeff Bezos n’a pas hésité à mettre 970  millions sur la table pour s’approprier Twitch.com, une plateforme qui permet de regarder des joueurs évoluer en pleine partie de Counter-Strike ou League of Legends par exemple. L’objectif à peine dissimulé d’Amazon est de taquiner l’hégémonie de Google dans le domaine de la publicité en ligne. Un véritable défi puisque Google atteint 31% de part de marché quand Amazon est à …0,63%.

Seul secteur vraiment rentable, le stockage de données. Sa branche Amazon Web Services (AWS) existe depuis 2006 et a connu un véritable succès. Initialement lancé pour rentabiliser ses serveurs, AWS détiendrait aujourd’hui 40% de part de marché du Cloud computing, un secteur avec des marges d’environ 30%. De quoi faire patienter les investisseurs ? Pas si sûr car la concurrence se développe et grignote petit à petit les marges.

Décidément, Amazon traverse une mauvaise passe, et nul ne peut prédire ce qu’il sera en 2015. Seule certitude, Jeff Bezos est attendu au tournant par des actionnaires à bout.

Par Audrey Loubens