L’automatisation pourrait détruire 3 millions d’emplois d’ici 2025

« Les robots nous volent notre travail ». « Les robots tuent l’emploi ». Depuis quelques jours, les robots sont devenus l’ennemi public n° 1 du travail. En cause, une étude du Cabinet Roland Berger sur la transformation digitale, c’est-à-dire l’intégration du numérique dans notre quotidien. D’après leurs travaux, de nombreux métiers pourraient  être automatisés et donc disparaitre. Le Cabinet avance même le chiffre de 3 millions d’emplois volatilisés dans la prochaine décennie. 

Toutefois, résumer l’étude à cette seule conclusion est erroné, car si de nombreux emplois ne seront plus assurés par des humains, d’autres métiers émergeront de cette fameuse transition digitale, une notion très large qui concerne évidemment les robots, mais aussi les logiciels, les algorithmes, les automates, les machines…

La robotisation reste faible en France

Ainsi, les tâches répétitives sont confiées à des machines plutôt qu’à des hommes, un phénomène à l’œuvre depuis le siècle précédent et qui touche principalement les ouvriers. Les machines outils ont révolutionné la production industrielle dans de nombreux secteurs comme l’automobile, l’agroalimentaire, la pétrochimie ou l’industrie pharmaceutique.

Toutefois, la France reste sous-équipée avec un parc de machines sous-dimensionné et vieillissant. Cette situation est d’ailleurs en partie responsable de la perte de compétitivité de la France face aux autres pays européens. A titre d’exemple, l’Allemagne compte 162 000 robots quand ils ne sont que 34 000 en sur notre territoire. Le Cabinet Roland Berger indiquait un taux de robotisation (nombre de robots installés pour 10 000 employés)  français de 84 contre 125 en Allemagne. Ce retard peut s’expliquer par la réticence des français vis-à-vis des robots. Une défiance illustrée par un sondage réalisé en 2012 par la Commission Européenne dans lequel les français étaient 74% à dire craindre que les robots ne leur volent leur emploi.

Automatiser les services

Ainsi, la France reste timide quant à l’utilisation de robots. Pourtant, cette tendance devrait s’accélérer et s’élargir à d’autres métiers. Car c’est là toute la nouveauté de l’étude : l’automatisation va toucher les services.

Les métiers manuels ne seront plus les seuls à céder leur place aux machines, des actions comme le télémarketing, l’écriture de rapport, la distribution de médicaments peuvent être automatisée. Par exemple, le logiciel Quill permet la rédaction de contenus, l’algorithme News Digest écrit de véritables articles journalistiques, le robot TUG d’Aethon sait se déplacer dans un environnement réel et supplée les aides-soignants en apportant les repas aux patients.

Le développement fulgurant du Big Data, du Cloud mais aussi des objets connectés permet d’automatiser des actions comme la prise de décision, de quoi rendre les robots autonomes. Des robots d’accueil commencent à se démocratiser comme le robot Pepper  que les amateurs de café pourront rencontrer dans les boutiques Nespresso dès décembre. Bien que moins séduisants que George Clooney, leur mission sera aussi de vendre les machines à café.  Plus près de chez vous, depuis la rentrée les téléspectateurs de l’émùission télé Salut les Terriens peuvent regarder le robot Jean-Mi aux côté de Thierry Ardisson jouer le rôle de chroniqueur en posant une question à l’invité. Pour autant, l’animateur en noir n’est pas prêt à lui céder la place…

Le Cabinet auteur de cette étude sur la transformation digitale prévoit que 42% des emplois français sont potentiellement automatisables d’ici 20 ans, dont les emplois industriels peu qualifiés mais aussi les emplois intermédiaires comme les fonctions administratives, les métiers juridiques ou des fonctions d’encadrement. Toutes les tâches à caractère répétitif sont concernées, qu’elles soient qualifiées ou non. Pour résumer, les seuls travailleurs à l’abri sont ceux dont le job nécessite de la créativité ou de l’intelligence social, comme les enseignants, les chercheurs, les ingénieurs ou encore les fonctions régaliennes.  Pour l’instant en tout cas…

Tirer profit de l’automatisation

Faut-il avoir peur et craindre un scénario à la Terminator ? Non, Skynet reste de la science-fiction. Mais consciente de ces évolutions technologiques, la France va devoir s’adapter et transformer le risque en opportunité. Car il y a beaucoup à gagner à réussir la transformation digitale : rehaussement des marges des entreprises, rentrées fiscales liées à la hausse des bénéfices, accroissement de la performance des services publics, création de nouvelles catégories d’emplois. La hausse de la productivité liée à la numérisation de l’économie pourrait  même générer 30 milliards d’euros de recettes publiques. De quoi faire réfléchir.

Par Audrey Loubens

Biomatériaux pour la santé

Production et montage : Bruno Decottignies

Micro-technologies et outils connectés au service de la Santé

Production et montage : Bruno Decottignies

La substitution des produits dangereux dans les résines : cas des époxy

Production et montage : Bruno Decottignies

La mesure in situ dans le sol et l’eau : les plateformes de 3 Insituts Carnot

Production et montage : Bruno Decottignies

Les cinéastes d’Interstellar réussissent la première représentation d’un trou noir

Quand Christopher Nolan sollicite Kip Throne, scientifique habitué des studios hollywoodiens, ce dernier accepte sans se douter un seul instant des avancées scientifiques à venir. Sa mission sera d’accompagner les équipes graphiques dans la représentation des décors spatiaux. Le prestigieux réalisateur travaille en effet sur son dernier film, Interstellar, qui retrace les aventures d’hommes partis à la conquête de l’espace à la recherche d’une nouvelle Terre.

Grâce à un trou de ver, une sorte de raccourci à travers l’espace temps composé d’un trou noir accolé à un trou blanc, les astronautes peuvent voyager au-delà de notre galaxie, et découvrir de nouveaux mondes.  Les effets spéciaux sont donc un élément clé du film, et Christopher Nolan souhaite les effets spéciaux les plus réalistes possibles. 

Sauf que personne n’a jamais vu de trou noir ni à quoi ressemble les mondes au-delà de notre galaxie. Un trou noir est un objet ultra compact, le reste d’étoiles massives effondrées sur elles-mêmes à la fin de leur vie,  dont l’intensité gravitationnelle emprisonne la matière mais aussi la lumière en l’empêchant de ressortir. Les trous noirs seraient donc invisibles. Seule solution, utiliser la simulation. Kip Thorne a donc fourni de nombreuses informations aux équipes techniques, dont des équations sur la théorie des trous noirs. Ces données ont alimenté les logiciels utilisés pour la réalisation des effets spéciaux, dont le résultat des calculs a abouti à une représentation d’un trou noir.

Il aura fallu une année de travail pour aboutir à ce résultat, Kip Thorne ayant écrit une partie des équations. Il ressort que le trou noir tourne sur lui-même à une vitesse proche de celle de la lumière, formant un anneau lumineux courbé autour de lui.  Contre toute attente, la déformation de l’espace provoquée par le trou noir affecte aussi le halo à la forme désormais connue.

L’astrophysicien a indiqué préparer deux articles scientifiques relatant ce travail.

  • Interstellar, 2h43, sortie le 5 novembre
Par Audrey Loubens

Un véritable skate volant digne de l’Hoverboard de « Retour vers le futur » bientôt commercialisé

En à peine une semaine, Hendo a levé plus de 250 000 $.

C’est dire si l’attente est grande ! Son projet ? La commercialisation d’un skateboard flottant au dessus du sol. Les fans de « Retour vers le futur » auront immédiatement reconnu le célèbre Hoverboard du deuxième opus, lorsque Marty McFly débarque en 2015 pour aider son fils. 2015 arrive et l’Hoverboard devient réalité. La société Hendo a fabriqué le premier skate volant. Son fonctionnement repose sur les courants de Foucaults générés par les quatre disques aimantés de l’Hoverboard lorsque celui-ci est placé au dessus d’une plaque métallique.

Et ça marche. Buzz Aldrin, astronaute américain qui a marché sur la lune, a eu la chance de le tester.

L’Hoverboard est donc le premier skate volant à supporter le poids d’un homme. Toutefois, son fonctionnement requiert une surface métallique conductrice, ce qui n’est évidemment pas le matériau utilisé pour les routes ou les trottoirs. Hendo a donc prévu de créer une Hoverpark, un véritable skatepark mais adapté à l’Hoverboard avec un sol recouvert de plaques métalliques.

Dès sa mise en ligne sur le site de crowfunding Kickstarter, le projet a engrangé les dons à vitesse grand V, la somme récoltée atteignant déjà 417 000$, bien mieux que l’objectif initial d’un quart de million de dollars.

Au-delà de l’aspect ludique d’un tel produit, Hendo espère appliquer sa technologie à des immeubles capables de flotter au dessus du sol et ainsi faire face aux tremblements de terre sans risquer de s’effondrer.

  • Découvrez comment fonctionne l’Hoverboard :

Par Audrey Loubens

Quel est l’impact écologique de la viande ?

Elevage et impact environnemental

Pour produire ces protéines que nous adorons tant consommer, l’élevage de bétail est malheureusement responsable :

  • d’un cinquième des émissions de gaz à effet de serre ;
  • d’une partie de la pollution des ruisseaux et des nappes phréatiques ;
  • de l’extinction de certaines espèces animales et végétales, en raison des grandes surfaces utilisées et transformées.

Plusieurs études scientifiques ont étudié ces impacts. Toutefois, aucune n’avait jusqu’à présent comparé le coût écologique de chaque type de viande. C’est désormais chose faite grâce à une équipe de chercheurs de l’Institut Weizmann, conduite par le Dr Ron Milo, en partenariat avec Tamar Makov de l’Université de Yale et de Gidon Eshel du Bard College (Etats-Unis).

L’impact environnemental d’une unité nutritionnelle (calorie) des cinq sources principales de protéines – les produits laitiers, le boeuf, la volaille, le porc et les oeufs – a ainsi été quantifié. Toute la difficulté de cette étude était de rendre comparables des produits et des modes d’élevage si différents. Par exemple, en se cantonnant aux bovins, différentes techniques d’élevage existent, comme le pâturage sur de grandes étendues ou l’élevage au maïs d’ensilage à l’étable. Dans le premier cas, l’irrigation et l’apport d’engrais sont faibles, mais de grands espaces sont nécessaires. Dans le second cas, peu de terres sont nécessaires, mais l’élevage est très gourmand en eau et en engrais.

Un maximum de facteurs pris en compte

Les chercheurs ont utilisé plusieurs sources de données dont certaines appartenant au ministère de l’Agriculture des Etats-Unis. Différents volets de l’impact sur l’environnement ont été pris en compte incluant la surface de terre requise, l’eau nécessaire à l’irrigation des sols, les émissions de gaz à effets de serre (par les animaux et par les machines agricoles), l’utilisation d’engrais ou encore le coût du transport des viandes produites. Les dommages indirects, comme l’atteinte à la biodiversité ou la pollution des eaux environnantes, ont également été pris en compte. Un modèle mathématique original a été bâti par l’équipe israélienne afin de prendre en compte l’ensemble de ces facteurs.

Le plus gros pollueur : la viande de boeuf

Les résultats ont montré que le boeuf est la viande dont la production a le plus gros impact environnemental. Ce résultat était attendu, mais ce qui l’était moins était l’importance de la différence avec les autres types de viande. En effet, les chercheurs ont estimé que consommer de la viande de boeuf est environ dix fois plus néfaste pour l’environnement que consommer du porc ou de la volaille.

Le bilan est sans appel, l’élevage de bovins nécessitant environ 28 fois plus de terres, 11 fois plus d’irrigation, rejette 5 fois plus de méthane et consomme 6 fois plus d’azote, que toutes les autres sources de protéines étudiées (le porc, les volailles, les produits laitiers et les oeufs), qui ont un impact environnemental globalement identique.

Voilà une étude qui devrait faire réfléchir les consommateurs que nous sommes ! Ces résultats seront peut-être pris en compte par les futures politiques agricoles, afin de mieux conjuguer consommation et développement durable.

Source : bulletins-electroniques.com

Et aussi dans les
ressources documentaires :

L’Afrique subsaharienne produira plus de gaz que la Russie en 2040

Les responsables politiques et les hauts fonctionnaires sont conscients du potentiel que représente l’importation du gaz naturel liquéfié (GNL) en provenance d’Afrique, qui est en plein essor, afin de diversifier le mix énergétique européen.

Dominique Ristori, directeur général en charge de l’Énergie au sein de la Commission européenne, a expliqué mercredi 29 octobre, que la crise ukrainienne a fait entrer la coopération entre l’Union européenne et l’Afrique dans une nouvelle ère.

La situation de l’Ukraine a exacerbé le problème de la dépendance de l’UE vis-à-vis du gaz russe. Les efforts diplomatiques visant à sanctionner l’annexion russe en Crimée ont été minés par les craintes que Moscou coupe les vannes en guise de représailles. Le 16 octobre, la Commission a ainsi publié une toute première analyse portant sur les conséquences d’une perturbation, voire d’une interruption complète, des livraisons de gaz russe aux pays de l’Union.

L’Afrique subsaharienne produira près de 175 milliards de mètres cubes par an (mmc/an) de gaz naturel d’ici 2040. L’Angola, le Mozambique, le Nigeria, la Tanzanie en seront les premiers producteurs.

De leur côté, les États-Unis, forts de l’essor du gaz de schiste, produiront plus avec 240 mmc/an. La Russie produira environ 130 mmc/an, selon les projections de l’Agence internationale de l’énergie (AIE).

La production de gaz subsaharien est passée de 7 mmc/an en 1990 à seulement 58 mmc/an en 2012, selon le rapport sur les perspectives énergétiques de l’Afrique publié par l’AIE, présenté le 29 octobre à Bruxelles.

Un acteur au niveau mondial

Le chef économiquede l’Agence internationale de l’énergie, Fatith Biral, a annoncé que l’Afrique subsaharienne représentant un potentiel énorme pour ce qui est de la production de gaz naturel liquéfié.   « Investir dans des projets liés au gaz naturel liquéfié (GNL) pourrait augmenter de façon significative la diversification des importations gazières vers l’Europe »,explique-t-il.   La moitié de la croissance globale de la production de gaz serait destinée à la production nationale d’électricité et à l’industrie, mais une partie pourrait être exporter vers l’Europe.

« L’Afrique subsaharienne restera un acteur clé sur les marchés pétroliers internationaux tout en émergeant en tant qu’acteur de premier plan pour ce qui est des marchés de gaz naturel », poursuit l’économiste.   Dominique Ristori a indiqué à EurActiv que les politiques, les activités et les investissements en vue d’assurer la diversification d’approvisionnement contribueraient à la stratégie européenne sur sa sécurité énergétique.

« Nous avons une priorité claire, qui est de réduire notre dépendance externe et cette approche est la bonne, notamment quand on parle du gaz, car nous avons pour ce qui est de cette source spécifique un seul fournisseur qui domine le marché » poursuit-il.

Le GNL pourrait être transporté par voie maritime. Dominique Ristori affirme que l’UE envisagerait de travailler avec des partenaires africains sur des projets dans le but de réduire les distances et les coûts de transports de gaz vers l’UE. L’UE devrait prendre part aux activités d’exploration, à ses yeux.

Dominique Ristori précise que l’Afrique dispose de nombreuses sources énergétiques, mais n’en tire aucun profit. « Nous devrions développer une stratégie politique pour créer une véritable coopération [et] trouver de nouvelles manières afin de garantir le développement des ressources énergétiques africaines », projette-t-il.

Des potentiels inexploités

L’Afrique subsaharienne n’exploite pas ses énormes potentiels en énergies renouvelables. Par exemple, l’énergie solaire reste largement sous-exploitée, reprend Fatih Birol. « Il n’y a pourtant aucun autre continent au monde où il y a un ensoleillement aussi brillant et fort sur une durée moyenne de 320 jours par an » souligne-t-il.

Ces dernières années, presque 30 % des découvertes de nouvelles sources de pétrole se sont faites en Afrique subsaharienne. Un baril sur trois de pétrole dans le monde est issu de la production subsaharienne, expose-t-il.

Malgré cela, quelque 620 millions de personnes, soit deux tiers de la population de la région, vivent sans électricité dans les pays de cette région. La moitié des populations mondiales non raccordées à l’électricité vivent en Afrique subsaharienne.

Selon l’AEI, près d’un milliard d’Africains seront connectés à l’électricité d’ici 2040. Ceci grâce à la forte croissance que connaît la région et les engagements importants dans différents projets pour une valeur estimée à 25 milliards de dollars (19,6 milliards d’euros).

Cependant, quelque 530 millions d’individus, notamment parmi les communautés rurales, resteront non raccordés.

« Qu’est-ce que cela veut dire si, en 2040, encore un demi-milliard de personnes vivent sans électricité » s’interroge l’économiste. « Ce qui manque, ce sont les investissements dans les infrastructures », analyse-t-il.

Mais l’UE doit faire face à une concurrence en provenance d’Asie, et en particulier de la Chine, qui investit dans de nombreux projets pétroliers, gaziers et hydriques en Afrique subsaharienne.

Lampedusa et le terrorisme

Luigi Marras est directeur général sur les affaires internationales au sein du ministère des Affaires extérieures et de la coopération à l’aide au développement. Il pense que les instruments économiques et politiques, en particulier en faveur de l’énergie, doivent être utilisés de façon stratégique.

« Nous devons nous concentrer sur les régions instables, là où les gens sont forcés de fuir leur pays. Nous devons agir là-bas afin de remédier aux lacunes qui profitent aux forces radicales et terroristes », selon lui.

Le rapport arrive à un moment opportun, à une époque où de plus en plus d’immigrés illégaux essayent de gagner les côtes italiennes par voies maritimes pour accéder au territoire européen.

« Nous sommes confrontés à une forte pression démographique en provenance des pays d’Afrique subsaharienne. Une immigration qui malheureusement termine souvent tragiquement », regrette-t-il.

En octobre 2013, un « boat people » s’abîmait au large des côtes de Lampedusa, où 366 immigrés africains périrent. Récemment, quelque 500 migrants, dont beaucoup fuyaient Gaza, auraient été tués de façon délibérée par des trafiquants, qui décidèrent de couler le navire qui les transportait au large des côtes maltaises à la suite d’un différend.

Selon Luigi Marras, l’Afrique a besoin d’être considérée non pas seulement comme un continent qui peut aider les Européens à diversifier leurs sources pétrolières et gazières, mais aussi comme un partenaire potentiel pour les affaires et le commerce.

« Pour en arriver là, nous avons besoin cependant d’une véritable politique énergétique et de fournir ses gens avec de l’électricité », conclut-il.

Source : Euractiv

Les ingénieurs ont-ils à se préoccuper des enjeux éthiques des techniques ?

Les ingénieurs n’ont pas d’avis légitimes en matière d’éthique

C’est l’argument de Samuel Florman, un ingénieur civil américain, humaniste, auteur de plusieurs articles et ouvrages sur le génie et sa pratique dont The Existential Pleasure of Engineering (1976). Dans ces écrits, Florman se montre très critique à l’égard des nombreux codes promulgués par les associations d’ingénieurs de son pays. Il est très sceptique face à l’obligation faite aux ingénieurs à travers ces codes – tout au moins les plus récents – de protéger le public contre les effets potentiellement néfastes des développements techniques.
Selon lui, les ingénieurs ne sont pas plus qualifiés que les autres citoyens pour déterminer ce qui est le meilleur intérêt de tous. Ils n’ont par conséquent pas de responsabilité particulière dans la protection du public « Heureusement, écrit-il, les ingénieurs ne sont pas plus reconnus pour déterminer comment organiser le monde que ne le sont les politiciens, les romanciers, les dentistes ou les philosophes ». Il précise même dans The Civilized Engineer (1987) que « la place de l’ingénieur n’est ni dans l’arène politique ni dans la cacophonie de l’opinion publique ».
Armin Grunwald, Directeur l’Institut pour l’évaluation des techniques et l’analyse systémique de Karlsruhe abonde dans le sens de Florman. Il a développé ses idées sur le sujet dans un article publié dans Science and Engineering Ethics, dont le titre particulièrement explicite est : « de la surestimation de l’importance de l’éthique dans le développement technique ».

Respecter et faire respecter les normes suffit

Grunwald s’oppose aux éthiciens qui considèrent, selon lui, que le développement technique est dominé par les ingénieurs et en concluent que l’Engineering Ethics (la déontologie professionnelle telle qu’elle est développée aux USA, en fait) est le meilleur, voire le seul instrument pour éviter les impacts négatifs des technologies. Il rappelle que l’éthique a pour objectif de résoudre les conflits moraux et que les ingénieurs n’en rencontrent pas ou presque pas dans leur travail. Il souligne, d’autre part, que si les apports des ingénieurs et des scientifiques sont nécessaires et premiers, ils ne constituent pas le facteur prédominant de l’orientation du développement technique. Selon lui, les choix sont faits par les dirigeants d’entreprise en fonction d’un calcul coût/bénéfice dans le cadre d’un marché concurrentiel et les chefs d’entreprise eux-mêmes ne sont pas libres de faire comme bon leur semble, car ils sont liés à une régulation politique et aux attentes sociales et culturelles de leur environnement.
Grunwald en déduit que la seule responsabilité qui incombe aux ingénieurs est de s’assurer que les normes en vigueur sont appliquées, éventuellement de repérer les vides nécessitant une révision des normes ou l’élaboration de nouvelles. Il précise néanmoins que si les ingénieurs n’ont pas besoin d’être des experts en éthique, il est important qu’ils soient capables de transmettre leurs expériences, leurs inquiétudes et qu’ils développent pour cela une sensibilité éthique.
Christian Hogenhuis est un chercheur Néerlandais qui a participé au projet du manuel européen Technology and Ethic, co-dirigé par deux chercheurs lillois, Philippe Goujon et Bertrand Hériard Dubreuil (2001). Si, selon lui, tous les acteurs ont un rôle à jouer dans la maîtrise du développement technique il n’en reste pas moins que les ingénieurs ont une position et par conséquent des obligations tout à fait particulières.

Des obligations plus étendues dans les faits

Un des rôles des ingénieurs est certes de communiquer les spécifications techniques, mais ceux-ci peuvent aussi (et doivent parfois) proposer des alternatives à leurs supérieurs. S’il n’est pas de leur ressort, en théorie, d’indiquer l’impact social et les implications morales des alternatives techniques en présence, cela fait partie, dans les faits, de leur responsabilité par ce qu’ils sont les seuls à pouvoir le faire. Une autre raison est que les ingénieurs sont souvent managers ou décideurs, c’est encore plus vrai dans notre pays que dans ceux des auteurs cités. Une autre encore, plus universelle, est que les conséquences des choix techniques ne peuvent pas toujours être évaluées par leurs supérieurs et que ces derniers leur font en général confiance.
Alastair S. Gunn et P. Arne Vesilind, spécialistes des questions environnementales vont encore plus loin en affirmant que les ingénieurs doivent introduire les problématiques environnementales au moment de la conception des projets, avant même que ceux-ci ne deviennent publics. Plus largement, les ingénieurs ont, selon eux, la responsabilité d’introduire les questions de valeurs dans les rapports qu’ils remettent à leurs clients ou à leurs supérieurs. S’il est important que le public acquière une compréhension des enjeux des techniques, s’il doit être prêt à assumer ses propres responsabilités là où celles des ingénieurs et experts techniques se terminent, la responsabilité des ingénieurs pourrait bien dépasser la définition minimaliste qui consiste à veiller simplement au respect des normes en vigueur, et les ingénieurs avoir leur place dans les débats sur les enjeux éthiques des techniques.

Références
Florman Samuel, 1976, The existential pleasure of engineering, St Martin’s Press
Florman Samuel, 1987, The civilized engineer, St Martin’s Press
Grunwald Armin, 2000, «Against Over-Estimating the Role of Ethics in Technology Development», Science and Engineering Ethics, 6(2): 181-196.
Goujon Philippe, Hériard Dubreuil Bertrand, 2001, technology and Ethics. The Quest of responsible Engineering, Leuven : Peeters
Gunn Alastair S., Vesilind P. Arne, (1986), Environmental Ethics for Engineers, Levis publisher, Michigan, 1986.

Par Christelle Didier

Les enjeux éthiques de l’espace

La réflexion développée dans cet article s’appuie sur un ouvrage intitulé La seconde chance d’Icare. Pour une éthique de l’espace (Cerf, 2001). Son auteur, Jacques Arnould, docteur en histoire des sciences, travaille depuis plusieurs années, en tant que chargé de mission au Centre national d’études spatiales (CNES), sur la dimension éthique sociale et culturelle de l’activité spatiale.

Les sources sur lesquelles repose son ouvrage sont nombreuses .Les références, tant philosophiques que sociologiques et historiques, ainsi que les témoignages et réflexions d’ingénieurs engagés dans l’activité spatiale y sont de grande valeur.  Chaque question abordée est replacée de façon instructive dans son contexte historique et géopolitique.

Nécessité d’une réflexion critique

Le but de l’auteur n’est pas d’émettre des jugements moraux sur des réalisations passées ou des projets en cours, mais de s’interroger, avec les acteurs concernés par le sujet , sur « les valeurs, les politiques, les stratégies, les relations entre individus ou au sein de la  société » qui en découlent. Quel est le fondement de leur action, et quelle est la justification de leurs savoirs et compétences et celle de leur pouvoir ? Son objectif est également de « préciser la nature des motivations le plus souvent avancées pour présenter, analyser ou justifier les activités spatiales », par ce qu’il appelle les « ressorts » de l’action.

Un espace bien encombré

Dans un premier temps, Jacques Arnould examine le problème de la pollution spatiale qui constitue, selon lui, une bonne entrée dans la question éthique. Les risques de la pollution spatiale ressemblent, en effet, sur bien des points, à ceux causés par  la pollution terrestre. Il rappelle qu’en quarante ans d’activités spatiales, plus de 4000 engins ont été expédiés dans l’espace (satellites, sondes, vaisseaux spatiaux) et que chaque mission spatiale a généré des débris : les

étages supérieurs des fusées, vidangés ou non, des boulons explosifs, des colliers de serrage, les pièces libérées lors de la séparation des satellites et de leurs lanceurs, sans parler des objets « perdus » et des débris générés par la vie en orbite (sacs poubelles principalement). Sur 4800 satellites placés depuis 1957, 2400 y sont encore alors que les trois quarts d’entre eux ont terminé leur mission et ont été abandonnés. Environ 8500 objets ont plus de 10 centimètres, 100 000 entre 1 et 10 cm ;ils sont plusieurs millions de dimension inférieure au centimètre.

Des risques négligés

Cette présence d’objets induit des risques importants de collision en orbite basse. D’autres risques sont liés au fait que certains objets retombent sur terre. Mais l’impact sur l’environnement va au delà de la question des déchets. En effet, le lancement normal induit aussi une forte pollution terrestre du fait de la nature et de la quantité des carburants liquides et solides brûlés. Et, si on peut s’attendre à ce qu’une réflexion sur l’utilisation de carburants moins polluants voit le jour, les effets sur les populations vivant aux alentours des bases de lancement ne sont pas prêts d’être pris en compte ; ils ont été très peu étudiés à ce jour. Face aux     risques dus à ces pollutions, plusieurs réponses peuvent être avancées, qui mettent en avant des stratégies d’action différentes : la première consiste à surveiller les objets en orbite, la seconde à s’en protéger, la troisième à limiter la production de nouveaux déchets.

L’activité spatiale  pose aussi des questions humaines , notamment celle des risques encourus par les spationautes. Bien qu’ils soient souvent perçus par le public comme des risques choisis en pleine connaissance de cause, l’accident de la navette Challenger qui a provoqué la mort de sept personnes, dont des civils, a remis en question ce postulat.

Ressorts et finalités

Jacques Arnould s’interroge aussi et surtout sur les raisons invoquées pour aller dans l’espace. Quelle est la finalité de cette aventure humaine, quelle en est l’utilité, et pour qui ?  C’est une question éthique essentielle que de se demander non seulement s’il y a adéquation des moyens aux fins mais aussi ce que valent les finalités de cette activité. Les réponses données  relèvent de ce que l’auteur appelle des « ressorts ». Il y a d’abord le ressort « mythique », dû au fait que l’espace est un domaine où s’alimente et s’exprime l’imaginaire humain, qu’il s’agisse de l’exploration, de la conquête ou de la fuite. Même si les intérêts économiques et les rivalités politiques l’emportent, le poids de ce ressort mythique dans les décisions. est loin d’être négligeable.

Les autres ressorts, et motivations habituellement invoquées, sont d’abord « logiques » , pour reprendre la terminologie de Jacques Arnould : ce sont les besoins liés aux activités militaires et scientifiques. Il y a enfin des ressorts « pratiques », dont l’utilité tant mise en avant des satellites. Mais, il ne faut pas oublier que si l’intérêt social de cette activité paraît peu discutable, c’est parce qu’on n’en évoque pas la dimension  économique ;l’accès à l’espace dit « utile » est en effet mal réparti. Jacques Arnould  souligne que ceux qui auraient le plus besoin des apports scientifiques de l’espace  sont ceux qui n’ont pas les moyens de se les donner.

Références : Arnould Jacques, 2001, La seconde chance d’Icare. Pour une éthique de l’espace, Paris: Cerf

Par Christelle Didier

Wernher Von Braun : un génie ambigu

Wernher Von Braun est né le 23 mars 1912 à Wirsitz, en Prusse (Wyrzysk est aujourd’hui une ville polonaise qui se situe eu nord de Poznan). C’est le second fils d’une famille aristocratique. Son père, le Baron Magnus Von Braun exerce alors les fonctions de Landrat (sous préfet). Il détiendra, sous les deux derniers chanceliers de la République de Weimar, le portefeuille de l’Alimentation et de l’Agriculture.

Très jeune Wehner Von Braun se montre passionné par les voyages spatiaux. Il faut dire que le sujet est particulièrement à la mode en Allemagne. L’un des pionniers de l’astronautique (avec l’américain Robert Goddard, le Russe Constantin Tsiolkovski et le Français Robert Esnault-Pelterie) est un Hongrois de culture allemande : Hermann Oberth.

Herman Oberth comprit vite l’importance du principe de la fusée à réaction pour le déplacement dans l’espace. En 1922, son projet de thèse de doctorat est refusé par l’université de Heidelberg. Il décide alors de publier ses travaux : un an plus tard, La Fusée vers les espaces planétaires obtient un énorme succès en librairie. En 1925, Werner Von Brau découvre avec enthousiasme cet ouvrage : il a 13 ans. Premier savant à annoncer la possibilité d’envoyer des hommes dans l’espace afin d’explorer l’univers, Hermann Oberth suscite un engouement important en particulier au sein de la société allemande des voyages spatiaux (VfR) fondée en 1927.

En 1927, Wernher Von Braun écrit à Hermann Oberth en joignant des travaux personnels : la réponse qu’il reçoit l’encourage à poursuivre. Un an plus tard, à 16 ans, il rédige un mémoire sur la théorie de la fusée à longue distance. Il obtient son baccalauréat à la fin de l’année puis entre avec une année d’avance à l’Institut polytechnique de Berlin. En 1930, il rencontre enfin Hermann Oberth et commence à travailler avec lui en parallèle de ses études d’ingénieur.

A la même époque les militaires allemands commencent à s’intéresser aux activités de la VfR, En effet, malgré la crise économique qui frappe l’Allemagne et le reste du Monde, les fusées sont un sujet digne d’intérêt pour l’armée. En effet, si le traité de Versailles stipule que « la fabrication d’armes, de munitions ou de matériel quelconque ne pourra se faire que dans des usines ou ateliers dont l’emplacement sera connu et approuvé par les gouvernements des grandes puissances alliées et associées », les fusées ne sont pas spécifiquement désignées comme armes de guerre.

Cependant, les savants de la VfR refusent de collaborer avec l’armée. Ainsi, la tache de recrutement confiée à Walter Dornberger se révèle difficile et les recherches sur les fusées à combustibles solides et liquides menée par l’armée donnent peu de résultats. En 1932, Walter Dornberger rencontre à nouveau les experts de la VfR. Le jeune Von Braun, encore étudiant, est impressionné par les moyens dont est dotée la station expérimentale de l’armée. Il accepte de collaborer car il pense que les moyens techniques de l’armée sont seuls capables de faire avancer la cause de la recherche spatiale. Il prend, en 1932, un poste civil dans la recherche militaire sur les fusées à propergol liquide tandis que le général Becker lui propose de parrainer sa thèse.

En 1933, Hitler arrive au pouvoir. Les activités de la VfR sont interdites : la recherche sur la fusée devient une chasse gardée des militaires. Walter Dornberger est nommé directeur du service de recherches sur les armes nouvelles, et Wernher Von Braun est chargé d’étudier les applications militaires des fusées. Il enregistre son premier succès en Décembre 1934 avec deux fusées A2 propulsées à l’éthanol et à l’oxygène liquide lancées depuis l’île de Borkum dans la mer du Nord et qui atteignent une altitude de plus de 2 km. La même année, à 22 ans, il soutient sa thèse « contribution constructive, théoriques et expérimentales au problème des réacteurs à combustible liquide » qui est classée « secret d’Etat ».

Le centre de recherche, qui était alors situé en banlieue de Berlin, se trouve à l’étroit. En 1936 il s’installe à Peenemünde sur la Baltique dans une importante base d’expérimentation richement dotée en crédits, en matériel et en hommes (vingt mille hommes) et Werhner Von Braun en devient le premier directeur technique. C’est là que vont être mise au point de 1942 à 1944, la fusée Agrégat 4 (A4), appelée aussi V2 (« Arme de la Vengeance » 2), une des armes secrètes de Hitler.

D’une portée de près de 300 km, d’une vitesse de plus de 5 500 km/h et montant à 80 km d’altitude avant de plonger sur sa cible, avec une charge explosive de 1 tonne, cette arme qui arriva néanmoins trop tard pour changer le cours de la guerre. Mais elle permit de bombarder Londres en 1944, faisant des milliers de morts. L’histoire des V2, de leur conception à leur destin final, en passant par les tragiques conditions de leur construction fera l’objet de l’épisode 2 de cet article.

A l’issue de la guerre, les vainqueurs rapatrient les missiles V2 qu’ils trouvent à Pennemüde afin de procéder à des essais et titrer profit des avancées technologiques de Allemands. Dans le cadre de l’affaire « Paperclip », Wernher Von Braun part aux Etats-Unis. En 1955, Wernher Von Braun  est naturalisé américain, il est nommé directeur du centre des missiles balistiques de l’armée, à Huntsville (Alabama). En 1956, il met au point une fusée qui s’élève à 1 100 km du sol et, en 1958, Explorer 1, le premier satellite américain est lancé. C’est meme lui qui aurait suggéré aux conseillers de Kennedy d’aller sur la Lune afin de permettre aux Etats-Unis de reprendre l’avantage dans la compétition qui les oppose aux Soviétiques pour la conquête de l’espace. En 1960, il devient le premier directeur du Centre Marshall de la NASA.

La presse voit d’un très mauvais oeil la présence de Von Braun dans le programme spatial américain et titre « Von Braun vise la Lune …. et touche Londres ».

Par Christelle Didier

Origine de l’éthique scientifique

Selon le Larousse, la morale est une partie de la philosophie qui traite de la façon dont il faudrait vivre. Dans le champ de la philosophie, la morale désigne donc la théorie des fins de l’homme. Mais le mot « morale » morale désigne aussi l’ensemble des règles d’action et des valeurs qui fonctionnent comme normes dans une société. L’éthique, en philosophie, est l’étude des fondements de la morale. Mais elle désigne aussi un ensemble de règles de conduite.

Étymologiquement, le sens de ces deux mots est identique. Historiquement, ils ont d’ailleurs été employés l’un pour l’autre avec un sens très large. Ils ont en commun de concerner tous les deux le bien et le mal. Ce n’est que depuis peu de temps qu’ils sont parfois perçus comme ayant des sens différents voire opposés. Des définitions concurrentes coexistent produite dans des mondes ou des disciplines académiques divers (les milieux économiques, celui de l’éthique des affaires ou encore de la philosophie morale n’utilisent pas ces termes de façon identique).

Des différences d’usage existent aussi au sein de chacun de ces mondes et disciplines (certains philosophes les emploient l’un pour l’autre, les distinctions proposées ne sont pas les même parmi les philosophes). Cependant, au delà des divergences se trouvent des fonctions identifiées par tous : la première consiste à réguler l’action (donner des règles), la seconde à questionner (analyser, légitimer les normes ou les décisions). Enfin, l’éthique comme la morale sont liées au registre de l’action (décider, poser des actes concrets).

Le terme déontologie qui vient du grec (deon-deontos) n’a pas posé de problème d’usage en France jusqu’à la fin du 20eme siècle. Rarement utilisé comme synonyme de morale (bien que l’expression « morale professionnelle » soit très présente dans les travaux d’Emile Durkheim, il comporte un sens juridique étroit et un usage commun plus élargi qui n’en altère pas le sens, et qui est reconnu par le Conseil Supérieur de la Magistrature (CSM). Cependant, la frontière avec le mot éthique est devenue plus floue depuis que l’usage de ce dernier s’est développé dans les milieux économiques dans un contexte de mondialisation des échanges. En effet, le terme anglais ethics désigne parfois, comme dans l’expression code of ethics, des règles non juridiques de bonne pratique professionnelle ou commerciale. Il pourrait être traduit par déontologie ou par code de conduite pour être conforme à l’usage de la langue française. Pourtant, il est souvent traduit par le mot éthique induisant dès lors une certaine confusion. Rappelons ici que dans les années 2000, 90 % des entreprises américaines étaient doté de ce genre de document, contre 10 % des entreprises françaises. Le mot et sa traduction littérale ont traversé l’Atlantique à partir de la toute fin du XXe siècle.

Un rapport demandé fin 2005 par Gérard Larcher, alors Ministre du travail, sur les codes d’éthique et les systèmes d’alerte a été un bon révélateur de l’intérêt croissant porté en France à l’éthique comme outil de gestion des organisations de même que la circulaire de la Direction Générale du Travail du 19 novembre 2008. Cette dernière a aussi été l’occasion de situer le genre d’écrit que sont les codes et chartes d’éthique de plus en plus présentes en entreprise dans le contexte plus large des textes régulant les relations professionnelles, telle que les règlements intérieurs.

Par Christelle Didier

Et aussi dans les
ressources documentaires :

Cas de Challenger : le premier Whistleblower ?

Aucun des sept membres de l’équipage, six militaires et une enseignante civil, ne survit. 

Roger Boisjoly, ingénieur en aéronautique travaillait pour Morton Thiokol, le fabriquant des propulseurs. En juillet 1985, il avait signalé dans une note destinée au Vice Président de Morton Thiokol le défaut de conception des joints, suggérant que sans réponse, ce défaut pourrait conduire à « une catastrophe de la plus grande ampleur, avec perte de vie humaine » lors d’un décollage. Il avait maintenu sa position jusqu’à la mise à feu. Rétrogradé par la suite, il démissionne et dénonce, dans des articles et des conférences, le peu de cas que l’on fait, en pareilles circonstances, de l’avis des experts. 

En 1988, Roger Boisjoly reçoit le prix de la responsabilité et la liberté scientifique de l’American Association for the Advancement of Science (AAAS) pour le courage avec lequel il a collaboré à la commission d’enquête Rogers visant à établir les causes de l’accident.

Si Boisjoly est considéré dans la littérature en éthique de l’ingénierie comme un lanceur d’alerte, ce n’est pas tant pour le rappel de l’inquiétude partagée avec ses collègues et des faits – connus de tous – concernant la fragilité des joints lors de la conférence organisée à la veille du lancement, ni pour le signalement qu’il avait fait en interne 6 mois avant l’accident, mais plutôt par le choix de dévoiler de nombreuses informations inconnue du public auprès d’une instance extérieure à son organisation, la commission Rogers.

 

Et aussi dans les
ressources documentaires :

Quand les ingénieurs font scandale au Québec

Cependant, ce questionnement ne porte pas uniquement sur la question du risque et de la sécurité. Par exemple, ce n’est pas tant l’avènement d’accidents particulièrement marquant qui a réveillé en Allemagne le souci de l’éthique dans les milieux d’ingénieurs : c’est la mise en cause de la collaboration de la profession, de ses savoirs et de son pouvoir d’action, au régime du IIIe Reich.

Au Québec, ce sont les insuffisances d’une approche purement déontologique défendues par l’Ordre des Ingénieurs du Québec (OIQ) chargé d’encadrer de façon réglementaire la profession et la mise en lumière de scandales mettant en cause des membres de cet ordre, qui ont donné un nouvel élan aux discussions en éthique de l’ingénierie au début des années 2000.

Le milieu des ingénieurs connaît en effet, au Québec, une crise sans précédent, depuis le début des années 2000. Il y a eu d’abord l’accident du viaduc de la Concorde qui a entraîné le 30 septembre 2006 la mort de 5 personnes et en a blessé 6 autres qui a révélé de grave manquement aux règles de l’art.

D’autres scandales ont éclaté dans les années qui ont suivi, éclaboussant le secteur de la construction. L’intégrité des ingénieurs, en particulier des 15% des diplômés exerçant dans le conseil, est devenue un sujet d’actualité alimenté quotidiennement par les affaires mis au jour par la Commission Charbonneau. Créée en 2011, par le gouvernement du Québec, cette commission qui porte sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a été mise en place afin « d’alimenter la preuve, de faire connaître les stratagèmes de corruption et de collusion, de protéger les témoins et les victimes et d’assurer de meilleures pratiques dans l’avenir ». Même si toute la profession n’est pas directement concernée, l’ensemble de ses membres a été touché par ces scandales.

Le Bureau de l’OIQ qui est l’instrument prévu par le code des Professions pour contrôler l’exercice des membres des professions réglementées (et doté d’un ordre) se penchait jusqu’en 2009 presque exclusivement sur des plaintes pour fautes techniques (80 en 2008-2009).

Il a été poussé, par la multiplication des reportages et des perquisition menée dans les grandes entreprises de construction, à enquêter sur des dossiers portant sur les problèmes de collusion, de corruption et de contributions politiques illégales, devant ainsi développer de nouvelle compétences.

En 2014, plus de 500 enquêtes étaient en cours dont 180 découlaient directement d’allégations faites devant la Commission Charbonneau. L’OIQ s’est engagé à dégager toutes les ressources nécessaires afin que ses membres adoptent des conduites et des pratiques professionnelles exemplaires et qu’ils gagnent à nouveau la confiance du public : enquête, sanction, information, formation…

 

Et aussi dans les
ressources documentaires :

 

En France : du code de la déontologie à la charte éthique

En 2011, l’enquête socio-économique diffusée par le CNISF comprenait une section sur l’éthique, permettant de donner quelques indications sur la façon dont les ingénieurs diplômés français percevaient les questions relatives à leur responsabilité professionnelle. Au vu des résultats, la première responsabilité des ingénieurs serait de faire profiter l’ensemble de la société de leurs compétences tout en se préoccupant des impacts sociaux et environnementaux de leur activité. En effet, les répondants plébiscitèrent à 91% le second article de la charte qui stipule que « l’ingénieur diffuse son savoir et transmet son expérience au service de la Société » et à 89% le quatrième qui dit que : « l’ingénieur doit inscrire ses actes dans une démarche de développement durable ». Le souci de l’utilisation finale des techniques auxquelles ils contribuent est également largement partagé (75%), même si pour les répondants, il arrive que les ingénieurs se fassent « plaisir avec des belles techniques qui ne sont pas toujours nécessaires » (71%). 

A travers cette enquête, les ingénieurs diplômés apparaissent plutôt bien en phase avec la façon de formuler les contours d’une éthique professionnelle proposée par le CNISF à travers sa charte. Bien que la référence à un code d’éthique ne fasse pas partie de la culture des ingénieurs français, plus de la moitié des répondants voient dans le code d’éthique un moyen permettant de donner des repères dans les situations délicates (66%). La même question posée en 1999 dans le cadre de notre thèse de sociologie publiée en deux volumes en 2008, à 3900 ingénieurs, montrait une moindre adhésion à l’affirmation qu’un code d’éthique adapté à la profession permettrait de donner des repères en cas de difficulté avec 57% de l’échantillon. L’idée d’un ordre professionnel abordée à l’époque avait rencontré l’adhésion d’une minorité de répondant (39% d’accord dont moins de 10% tout à fait d’acord). Interrogés sur les missions qu’un tel organisme pourraient avoir – s’il existait – les ingénieurs ont d’abord cité « donner des repères d’éthique professionnel pour les ingénieurs » (47%), « contrôler les formations » (36%), « représenter les ingénieurs auprès des pouvoirs publics » (22%), « diffuser auprès du public et des décideurs les connaissances techniques » (13%), « défendre les ingénieurs auprès de leurs employeurs » (12%), « décerner l’habilitation à exercer le métier » (11%), « donner des conseils techniques à ses membres » (10%) et enfin « protéger la valeur du titre en en limitant le nombre » (10%), 12% des ingénieurs avaient préféré ne pas répondre à cette question.

Le CNISF avait affirmé que la Charte avait comme objectif de devenir un repère et une référence pour le comportement professionnel des ingénieurs, mais aussi d’aider les élèves–ingénieurs à se préparer à l’exercice de leur métier. Afin de savoir comment ces derniers percevaient ce texte, la Conférence des Directeurs d’Ecoles Françaises d’Ingénieurs (CDEFI) a réalisé fin 2009 une enquête afin de savoir s’ils avaient connaissance de son existence, comment leur école participait à sa diffusion, à quel point ils adhéraient aux termes de ce document et s’il trouvaient la charte compatible avec le métier d’ingénieur : 3589 étudiants issus de 106 écoles ont répondu au questionnaire diffusé en ligne par le CDEFI avec l’aide du Bureau National des Elèves-Ingénieurs (BNEI). Selon les résultats, 38% des répondants connaissaient la charte par l’intermédiaire de leur école avant l’enquête (34% l’avaient reçu à leur entrée dans l’école, dont 3% dans le cadre d’une présentation). Les 62% restant l’avaient découverte par l’enquête. Parmi les quatre rubrique de la Charte, celle qui concerne l’ingénieur dans la société a été jugé la plus importante, en particulier les énoncés 3 et 4 concernant l’impact des techniques sur l’environnement et le développement durable, jugés essentiels (plutôt qu’utiles, peu porteurs ou irréalistes) par plus de la moitié des répondants. En revanche, l’énoncé concernant la diffusion du savoir n’a été considéré essentiel que pour 32% des répondants, bien qu’il soit considéré le plus « utile » des quatre énoncés de cette rubrique.

Par Christelle Didier

Et aussi dans les
ressources documentaires :

 

Aux Etats-Unis, place aux ingénieurs « professionnels »

Le respect d’un code de déontologie ne concerne donc que les individus ayant choisi librement d’adhérer à une association professionnelle. Seul les Professional Engineers (PE) font l’objet d’un enregistrement légal.

En 2000, seuls 5% des un million et demi d’individus se faisant appeler ingénieurs aux USA étaient détenteurs de ce titre (surtout des ingénieurs civils, mais également des mécaniciens et des électriciens).

Le PE dispose d’un sceau qui est obligatoire pour effectuer certains actes protégés. Il doit être enregistré auprès du Bureau de l’Etat fédéral dont il dépend. Ces Bureaux qui disposent théoriquement d’un pouvoir de contrôle sur les PE ont tous adoptés des critères déontologiques de conduites professionnelles. Cependant, il convient de nuancer le pouvoir de ces State Boards dans la pratique, car ils souffrent d’un important manque de moyens pour mener des investigations auprès des éventuels contrevenants.

Parmi les sanctions disciplinaires, on peut lire qu’un PE a vu sa licence suspendue pour quatre ans. Il a du réaliser 400 heures de travail d’intérêt général et suivre un cours de déontologie par correspondance pour avoir été convaincu de détournements d’argent.

La National Society of Professional Engineers (NSPE) a été créée en 1934 pour promouvoir l’idée d’un registre des ingénieurs, aider à la création de State Board dans les Etats où ils n’existaient pas et promouvoir l’adoption de loi créant des licences professionnelles pour les ingénieurs.

La NSPE qui avait adopté dans un premier temps le code de déontologie de l’ECPD (devenu l’ABET), a finalement choisi en 1954 d’en avoir un en propre qu’elle a révisé plusieurs fois depuis. Elle est dotée d’un comité d’éthique (Board of Ethical Review) qui est le plus actif des Etats-Unis.

Les réponses que donne ce comité aux questions éthiques que ses membres lui soumettent, publiées très régulièrement dans la revue Professional Engineer et accessibles en ligne, sont même considérées comme une ressource importante par de nombreux chercheurs dans le domaine de l’éthique professionnelle des ingénieurs.

 

Et aussi dans les
ressources documentaires :

Nintendo développe des instruments pour améliorer la qualité de vie avec l’américain Resmed

« Le premier thème de la qualité de vie, c’est la santé », a expliqué M. Iwata lors d’une conférence de presse.

« La santé, c’est notamment éliminer la fatigue », a poursuivi le patron de la firme qui n’est pas au mieux de sa forme depuis quatre ans.

« Tout le monde a besoin de sommeil, tout le monde se fatigue. Le fait de bien dormir ou non a une grande influence sur l’état de santé », c’est pourquoi Nintendo veut proposer des appareils qui permettent de façon simple d’évaluer précisément comment on dort.

Selon Nintendo, même s’il existe déjà des moyens de mesurer le sommeil, c’est trop contraignant, pas assez amusant. Le groupe veut proposer des produits « qui ne se portent pas sur soi, sont sans contact, sans action à effectuer (sinon dormir), sans attente et sans effort d’installation ».

Le partenariat avec Resmed doit permettre de développer des produits, bénéficiant des technologies médicales et du savoir-faire de cette société, à l’adresse du grand public que connaît parfaitement Nintendo, a argué M. Iwata.

La firme de Tokyo dit en outre travailler avec plusieurs professeurs japonais.

Le but final est de développer ainsi une « plateforme d’augmentation de la qualité de vie », comprenant non seulement les instruments de mesure, mais aussi une base de données en ligne et un lien avec les consoles de jeu du groupe, entre autres appareils connectés.

Lors d’une conférence de presse en janvier, M. Iwata avait déjà promis de l’inédit pour 2015-2016, avec un accent mis sur la santé ludique, un sujet qui intéresse un large public.

Cette voie avait été ouverte il y a quelques années avec le Wii Fit, une sorte de pèse-personne qui permettait diverses activités physiques en association avec la console Wii, ou encore avec les jeux d’entraînement cérébral (Quel âge a votre cerveau ?).

Nintendo, une maison centenaire initialement spécialisée dans les jeux de cartes, va encore se « métamorphoser » pour s’adapter aux circonstances, assure M. Iwata.

Reste que les investisseurs à la Bourse de Tokyo n’ont guère été convaincus par la prestation de M. Iwata: l’action Nintendo n’a finalement gagné que 1% après avoir pourtant bondi de 7,7% en début de matinée au lendemain de l’annonce de résultats semestriels meilleurs qu’espéré.

Dans les toutes premières minutes, le titre Nintendo affichait un gain de 860 yens à 11.980 yens (+7,73%), avant de se dégonfler pour retomber à 11.235 yens (+115 yens ou 1,03%) à la clôture, après des déclarations du patron sur la stratégie du groupe.

kap/ros

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Amazon est-il en train de s’essouffler ?

Les investisseurs tirent la sonnette d’alarme. Leur patience a atteint ses limites et ils commencent à douter que le modèle économique d’Amazon devienne rentable. Les raisons de cette défiance ? L’absence de bénéfice. En effet, malgré une croissance à 2 chiffres insolente, plus de 277 millions de clients, un chiffre d’affaire de 60 milliards de dollars en 2013, Amazon vient d’annoncer une perte nette de 437 millions de dollars ! Une énième déception qui entame la confiance des investisseurs, lassés de patienter devant des choix stratégiques audacieux certes, mais qui peinent à rapporter. Dans les heures qui ont suivi la publication des chiffres, l’action a dévissé de 8,3% à 287,06$. Ce même action valait 407,50$ en janvier, soit une chute de 30% en moins d’un an.

Car Amazon n’est pas une entreprise comme les autres. Son fondateur, Jeff Bezos, est convaincu que détenir le plus de parts de marché est fondamental, quitte à faire passer la rentabilité au second plan.  Depuis 1995 et ses pertes colossales avec -60% de rentabilité, -52% en 2000, le mastodonte a enfin atteint l’équilibre en 2003 avec une rentabilité de 0.02%. Faible, mais encourageant. D’autant qu’en 2008, Jeff Bezos parvenait à porter la rentabilité à 3.3%, résultat confirmé en 2010 avec 3.4%. Malheureusement, impossible de maintenir le niveau et depuis 4 ans, Amazon peine à garder la tête hors de l’eau. L’année 2013, avec 0,4% de rentabilité, se révèle être le calme avant la tempête de 2014 et ses pertes  abyssales. D’autant plus que la croissance du chiffre d’affaire s’érode elle aussi, malgré la période pourtant propice au commerce liée aux fêtes de fin d’années.

Les parts de marché au détriment de la rentabilité

Pourquoi Amazon n’arrive toujours pas à gagner de l’argent ? Deux raisons expliquent ce paradoxe. Tout d’abord Jeff Bezos accorde peu d’importance à la marge et s’attache à développer sa clientèle, à l’image de son comportement dans le domaine de l’édition. Véritable cauchemar des libraires, Amazon représente 60% de part de marché du livre numérique aux USA, pendant qu’il représente les deux tiers des ventes en ligne en France. Sauf que, toujours dans son optique de gagner des parts de marché, Amazon n’hésite pas à vendre à perte ou quasiment. En France par exemple, Amazon propose systématiquement 5% de réduction sur les livres, le maximum autorisé. Mais les frais de port sont offerts ! De quoi séduire les clients, mais sans faire rentrer d’argent dans les caisses. Cette exemple illustre parfaitement la politique de casser les prix pour faire gonfler le fichier client et tuer la concurrence. On verra plus tard pour les bénéfices. Sauf que « plus tard », les actionnaires ont décidé que c’était « maintenant » !

Des diversifications coûteuses

De plus, Amazon réalise de  nombreux investissements qui plombent les résultats économiques. Ces derniers visent dans un premier temps à développer les activités existantes et à accompagner les besoins en logistiques galopants du fait de la croissance très forte de l’entreprise. Ces dépenses sont nécessaires. En parallèle, Amazon tente de se diversifier. En 2007, sa liseuse Kindle est un succès. Malheureusement, Jeff Bezos n’a pas renouvelé l’exploit avec son téléphone maison. Le Fire Phone a été un fiasco retentissant malgré les centaines de millions de dollars dépensés dans le projet.  Autre secteur dans lequel se lance Amazon et où personne ne l’attendait, l’alimentaire ! Jeff Bezos teste déjà Amazon Fresh à Seattle, San Francisco et Los Angeles. Amazon a aussi décidé de se lancer dans la vidéo en ligne et la production de contenu.

A ce jour, Amazon n’a même pas réussi à faire vaciller le n°1 du secteur, Netflix et ses 50% de part de marché américain. L’ogre persévère et  s’intéresse aussi aux geek, plus particulièrement aux jeux vidéo. Jeff Bezos n’a pas hésité à mettre 970  millions sur la table pour s’approprier Twitch.com, une plateforme qui permet de regarder des joueurs évoluer en pleine partie de Counter-Strike ou League of Legends par exemple. L’objectif à peine dissimulé d’Amazon est de taquiner l’hégémonie de Google dans le domaine de la publicité en ligne. Un véritable défi puisque Google atteint 31% de part de marché quand Amazon est à …0,63%.

Seul secteur vraiment rentable, le stockage de données. Sa branche Amazon Web Services (AWS) existe depuis 2006 et a connu un véritable succès. Initialement lancé pour rentabiliser ses serveurs, AWS détiendrait aujourd’hui 40% de part de marché du Cloud computing, un secteur avec des marges d’environ 30%. De quoi faire patienter les investisseurs ? Pas si sûr car la concurrence se développe et grignote petit à petit les marges.

Décidément, Amazon traverse une mauvaise passe, et nul ne peut prédire ce qu’il sera en 2015. Seule certitude, Jeff Bezos est attendu au tournant par des actionnaires à bout.

Par Audrey Loubens

Une majorité de Français séduits par les voitures autonomes (enquête)

Selon un baromètre du comparateur d’assurances Hyperassur.com, 51% des personnes interrogées pensent que la voiture autonome est « l’avenir de l’automobile avec moins de stress en voiture, une conduite plus économe et plus sûre ».

Les voitures autonomes, se conduisant toutes seules sur tout ou partie d’un trajet, sont une technologie sur laquelle travaillent de nombreux constructeurs. Leur arrivée sur le marché est annoncée pour la fin de la décennie actuelle et leur généralisation d’ici à 2030.

Cette perspective provoque encore des résistances, selon Hyperassur, qui a interrogé 1.336 internautes âgés de 35 à 50 ans, dont deux tiers d’hommes: 28% affirment que les automobiles autonomes signeront « la fin du plaisir de conduite et la standardisation des voitures ». Et 21% pensent que cette technologie constitue « un moyen pour les constructeurs d’augmenter le prix des voitures ».

Toujours dans le domaine de la technologie embarquée, 64% des personnes interrogées affirment que les « voitures connectées » à un réseau représentent « un progrès » et 36% « un danger ».

Les sondés sont plus partagés au sujet de l’installation de « boîtes noires », enregistreurs de données, dans leurs véhicules: pour 45% d’entre eux, cela permettrait « d’améliorer la sécurité des usagers de la route avec un effet dissuasif sur les comportements à risques », mais 38% s’inquiètent d’une nouvelle atteinte aux libertés et d’un accroissement de la surveillance.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les diodes, au maximum de leur finesse

Alors que la course à la miniaturisation bat plus que jamais son plein, une équipe de chercheurs de l’université de Washington a annoncé la mise au point d’une diode électroluminescente dont l’extrême finesse – pas plus de trois atomes d’épaisseur – serait, à les entendre, totalement indépassable.

L’existence de diodes de cette taille pourrait avoir un intérêt crucial dans la conception des futures générations d’appareils électroniques portables et intégrés, comme aime à le rappeler Xiaodong Xu, professeur de physique, de science des matériaux et d’ingénierie électrique qui a dirigé l’équipe universitaire américaine.

Une découverte au potentiel gigantesque

Dans un article dont il est coauteur et publié dans la revue scientifique Nature Nanotechnology, le professeur Xu note que ces DEL extra fines sont évidemment ultralégères, mais aussi semi-transparentes ainsi que flexibles, qualités loin d’être négligeables lorsqu’il s’agit de les intégrer à un dispositif portable. Au cœur de cette découverte, un matériau : le diséléniure de tungstène – deux atomes de sélénium pour un atome de tungstène, WSe2 – qui n’a pas fini de faire parler de lui.

Au centre d’une autre étude universitaire, ce composé chimique pourrait bien également révolutionner le domaine des cellules solaires, puisque les couches ultra minces et semi-transparentes pourraient recouvrir tous types de surfaces, épousant au plus près les formes sans rien occulter, utilisant cette fois-ci la lumière pour produire de l’électricité.

Autre intérêt de taille : la très faible épaisseur de ces diodes pourrait leur permettre de remplacer les électrons par des signaux optiques dans certains types de puces miniatures, provoquant alors un échauffement moins grand.

Des similitudes avec un illustre aîné, qualifié de « matériau miracle »

Le diséléniure de tungstène est séparé en fines couches grâce à une méthode devenue mondialement célèbre puisqu’elle a permis l’élaboration d’un autre matériau au très fort potentiel, matériau au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène.

La technique, dite du « rouleau de scotch », consiste purement et simplement en un épluchage méticuleux de couches de diséléniure de tungstène à l’aide de la fameuse bande adhésive. Cette technique, qui semble pour le moins cavalière et peu rigoureuse scientifiquement parlant, a néanmoins fait ses preuves à maintes reprises.

Le graphène tient toujours le haut du pavé, mais semble peu pratique pour créer du photovoltaïque en raison de ces états électroniques, comme le rappelle Thomas Muller, de l’université de Technologies de Vienne, commentant le volet photovoltaïque de la découverte.

Qualifié – à tort ou à raison – de « matériau miracle », rappelons que le graphène est un cristal bidimensionnel de carbone, composé d’une simple couche sans défaut, et dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier (de type rayons de nid d’abeille) et dont l’utilisation à l’échelle nano, au même titre que l’utilisation de ces fines couches de diséléniure de tungstène, pourrait changer la donne.

Par Rahman Moonzura

Contrôler le spin grâce aux isolants topologiques

Les propriétés des isolants topologiques, isolants à l’intérieur et conducteurs en surface,  sont scrutées de près pour leur capacité à conduire à la surface des électrons au spin polarisé. En étudiant du Bi2Se3 , Hugo Dil et son équipe ont découvert que l’état de spin à la surface de cet isolant topologique ne variait pas avec son épaisseur. Autrement dit, le passage d’un élément à deux dimensions à celui d’un composant en 3 dimensions n’affecte pas le spin. Plus précisément, la polarisation du spin n’est pas une propriété qui apparait brutalement lorsque l’on passe de la 2D à la 3D, mais se développe de façon progressive à partir d’un état préexistant.

 Hugo Dil, Professeur à l’Ecole Polytechnique de Lausanne, a utilisé le rayonnement Cynchrotron pour analyser ces échantillons. Les chercheurs suisses ont fait croître du Bi2Se3 sur un substrat de InP(111) un matériau connu pour être de bonne qualité. La couche naturelle d’oxyde de l’InP(111) a été retirée par trempage dans de l’acide hydrofluorique. Tout le long de la croissance, la température du substrat était de 300°C, et ce pour tous les échantillons. Ceux-ci ont ensuite été refroidis in situ à environ 15°C pour être finalement recouvert avec du sélénium amorphe. Ce dernier ayant pour but de protéger les échantillons lors du transport. Plusieurs ont été préparés, avec des épaisseurs de Bi2Se3 allant de 2 à 6 fois celle de couches quintuples.  Direction le SLS, Source de lumière synchrotron suisse, pour des mesures par spectroscopie angulaire d’électrons photo-émis. « Il nous a fallu environ deux jours de mesures par échantillons » indique Hugo Dil, précisant que « Cette technique de mesure, la seule permettant une mesure directe,  est lente mais efficace ». Une patience récompensée puisque les observations des scientifiques ont fait l’objet d’une publication dans la revue Physical Review Letters. Ils ont ainsi pu mettre en évidence que le contrôle de l’état de spin était liée à l’interface entre la couche d’isolant et le substrat. Ceci laisse entrevoir que le choix du matériau comme substrat est un paramètre de contrôle. Au contraire, l’épaisseur de la couche d’isolant ne modifie pas l’état de surface.

A ce jour, il n’est pas possible de maîtriser la polarisation du spin, mais ces mesures lèvent le voile sur des comportements prometteurs, avec en ligne de mire la fabrication de composants spintroniques pour lesquels l’état de spin peut être anticipé.

Par Audrey Loubens, journaliste scientifique

Hydrocarbures liquides: les Etats-Unis s’installent comme 1er producteur mondial

Ce passage de relais au sommet de la hiérarchie des producteurs d’hydrocarbures liquides est en réalité effectif depuis avril dernier, mois au cours duquel les Etats-Unis ont produit 11,58 millions de barils par jour (mbj) contre 11,31 mbj pour l’Arabie Saoudite, selon les dernières données révisées de l’AIE que l’AFP s’est procurées.

En mai, juin, juillet, août et septembre, les Etats-Unis ont produit respectivement 11,57 mbj, 11,85 mbj, 11,71 mbj, 11,78 mbj et 11,97 mbj.

L’Arabie Saoudite a elle produit ces mêmes mois, 11,44 mbj, 11,499 mbj, 11,75 mbj, 11,44 mbj et 11,47 mbj.

Ainsi, sauf en juillet, les Etats-Unis ont surpassé l’Arabie Saoudite et pour Colette Lewiner, cette situation « est amenée à durer ».

« Les gisements (américains) commencent à peine à être exploités et il vont produire davantage. Nous ne sommes pas dans une bulle contrairement à ce qui peut être dit », a-t-elle affirmé à l’AFP.

Cette hausse spectaculaire de la production américaine est due au boom récent du pétrole non conventionnel.

Elle a aussi bénéficié des prix élevés du pétrole qui ont permis une exploitation rentable de ces gisements. Ce qui fait dire à certains experts qu’une baisse des prix du brut pourrait annihiler ce phénomène.

« Si les prix baissent encore de 10 ou de 15 dollars », l’exploitation des bassins de schiste « ne sera plus rentable et la croissance de notre production prendra fin », affirmait ainsi il y a quelques jours à l’AFP James Williams, expert de WTRG Economics.

Une hypothèse à laquelle ne croit pas Colette Lewiner, experte mondiale du secteur de l’énergie chez Capgemini.

« Certains gisements sur lesquels les investissements les plus lourds ont déjà été faits peuvent résister à des prix de 65 à 70 dollars », a-t-elle jugé.

Si les Etats-Unis sont devenus les premiers producteurs d’hydrocarbures liquides, ils restent encore loin derrière la Russie et l’Arabie Saoudite en terme de production de brut seulement. Ces deux pays ont respectivement produit 10,6 mbj et 9,7 mbj en septembre contre 8,8 mbj pour les Etats-Unis, selon diverses sources officielles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

« Les méthodes Agiles impliquent un dialogue constant entre l’équipe impliquée sur les aspects techniques du projet »

Entretien avec Ian Stokes, expert du réseau Techniques de l’Ingénieur en management et méthode agiles

Techniques de l’Ingénieur : Ian Stokes, qu’entend-t-on par méthodes Agiles ?

ianstokesIan Stokes : Il s’agit de méthodes de management de projets axées sur la synergie entre les équipes, les différents acteurs impliqués. Mais ce terme recouvre différentes méthodes, comme par exemple la méthode SCRUM, qui se distingue par le rôle du scrum master, correspondant au chef de projet, central au sein de l’équipe développant le projet, et le product owner, qui lui, va représenter les attentes du client, ou de l’utilisateur. En fonction de l’activité de l’entreprise, de la structure de l’équipe et des attentes du public auquel elle s’adresse, la méthode s’adapte, évolue, par exemple vers la méthode LEAN.

Pensées à l’origine pour l’informatique, les méthodes Agiles impliquent un dialogue constant entre l’équipe impliquée sur les aspects techniques du projet, et l’équipe représentant les attentes du marché visé, des utilisateurs. Et ce tant sur la valeur du produit que sur son coût, ses orientations stratégiques, etc. Elles s’appliquent donc à tous les métiers concernés par du développement de produit. Le scrum master doit ainsi avoir une vue large, être capable donc d’intégrer de nouvelles méthodes, de les faire évoluer. Ce qui n’est pas toujours une réussite.

Techniques de l’Ingénieur : Y a-t-il un réel besoin de ce type de méthodes chez les ingénieurs ?

Ian Stokes : Oui, mais peu sont conscients qu’ils pourraient ainsi atteindre une bien meilleure synergie entre ingénieurs, concepteurs et responsables commerciaux, et ainsi insuffler plus d’intelligence dans leurs projets. Il faut d’abord qu’ils prennent conscience de ces enjeux, pour ensuite adapter ces méthodes à leurs process.

Techniques de l’Ingénieur : Vous animez chez Techniques de l’Ingénieur une formation relative aux méthodes agiles, spécifiquement la méthode SCRUM décrite plus haut. Qu’est-ce qui la caractérise ?

r_unionIan Stokes : Son contenu est adapté aux profils des participants, en partant d’une trame de base bien évidemment, pour bien comprendre les différents rôles au sein de cette méthode. Et si l’expérience des participants le justifie, nous poussons vers des aspects plus stratégiques.

Le tout à travers notamment des cas concrets, en suivant une pédagogie très active, très visuelle, à l’instar des méthodes Agiles elles-mêmes.

Techniques de l’Ingénieur : Vous participez également à un cycle de formation concernant le management de projet technique. Pouvez-vous nous en dire un mot ?

Ian Stokes : Il porte plus sur les bases du management de projet, de façon plus générale, mais non « classique » pour autant, car en constante évolution. Cela s’adresse spécifiquement aux ingénieurs concernés par la production, logistique, les technico-commerciaux. Mais toujours dans un esprit de pédagogie active : c’est dans l’interactivité que l’on intéresse les stagiaires, et ainsi qu’ils s’approprient ces nouvelles méthodes.

Ian Stokes est spécialisé dans le management de projet depuis les années 1980. Consultant indépendant et formateur professionnel, il a exercé des fonctions de responsable qualité en industrie dans des domaines tels le ferroviaire, l’automobile, l’électronique, ou encore la pétrochimie. Commercial à l’origine, il s’est ainsi spécialisé dans le management du changement, le développement de produits et l’innovation, notamment dans le développement de nouvelles méthodes pédagogiques et de management, telles les méthodes Agiles.

Revue du web #68 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

  • Timelapse de l’assemblage d’un Boeing 787-9, le fameux « Dreamliner » ;
  • Démolir un immeuble en couleurs (et en s’amusant) ;
  • Une goutte d’alcool « intelligente » se fraye un chemin dans un labyrinthe ;
  • La magie des réactions chimiques, en 4K ;
  • Le gadget (inutile?) de la semaine : la robe iPhone 6 ;
  • Bonus : trouver une parade au « BendGate » ;
  • Rab de bonus : Drone vs. Wild, la victoire de la nature.

Timelapse de l’assemblage d’un Boeing 787-9, le fameux « Dreamliner »

Pour débuter notre soixante-huitième Revue du Web, rien de tel qu’un petit timelapse pour se mettre d’applomb. Pour célébrer les trente ans du premier vol commercial de Virgin Atlantic (Londres Gatwick – New-York Newark, le 22 juin 1984) la compagnie aérienne a décidé de baptiser son premier Boeing 787-9 « Birthday Girl ». Ce 787-9, le fameux « Dreamliner », qui est également le tout premier en Europe, fera la liaison entre Londres Heathrow et Boston, avec un vol inaugural prévu le 28 octobre. Cette « Birthday Girl » traversera l’Atlantique six fois par semaine, en consommant selon la compagnie de Richard Branson de 20 à 30 % de carburant en moins par passager.

L’assemblage du long-courrier se déroule sous nos yeux, un chef d’œuvre de minutie quand on sait qu’il aura fallu la bagatelle de neuf jours pour seulement… le peindre. Ce timelapse vient en écho à un autre timelapse, celui de l’assemblage du Wendelstein 7-X, un réacteur à fusion nucléaire dont nous vous parlions ici.

Démolir un immeuble en couleurs (et en s’amusant)

Démolir un immeuble requiert beaucoup plus de savoir-faire que ce qu’il pourrait paraître… Une équipe de dynamiteurs s’est occupée avec style d’un hôtel de 11 étages datant des années 20, à Albany, capitale de l’état de New-York, afin de laisser place nette pour un futur centre de conférence. La démolition s’est faite avec style, sous les acclamations d’une foule de curieux placés à bonne distance.

La juste quantité d’explosifs et la disposition de ceux-ci sont des éléments primordiaux pour une démolition en bonne et due forme. On se souvient que l’année dernière, en Australie, l’équipe chargée de la démolition d’un silo de 4000 tonnes s’y était prise comme un manche, et avait dû y aller à l’excavatrice géante pour terminer le travail et faire définitivement tomber cette drôle de tour de Pise.

Une goutte d’alcool intelligente se fraye un chemin dans un labyrinthe :

Susciter l’intérêt des internautes avec une vidéo de chimie pourrait sembler être mission impossible. Et pourtant, des chercheurs tchèques y sont parvenus, avec une petite polémique à la clé, en montrant une goutte d’un alcool gras insoluble dans l’eau (le décan-1-ol, de formule semi développée CH3(CH2)8CH2OH) se frayer un chemin dans un labyrinthe immergé dans de l’eau savonneuse, jusqu’à une goutte de sel. Pour en savoir plus sur cette vidéo sans trucage, vous pouvez faire un tour sur l’article de notre journaliste.

La magie des réactions chimiques, en 4K

Puisqu’on vous dit que les vidéos de chimie ont le vent en poupe… Sobrement baptisée « Beautiful Chemical Reactions », cette vidéo pourrait bien faire monter en flèche la cote d’amour de cette discipline scientifique. Pas besoin de posséder la moindre connaissance en chimie, même élémentaire, le premier venu pouvant se pâmer d’admiration devant cette succession de magnifiques tableaux animés. S’enchaînent alors des réactions dont les arborescences peuvent rappeler des flocons de neige, des précipités laiteux et colorés, la croissance de superbes jardins chimiques – ions métalliques à faible dose noyés dans une solution de silicate de sodium et d’eau – offrant entre autres des structures stalagmitiques, de magnifiques cristallisations, et des gouttelettes fluorescentes au groove plutôt incertain.

Les images, tournées conjointement par les équipes de l’université chinoise des Sciences et Technologies ainsi que par la prestigieuse université Tsinghua, ne sont pas seulement renversantes de beauté, mais elles ont également été tournées à l’aide d’une caméra macro UltraHD 4K. Le format 4K est un format d’image numérique, utilisé principalement dans le domaine du cinéma numérique, dont la définition est environ quatre fois supérieure à celle du HD 1080p (elle offre une résolution de 3840 par 2160 pixels, ce qui correspond à un ratio 16/9). Un écran 4K compte près de 2033 % de pixels en plus qu’un écran de télévision standard, et 326 % de pixels en plus qu’une télévision HD.

Le gadget (inutile?) de la semaine : la robe iPhone 6

Rarement le gadget (inutile?) de la semaine n’aura aussi bien porté son nom… Pour conclure notre soixante-huitième Revue du Web, rendons visite au styliste américano-iranien Elie Tahari, qui a eu la bonne idée de rendre hommage au nouveau smartphone d’Apple en dessinant une robe… du meilleur goût. N’ayons pas peur des mots, le styliste – dont la marque éponyme brasserait un chiffre d’affaires annuel de près de 500 millions de dollars – a eu une fulgurance : la robe iPhone 6.

Élaborée en « tissu techno », l’élégante robe noire laisse la part belle au smartphone du géant américain, dont une quinzaine d’exemplaires (cousus directement dans la robe) viennent rythmer la pureté de la silhouette. Présentée lors de la Fashion Week à New York, cette robe devrait pouvoir ravir quelques pionniers, les fashionistas ayant à la fois un sens accru de la mode et un amour inconditionnel des produits Apple. Ou Lady Gaga.

Bonus : trouver une parade au « BendGate »

Restons dans la thématique de l’iPhone 6, pour notre premier bonus de cette Revue du Web. Comme tous les produits estampillés Apple, l’iPhone 6 vient conforter le clivage entre pro et anti-Apple, sans pour autant que l’un ou l’autre des camps ne viennent forcément donner des arguments valables. Le dernier né de la marque à la pomme a pourtant dû faire face à des problèmes sans précédents : le « BendGate » a ainsi vu le jour lorsque de nombreux utilisateurs de ce smartphone se sont plaints, photos à l’appui, de voir leur nouveau joujou se plier un peu trop facilement dans leurs poches de pantalons – trop serrés, les pantalons.

Les apprentis bricoleurs de « Peripatetic Pandas » proposent une solution très personnelle au « BendGate », qui ravira pour sûr tous les possesseurs de l’iPhone 6. Il faudrait vraiment faire preuve de mauvaise volonté pour réussir à plier son smartphone, s’il est pourvu de cette merveilleuse amélioration. On vous laisse juges !

Rab de bonus : Drone vs. Wild, la victoire de la nature

En bonus également cette semaine, voici une petite vidéo tournée dans le parc de Magazine Beach, dans la ville universitaire de Cambridge, près de Boston, par un drone – un quadricoptère, pour être plus précis – dont le vol a été quelque peu perturbé… par une buse à queue rousse, un petit rapace assez commun en Amérique du Nord. Le propriétaire du drone, un certain Christopher Schmidt, assure que le petit oiseau de proie n’aurait pas été blessé par le quadricoptère. Le drone serait également sorti indemne de la confrontation. Indemne, mais définitivement vaincu.

Par Moonzur Rahman

Impression 3D par stéréo lithographie de 3D Systems [Publi reportage]

Les tout premiers adeptes, comme les écuries automobiles, l’ont bien compris.

Au départ, ce n’était que  pour la production de pièces prototypes pour les essais en soufflerie (grâce à une impression 3D par stéréo lithographie (SLA) de 3D Systems).

Avec l’augmentation de la productivité des technologies SLA, les équipes redéfinissent désormais les pièces entre les courses, en les imprimant au cours de la nuit pour les avoir le lendemain lors des essais en soufflerie – tout cela pour que les voitures puissent bénéficier des nouveaux concepts dès la course suivante.

Les grands équipementiers de l’automobile et de l’aérospatial ont fortement intégré l’impression 3D dans leurs procédés afin de réduire les délais de développement,  d’alléger le poids des véhicules, des avions, entre autres.

D’autant que l’impression 3D plaît à ceux qui sont audacieux au point d’envisager une personnalisation de masse des véhicules.

Quickparts est un service sur demande de prototypage rapide et de fabrication rapide proposé par 3D Systems.

Sa gamme de technologies d’impression 3D crée des pièces en plastique et en métal. Chaque technologie comporte des matériaux répondant à différents marchés et applications, notamment la création de pièces fonctionnelles en métal et en nylon, des pièces prototypes SLA ou Multijet (  multi-matériaux ou mono-matière ).

Les services Quickparts sont fortement utilisés dans des industries comme l’automobile, l’aérospatial, le secteur médical, le transport, les biens de consommation, le secteur électronique, le secteur de l’énergie et bien plus encore.

Quickparts permet de créer rapidement des pièces prototypes ou de série, souvent en l’espace de 24 heures, sans avoir besoin d’outils. Pendant que les autres attendent leur outillage, vous pouvez  imprimer plusieurs versions de la pièce, chaque fois avec une conception légèrement améliorée.

Si vous souhaitez discuter de votre prochain projet et de vos besoins de prototypage rapide et de fabrication rapide, merci de visiter www.quickparts.com

3D SYSTEMS – ZA les petites Forges  72380 JOUE L’ABBE-FRANCE – Tel:+33 (0)2 43 51 20 30

Suivez en direct le départ de la capsule Dragon sur Nasa TV

La capsule non habitée Dragon de SpaceX a été lancée le 21 septembre et est amarrée à l’ISS depuis le 23 septembre. Après avoir livré près de 2,27 tonnes de vivres et de matériel de recherche, le vaisseau Dragon va repartir vers la Terre ce samedi 25 Octobre. Le détachement, prévu à 15h56 heure de Paris, sera piloté à partir du Centre spatial Johnson de la NASA à Houston. La chaîne Internet NASA TV couvrira en direct ce départ à partir de 15h30.
La capsule Dragon est le seul engin spatial de réapprovisionnement capable de revenir sur Terre intact. Et cette capsule ne reviendra pas sur Terre vide. Elle rapportera pas moins de 1,49 tonnes de cargaison, comprenant du matériel et de nombreux échantillons d’expériences scientifiques. Parmi ces derniers, la capsule transportera les premières salades de l’espace qui pourront être enfin analysées.
La capsule exécutera trois tirs de propulseurs pour s’éloigner de la station à une distance sûre pour le retrait de son orbite à 20h43. La capsule atterira dans l’océan Pacifique vers 21h40. Malheureusement, ni le retrait de son orbite ni l’amerrissage ne seront retransmis sur NASA TV.

Par Matthieu Combe, journaliste scientifique

Retour sur Terre de la navette américaine X-37-B dont la mission est tenue secrète

« X-37 fait du bon travail. Je ne peux pas vous dire en quoi cela consiste, mais il le fait bien ». Voilà ce que déclarait le Général William Shelton, de l’US Air Force au mois de mai à l’occasion d’une conférence portant sur l’espace. Classée top secret depuis 2004, la mission des navettes spatiale X-37 suit son cours. Le X-37 est un prototype de navette spatiale sans équipage engagé depuis 1999 par la NASA mais passé aux mains de la DARPA en 2004 suite à des coupes budgétaires. La même mésaventure économique se reproduit en 2006, contraignant la DARPA à transférer le projet X-37 à la force aérienne des Etats-Unis.

Le premier vol baptisé OTV-1 est lancé en avril 2010 pour une durée de 220 jours. L’engin revient sur Terre en mode automatique, l’atterrissage se déroule sans encombre. L’Armée de l’air, peu bavarde sur l’objectif de cette première mission, a seulement évoqué des tests des technologies et des composants à bord de l’appareil. Toujours dans la plus grande discrétion, un deuxième engin X-37B est lancé en mars 2011. Celui-ci séjournera 469 jours dans l’espace.

Le troisième vol est lancé le 11 décembre 2012. Pour la première fois, une navette est réutilisée puisque l’OTV-3 concerne le même X-37B que celui du vol OTV-1. Construit par Boeing, le X-37B fait 8,9 m de long, une envergure de 4,5 m et fait 2,9m de haut. Le tout pèse 5 000kg. Sa longévité est au cœur de la stratégie des X-37b et est assuré grâce à des batteries lithium-ion alimentées par des panneaux solaires en arséniure de gallium, un semi-conducteur plus performant mais aussi plus coûteux que le silicium.

Parmi les objectifs, militaires ou civils reconnus, l’aspect réutilisable de la navette semble important. Boeing a indiqué dans un communiqué que ses appareils X-37B étaient des appareils tests. Pour tester quoi ? Mystère. Des matériaux, des systèmes, des composants ? Probablement tout cela, dans un objectif de performance mais aussi d’optimisation des coûts.

Un prochain vol X-37B est d’ores et déjà prévu pour 2015. Toutefois, celui-ci pourrait être lancé du centre spatial Kennedy de la NASA.

Découvrez en images l’atterrissage de la navette X-37B ce 17 octobre en Californie :

Par Audrey Loubens, journaliste scientifique

Climat: accord de l’UE pour réduire de 40% ses gaz à effet de serre d’ici 2030

« Accord! Au moins 40% de réduction d’ici 2030. Accord du Conseil européen sur une politique énergétique et de climat la plus ambitieuse au monde », a écrit le président du Conseil européen, Herman Van Rompuy, sur son compte Twitter.

Les 28 chefs d’Etat et de gouvernement se sont aussi entendus sur deux autres objectifs: porter la part des énergies renouvelables à 27% de la consommation, et 27% d’économies d’énergie, a précisé M. Van Rompuy. Le premier est contraignant, pas le second.

Les Européens, poussés notamment par l’Espagne et le Portugal, ont aussi décidé d’augmenter les « interconnexions » électriques au sein de l’Union, a précisé M. Van Rompuy.

« C’est une bonne nouvelle pour le climat, les citoyens, la santé et les négociation internationales sur le climat à Paris en 2015 », a-t-il dit, assurant que cela créerait « des emplois durables » et de la « compétitivité ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Google mise sur la réalité augmentée et l’intelligence artificielle

Le géant internet a ainsi participé cette semaine à une levée de fonds de 542 millions de dollars réalisé par Magic Leap, une startup de Floride qui espère grâce à cet argent frais accélérer le développement d’un produit commercialisable.

Magic Leap indique sur son site internet que Google était à la tête du groupe d’investisseurs qui a mis l’argent sur la table. Il comprenait également le fabricant de puces Qualcomm, le groupe de médias Legendary Entertainment (dans lequel vient d’investir le groupe japonais SoftBank) et plusieurs fonds dont KKR et le spécialiste du secteur technologique Andreessen Horowitz ont également participé à la levée de fonds.

Sundar Pichai, le vice-président de Google chargé notamment du système d’exploitation mobile Android, va en outre rejoindre le conseil d’administration de Magic Leap.

D’après le New York Times, l’injection de capital valorise à quelque 2 milliards de dollars cette startup, qui ne dispose actuellement d’aucun produit commercialisable et ne génère pas le moindre chiffre d’affaires.

Magic Leap dit toutefois vouloir utiliser les fonds « pour accélérer le développement de produits, sortir des kits de développement de logiciels, étendre son écosystème de contenus et commercialiser son propre accessoire portable mobile ».

– Révolutionner la communication –

La réalité augmentée consiste à introduire des images de synthèse dans le champ de vision de l’utilisateur. Sur son site, préfixé « il est temps de ramener la magie dans le monde », Magic Leap montre des images d’un éléphant niché dans la paume d’une main ou une baleine planant au dessus d’une plage.

Son patron-fondateur, Rony Abovitz, affiche son ambition de « transcender » la perception actuelle de l’informatique mobile et de la réalité virtuelle, afin de « révolutionner la manière dont les gens communiquent, font des achats, apprennent, partagent et jouent ».

Un autre grand nom de la high-tech américaine, le réseau social Facebook, a déjà investi dans ce domaine en rachetant cette année pour 2 milliards de dollar le spécialiste de la réalité virtuelle Oculus, qui a conçu un casque utilisable entre autres dans le domaine des jeux vidéo. Le patron de Facebook a affiché l’ambition d’en faire une plateforme de communication plus large, pour assister à des cours virtuels, consulter un médecin à distance ou faire des achats dans un magasin virtuel par exemple.

Google a pour sa part conçu un protype de lunettes connectées, les Google Glass, mais celles-ci servent surtout jusqu’ici à des tâches inspirées des smartphones, comme la réception ou l’envoi de message, la prise de photos…

Elles entrent dans le cadre de la diversification du groupe internet au-delà de ses activités traditionnelles de recherche et de publicité en ligne: il a notamment investi dans la robotique ou les drones par exemple.

Google s’était aussi lancé plus tôt cette année dans un autre domaine futuriste, celui de l’intelligence artificielle, en rachetant une startup londonienne spécialisée, DeepMind.

Cette dernière va accélérer ses efforts avec un partenariat annoncé jeudi avec des chercheurs de l’université de Oxford.

Les modalités financières du partenariat ne sont pas dévoilées, mais le co-fondateur de DeepMind, Demis Hassabis, évoque dans un message sur l’un des blogs officiels du groupe internet « une contribution importante ».

La recherche sera axée sur les manières de permettre aux ordinateurs de mieux comprendre ce qu’ils entendent et voient, pour potentiellement faire fonctionner des services comme des assistants virtuels ou des outils de recherche en ligne.

fga-soe/jld/rap

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

288102/TI382/72-WQ-VBZ3801