En Belgique, pénurie d’ingénieurs dans la chimie, la construction et les technologies

La Belgique francophone manque d’ingénieurs, avertissent jeudi trois fédérations d’entreprises, regroupant les secteurs de l’industrie technologique (Agoria Wallonie), de la construction (Confédération Construction Wallonne) et de l’industrie chimique et des sciences de la vie (essenscia Wallonie-essenscia Bruxelles). Les trois organisations estiment que 500 diplômés de plus sont nécessaires. Elles avancent différentes mesures pour lutter contre une telle pénurie.

La pénurie d’ingénieurs est réelle en Belgique et risque même de s’aggraver : ces profils sont en effet de plus en plus recherchés sur le marché du travail alors que le nombre de diplômés n’a fait que diminuer depuis 20 ans (ingénieurs civils, industriels et bio-ingénieurs). « Avec 1.277 diplômés en 2015, on estime qu’il faudrait 500 diplômés de plus pour satisfaire la demande annuelle, soit revenir au niveau de 1995 », déclarent les responsables régionaux des fédérations, Thierry Castagne (Agoria), Francis Carnoy (CCW) et Bernard Broze (essenscia). Les défis en matière d’environnement, d’énergie, de communication, de santé, de mobilité, de construction… seront résolus par les innovations scientifiques et techniques, plaident-ils.

Les organisations proposent plusieurs mesures pour combler ce manque. Celles-ci reposent sur l’information à donner aux jeunes à propos des nombreux débouchés des études d’ingénieurs et sur la formation elle-même qui doit, entre autres, renforcer ses liens avec le monde économique et la réalité du milieu professionnel. Sept mesures sont détaillées dans une brochure intitulée « Ingénieur, l’atout majeur », disponible en ligne, qui sera distribuée à tous les acteurs concernés par la formation des ingénieurs. Les trois fédérations affirment représenter près de 33.000 entreprises et plus de 175.000 emplois en Wallonie et à Bruxelles.

Source : diplomatie.gouv

Hinkley point : Un coup de billard à trois bandes

Les sourires étaient de mise ce 21 octobre à Londres. En présence du Président chinois Xi Jinping et du Premier Ministre David Cameron, EDF et la China General Nuclear Power Corporation (CGN) ont signé un Accord Stratégique d’Investissement pour la construction et l’exploitation de la centrale nucléaire à Hinkley Point C dans le Somerset (sud-ouest). Il s’agit d’une étape clé dans le renouveau du nucléaire outre-Manche, mais pas seulement. Hinkley Point est un projet déterminant pour les filières nucléaires chinoise et française. La première espère enfin poser un pied en Europe tandis que la deuxième cherche un second souffle pour l’EPR.

Renouveau nucléaire

Cet accord revêt une importance capitale pour le gouvernement britannique qui compte beaucoup sur le nucléaire pour lui fournir de l’énergie et réduire son empreinte carbone. En effet, le parc électrique de Sa Majesté est vieillissant (20% des capacités devraient fermer d’ici 5 ans) et très émetteur de CO2 (les centrales thermiques représentent 70% de la production d’électricité). C’est pourquoi Albion a décidé, il y a quelques années, de mettre en place un cadre réglementaire favorable pour la construction de nouvelles centrales nucléaires (16 réacteurs sont toujours en activité). L’atome est perçu comme un des moyens efficaces pour réduire les émissions de gaz à effet de serre tout en assurant une production électrique fiable. « Je suis heureux d’annoncer la signature de cet accord historique (…) qui apportera une énergie sûre et abordable à quelque six millions de foyers, créera 25 000 emplois et nous permettra de travailler ensemble vers un futur bas-carbone », s’est félicité David Cameron.

Londres peut également se féliciter de ne pas avoir a déboursé un shilling pour la construction de ces nouvelles centrales. « C’est un excellent deal pour l’Angleterre et les consommateurs. Pour la première fois, une centrale nucléaire va être construite dans ce pays sans l’argent des contribuables », expliquait Edward Davey, secrétaire d’Etat à l’Energie et au Changement climatique. En contrepartie, ces derniers devront payer £92, 50 par MWh (en valeur de 2012). Un montant qui sera réduit à £89,50/MWh si le consortium valide la décision d’investissement sur Sizewell C (voir plus bas). Ce strike price élevé sera fixe pour les consommateurs, ce qui signifie que si le prix de marché venait à être supérieur à ce niveau, ils n’auront pas à payer plus. S’il se situe en-dessous du prix d’exercice, l’exploitant recevra un paiement complémentaire. Ce contrat, d’une durée de 35 ans, est protégé d’éventuels changement législatifs et réglementaires qui pourraient impacter le taux de retour équitable du projet évalué par EDF à 10%. Le prix d’exercice sera par ailleurs indexé sur l’indice de référence britannique de la consommation. Autre détail d’importance, le démantèlement des installations sera à la charge de l’exploitant.

EPR made in UK

Selon l’Accord Stratégique d’Investissement signé la semaine dernière, EDF et la China General Nuclear Power Corporation (CGN) vont s’associer pour construire puis exploiter la future centrale de Hinkley Point C. La participation de la compagnie dirigée par Jean-Bernard Lévy sera de 65,5% et celle de CGN de 33,5%. Une répartition que le français aurait voulu plus équilibrée. C’est pourquoi le groupe a annoncé : « Sans réduire cette participation initiale en dessous de 50%, EDF envisage en temps voulu d’impliquer d’autres investisseurs dans le projet ». Le consortium franco-chinois a par ailleurs confirmé le nom de ses fournisseurs.  L’ingénierie civile sera réalisée par Bouygues TP/ Laing O’Rourke, les travaux maritimes par Costain, les turbines et la maintenance par Alstom, enfin Areva NP (donc bientôt EDF) se chargera de la chaudière et des systèmes de contrôle-commande. Hinkley Point représente une nouvelle chance pour la filière nucléaire française de promouvoir son dernier né : le European Pressurized reactor (EPR). Seuls quatre réacteurs de type EPR sont aujourd’hui en cours de construction : un à Flamanville (Manche), un à Olkiluoto (Finlande), et deux à Taïshan (Chine). Les deux premiers chantiers français et finlandais accusent d’importants retards et surcoûts qui ont quelque peu entaché l’image de marque de la filière française, en pleine restructuration suite à la faillite d’Areva. Seuls ceux de Taïshan, que EDF construit déjà avec CGN, semblent tenir coûts et délais. Pour EDF, l’objectif est de montrer que l’EPR est sûr mais aussi compétitif.

General Nuclear International

Pour la filière nucléaire chinoise, le contrat anglais doit être le début d’une grande aventure. Avec Hinkley Point C, la Chine lance sa nouvelle compagnie, la General Nuclear International (GNI), qui joue le rôle de bras armé de la filière nucléaire chinoise à l’exportation. Car le contrat Hinkley Point pose les bases pour la construction non pas d’un, mais de plusieurs réacteurs au Royaume-Uni. EDF et CGN ont ainsi convenu des termes principaux d’un plus large partenariat visant au co-développement de nouvelles centrales nucléaires à Sizewell dans le Suffolk (est) et à Bradwell dans l’Essex (près de Londres). Si dans la première région, le projet prévoit que le groupe français et son partenaire chinois construisent de deux autres EPR, la deuxième devrait abriter quant à elles des réacteurs au design chinois. En effet, pour Bradwell, le consortium sera mené par CGN avec 66,5 %, contre 33,5 % pour EDF. Mais le rôle du français sera déterminant pour aider la compagnie chinoise à faire certifier son réacteur de grande puissance (HPR1000). Ces termes doivent être finalisés avant la décision finale d’investissement sur Hinkley Point C.

Win-Win-Win ?

Présenté comme un accord gagnant pour les trois parties, la stratégie d’EDF n’en reste pas moins très risquée. Le groupe supporte en grande partie les risques liés à un chantier de cette ampleur et ce, en refusant la garantie proposée par le gouvernement britannique, préférant faire appel aux marchés financiers pour financer le projet. Mais surtout, en accompagnant la certification du HPR1000, EDF ouvre la voie grande à ce qui sera son principal concurrent sur le marché mondial. Un réacteur qui aura intégré les retours d’expérience de l’EPR, les surcoûts en moins…

Par Romain Chicheportiche

Big Data : bienvenue dans l’ère de la prédiction

Ce n’est plus un secret pour personne : les données permettent de prédire nos comportements. Réellement.

Les services de renseignement et les forces de police développent des systèmes permettant de détecter les comportements suspects sur Internet, ou de brasser une grande quantité de données, afin de prédire (ou presque) les crimes. C’est par exemple le cas de PredPol, utilisé par la police américaine.

Prédire le crime et détecter les suspects

Basé sur des algorithmes, ce logiciel permet de prédire les lieux où surviendront des crimes, en temps réel. Et les résultats sont là : en 2014, en moins d’un an, la criminalité de la ville de Santa Cruz avait déjà baissé de 27%.

Développé par un mathématicien, un criminologue et un anthropologue américain, PredPol est aussi utilisé en Europe, par la police du Kent, en Grande-Bretagne, qui le teste depuis un an. Se présentant sous la forme d’une carte, actualisée en permanence, PredPol existe aussi en version « mobile », pour smartphone ou tablette, et permet aux policiers de se rendre sur les lieux d’un crime… avant qu’il ne soit commis.

PredPol est inspiré des programmes de prévention des séismes. Il utilise des algorithmes, mais aussi une base de données qui recense toutes les infractions passées dans un lieu donné. PredPol a déjà conquis plusieurs villes américaines : Los Angeles, Memphis (Tennessee), Charleston (Caroline du Sud) et New York.

Autre exemple d’analyse prédictive grâce aux données : Indect. Impossible de savoir ce que les scientifiques de l’Union européenne ont fait des recherches effectuées dans le cadre de ce projet, entre 2009 et 2013, mais il y a fort à parier que l’on retrouve quelques uns de ses algorithmes dans le système utilisé par les services de renseignement, une fois la loi de surveillance définitivement actée.

Grâce à une compilation de comportements suspects et d’algorithmes, les caméras de surveillance deviennent “intelligentes” et permettent de détecter un comportement “anormal”. Sur Internet, des outils de reconnaissance optique de caractères, de reconnaissance faciale et de reconnaissance audio permettent de détecter des suspects virtuels.

Les RH prédictives

Mais au delà de cette utilisation par les forces de l’ordre, le big data peut aussi permettre de prédire nos comportements dans un tout autre domaine, celui de l’entreprise.

Comme le note Jean-Baptiste Audrerie, spécialiste du marketing canadien, sur son blog, l’analyse d’une masse gigantesque de données permettra à terme aux “DRH” (directeurs des ressources humaines) d’en savoir beaucoup sur les candidats à un poste, sans même consulter de CV ou sans avoir besoin de les rencontrer.

Il existe déjà des tests, comme le célèbre questionnaire de personnalité PAPI, qui consiste à vous faire répondre à une longue série de questions, qui croisées, créent une sorte d’organigramme reflétant votre comportement en entreprise.

Mais le big data et le machine learning (en français, “apprentissage automatique”, un champ de l’intelligence artificielle) permettent d’aller plus loin. Ainsi, le service Watson Developer Cloud BlueMix d’IBM permet d’analyser votre personnalité, et d’en dresser là aussi une carte, mais d’une façon bien plus fine que PAPI.

Comme le note Jean-Baptiste Audrerie, en Chine, L’Oréal recrute déjà de jeunes diplômés grâce à la reconnaissance du langage : “le géant des cosmétiques a développé une technologie mobile (application sur smartphone) qui permet d’enregistrer et d’analyser les réponses verbales de candidats à trois questions”.

Ainsi, cette application développée par l’entreprise Seedlink Tech, permet de “prédire sur la base d’un modèle scientifique la corrélation du langage avec les aptitudes de ventes. La pré-sélection indique quel candidat a les meilleurs aptitudes et le meilleur pronostic de performance dans l’emploi”, explique Jean-Baptiste Audrerie.

En outre, les algorithmes peuvent même permettre de prédire le départ d’un salarié. Ainsi, comme l’explique le Wall Street Journal, WallMart et Crédit Suisse utilisent de gros paquets de données pour prédire quel employé est susceptible de quitter l’entreprise, en fonction de ses performances, de son lieu de vie, de ses traits de personnalité, ou encore de ses interactions sociales. Objectif : détecter les “talents” qui risquent de partir, afin de les garder au moyen de primes et d’augmentations de salaires. Bref, l’avenir semble définitivement radieux.

Par Fabien Soyez

Cultiver des fraises qui ont du goût dans des containers

Guillaume et Gonzague arrivent sur Paris pour accomplir leurs études et goûtent aux fruits et légumes de la ville… Et sont déconcertés. Fils d’agriculteurs, ils ont toujours pu manger des produits naturels. Là, ils ne retrouvent pas les saveurs qu’ils ont connues. Partant de ce constat, les deux compères se demandent comment proposer aux citadins des fruits et légumes avec du goût ?

La solution : rapprocher les lieux de production du consommateur ! Dans le cas de la fraise, l’argument est que ce fruit n’est jamais aussi bon que lorsqu’il est mangé sitôt cueilli. Or, à l’heure actuelle, il provient surtout d’Espagne où il a été récolté encore blanc et parcours entre 1 500 et 2 000 kilomètres.

Ils ont donc décidé de produire localement en reconvertissant un container long de 12 mètres en serre agricole bio. Ce qui réduit considérablement le temps de transport et la pollution qui en découle.

À l’intérieur du container, l’espace est confiné mais les fraises ne manquent de rien… Si ce n’est, peut-être, d’un peu de soleil. Tout est contrôlé pour qu’elles poussent dans des conditions optimales. De la température aux nutriments, de l’hydratation à la luminosité (éclairage à LED), au taux d’humidité… Tout est réfléchi et dispensé dans de justes proportions. L’air est filtré pour préserver les fraises de la pollution. La pollinisation elle-même a été prévue. Elle est assurée par des bourdons, logeant dans une caisse.

Bien sûr, la culture se fait sans ajout de pesticides ou d’autres produits. Mieux encore, elle nécessite 90% moins d’eau qu’une culture classique. Le résultat serait satisfaisant. D’après les fondateurs d’Agricool, les fraises issues des containers Agricool ont conservé toutes leurs vitamines, et tout aussi important, elles sont bonnes. Niveau efficacité, ce n’est pas mal du tout. D’un container, 7 tonnes de fraises pourraient sortir chaque année.

Pour le moment, Guillaume et Gonzague se consacrent à la culture des fraises pour tester leurs containers. Par la suite, il n’est pas incertain qu’ils s’essayent à d’autres produits. Mais comme l’enjeu est de faciliter l’accès aux produits frais et locaux en zones urbaines, il y a des chances pour qu’Agricool commercialise un jour les containers afin que d’autres producteurs puissent à leur tour produire et alimenter les villes en fruits et légumes sains et savoureux.

Maintenant que les technologies rendent possible la culture en milieu urbain, nous allons peut-être assister à l’ultime mutation de l’agriculture.

Par Sébastien Tribot

Quand la route devient créatrice d’énergie

Le revêtement en question se nomme « Wattway » et fait figure d’avancée technologique remarquable dans le paysage des énergies propres. Il est développé par l’entreprise française Colas, filiale de Bouygues, spécialisée dans la construction et l’entretien d’infrastructures de transport, d’aménagements urbains et de loisirs en collaboration avec l’institut national de l’énergie solaire (INES).

Des cellules photovoltaïques de 15 centimètres de côté dans un enrobage « multicouche fait de résines et de polymères » composent le matériau. Sa transparence – « l’énergie solaire est captée à travers une feuille de silicium polycristallin » – permet aux cellules d’être exposées à la lumière, et ainsi de produire de l’électricité. Cette dernière est ensuite conduite par un réseau de connexions souterraines jusqu’à des onduleurs ERDF avant d’être redistribuée.

En outre, une dalle « Wattway » dispose de caractéristiques similaires à un revêtement routier classique; d’un point de vue tenue de route, usure au temps qui passe ainsi qu’à la météo, résistance au poids des véhicules… C’est d’ailleurs le tour de force de Colas quand on sait que les panneaux photovoltaïques ne sont pas réputés pour être très solides. L’entreprise a déposé deux brevets pour protéger cette technologie.

Le matériau mis au point par Colas présente un autre avantage indéniable : il n’est pas nécessaire de refaire les infrastructures, comme l’assure le PDG Hervé Le Bouc. Il suffit de coller les dalles aux routes existantes.

Dans un premier temps, ce sont les éclairages des abribus, les feux rouges situés en ville qui seront alimentés grâce aux dalles Wattway. Mais par la suite, elles devraient trouver d’autres applications et cibler les zones urbaines où la demande en électricité est en croissance. D’autant que leur potentiel n’est pas des moindres. D’après l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME), un kilomètre de route permettrait d’alimenter une ville de 5 000 habitants. Et selon Hervé Le Bouc, « si on recouvrait un quart des routes, on assurerait l’indépendance énergétique de la France ». L’intérêt est de taille donc !

C’est une affaire qui semble bien partie. La visite du président de la République François Hollande auprès de l’un des trois démonstrateurs mis en place (Grenoble, Chambéry et Magny-les-Hameaux) le 20 août dernier, aurait piqué la curiosité de nombreuses collectivités locales. La phase industrielle est en cours et la commercialisation des dalles Wattway est prévue pour le 1er janvier 2016. Le prix n’a toutefois pas été précisé, si ce n’est qu’il ne devrait pas dépasser celui d’une ferme solaire, afin de rester compétitif.

Par Sébastien Tribot

Après un report polémique, l’Ademe publie son étude sur une électricité 100% verte en France

L’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) a finalement dévoilé jeudi son scenario d’une France avec une électricité 100% issue des énergies renouvelables, sept mois après le report de la publication d’une version provisoire, malgré tout dévoilée dans la presse.

Le report de la publication initialement prévue début 2015, soit en plein débat parlementaire de la loi sur la transition énergétique, avait suscité la polémique.

L’un des points de frictions pendant les débats a en effet porté sur la trajectoire de réduction de la part du nucléaire (75% aujourd’hui) dans le mix-électrique du pays et la montée en puissance des renouvelables (40% du mix-électrique en 2030, selon la loi).

L’étude avait finalement été publiée par le site Mediapart en avril et les écologistes l’avaient mise en avant pour pousser le gouvernement à aller plus loin dans la loi.

L’Ademe s’était défendu de ce report, évoquant « des hypothèses à retravailler ».

Dans la présentation de sa version finale, le président de l’Ademe Bruno Lechevin insiste très fortement sur le fait que cette étude n’est pas un « scenario politique » mais « une étude scientifique à caractère prospectif et exploratoire ».

Ce scenario de mix-électrique 100% renouvelable en France en 2050 fait qu' »une hypothèse jusqu’ici impensable pour la majorité des acteurs en France devienne une hypothèse techniquement possible », estime-t-il toutefois.

L’étude présente donc 14 variantes de mix-électriques avec une part des énergies renouvelables qui oscille entre 40%, 80%, 95% et 100% en fonction de critères d’appropriation sociétale, de coûts des énergies, d’accès au financement ou encore de maîtrise de la demande.

Dans son cas de référence à 100%, l’étude répartit la consommation d’énergie entre 63% d’éolien, 17% de solaire, 13% d’hydraulique et 7% de géothermie et thermique renouvelable, comme dans sa version provisoire révélée en avril.

Dans ce scenario, le mégawattheure consommé coûte 119 euros, contre 117 euros pour celui avec 40% d’énergies renouvelables, associé à 55% de nucléaire et 5% d’énergies fossiles.

L’étude conclut que pour atteindre un maximum d’énergies renouvelables, une meilleure maîtrise de la demande d’électricité est une « condition essentielle ».

De même, le coût des technologies « doit continuer à baisser » et « l’acceptabilité est cruciale », prévient l’Ademe.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Vidéo : repérer de nouvelles exoplanètes

Instrument de pointe, SPHERE utilise des technologies avancées telles que l’optique adaptative, qui permet de compenser en temps réel les effets de la dégradation due aux turbulences atmosphérique et la coronographie, technique rendant visible des objets orbitant près d’une étoile. Dernier des instruments de seconde génération qui ont pris place sur le VLT, il offre aux chercheurs une imagerie directe de ces planètes extrasolaires et permet d’en apprendre plus sur leurs conditions de formation.

  • Réalisation : Claude Delhaye et Christophe Gombert
  • Production : CNRS Images

Et aussi dans les
ressources documentaires :

Notre battement cardiaque s’aligne sur celui d’une personne en qui nous avons confiance

Comment améliorer l‘esprit d’équipe ? Depuis quelques années les patrons, chefs et autres dirigeants misent sur le Team building, à savoir des expériences vécues à plusieurs permettant de renforcer la cohésion d’un groupe. Mais comment mesurer cette cohésion ?

Des scientifiques danois ont peut-être trouvé un début de réponse. Ils ont proposé à 74 personnes de construire des voitures à partir de petites briques danoises bien connues par équipes de deux.

Une moitié à été confronté au jeu de montage directement tandis que la deuxième moitié jouaient à un jeu de simulation d’investissements entre chaque séance, le Public goods game. Ce jeu consiste à décider si oui ou non il faut investir une certaine somme d’argent. Cette décision concerne un budget commun. Les gains sont eux-aussi mis en commun.

En étudiant les constantes physiologiques de leurs cobayes, ils ont observé que les binômes ayant participé au jeu de coopération présentaient une plus grande synchronisation de leurs rythmes cardiaques.

La confiance nécessaire à une évolution positive des profits virtuels aurait donc grandit au fil des séances, jusqu’à faire battre les cœurs de chacun des individus au même rythme que celui de leur partenaire. Ainsi, d’après ces travaux, avoir des cœurs qui battent à l’unisson témoigne d’une confiance mutuelle solide. Bientôt un détecteur de confiance ?

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Batterie transparente Li-ion rechargeable à la lumière du jour

Un groupe de chercheurs japonais a conçu un prototype de batterie lithium-ion transparent et pouvant se recharger grâce à la lumière du jour.

Ce groupe de recherche, dirigé par Mitsunobu Sato, président de l’université de Kogakuin et professeur au département de physique appliquée de la School of Advanced Engineering de l’université, a pour objectif de d’utiliser cette batterie pour faire des « vitres intelligentes ». De plus lorsque la lumière du soleil est appliquée sur cette la batterie, elle se pigmente, réduisant ainsi le flux lumineux passant.

Le prototype a été exposé au forum Innovation Japan 2015 qui s’est déroulé les 27 et 28 août derniers à Tokyo.

En 2013, une première batterie transparente avait été dévoilée. Ses électrodes respectivement positive et négative avaient une épaisseur de 80 et 90nm, permettant une assez haute transmittance. Le voltage de la batterie était de 3,6V et la batterie pouvait réaliser environ 20 cycles de charge et décharge.

La batterie qui a été exposée cette année a subi quelques modifications par rapport à la version de 2013, notamment dans les matériaux.

Source : diplomatie.gouv

Les avions à la merci des pirates ?

Le ciel va-t-il nous tomber sur la tête ? À en croire des hackers, les avions pourraient devenir la cible de pirates. Crash, détournement, chantage… Le pire serait à craindre. La situation est d’autant plus inquiétante que les alarmes n’ont pas été déclenchées par des sociétés spécialisées dans la sécurité informatique (dont certaines crient parfois un peu trop vite au feu…) mais par le directeur de l’Agence européenne de la sécurité aérienne (AESA) mais aussi le FBI.

Le 8 octobre, lors d’une rencontre avec l’Association des journalistes de la presse aéronautique et spatiale (AJPAE), Patrick Ky, directeur de l’AESA, a été suffisamment explicite. « Nous avons organisé il y a quelques mois une cession sur la cybersécurité au sein de l’agence. Un groupe de l’Organisation de l’aviation civile internationale (OACI) nous a alors assuré que le risque état faible. Juste après cette présentation, j’ai fait intervenir un hacker, détenant également une licence de pilote d’avion commercial. En moins de cinq minutes, il est arrivé à entrer dans le réseau d’une compagnie aérienne avec un profil d’administrateur. Il s’agissait du réseau ACARS, le réseau de messagerie entre l’avion et le sol ». Quelques jours après, ce même hacker avait réussi à pénétrer le système de contrôle d’un avion au sol..

Comme d’autres domaines hyper connectés, l’aviation est vulnérable à la cybercriminalité ! Et ce constat ne date pas d’aujourd’hui. En 2013, les vulnérabilités dans le système ACARS avaient été mises à jour par Hugo Teso (consultant en sécurité informatique pour la société Nruns) lors de sa présentation baptisée « spoofing a plane » durant la Conférence Hack In The Box Security aux Pays-Bas. Titulaire d’une licence de pilote professionnel, il avait expliqué comment il pouvait prendre le contrôle d’un avion de ligne en plein vol grâce à un… smartphone Android.

Plus récemment, l’expert en sécurité Chris Roberts avait envoyé, lors d’un vol, un tweet en expliquant qu’il allait provoquer la chute des masques à oxygène, via le piratage du système de divertissement de l’appareil. Pour mener à bien cette opération, il s’était connecté à une prise Ethernet placée sous le siège des passagers et qui est utilisée pour relier les écrans des passagers au système de divertissement. Grâce à cette « porte d’entrée », il a pu accéder au système central de l’appareil et notamment au gestionnaire des réacteurs.

C’est une évidence trop souvent occultée : tout appareil ou machine raccordé à des réseaux de communication est vulnérable. Cela vaut pour les machines industrielles (du simple automate au fourneau d’une usine métallurgique) mais aussi pour tous les objets connectés et les véhicules. S’appuyant de plus en plus sur des protocoles internet, ces systèmes sont devenus vulnérables. Par ailleurs, beaucoup d’automates et de solutions reposent sur des systèmes propriétaires. C’est le cas justement du système ACARS reposant sur un schéma d’encodage/de décodage propriétaire existant depuis 1978… N’étant pas « Open source », ces solutions ne peuvent pas être analysées par la communauté de hackers qui pourrait y déceler des failles et avertir son éditeur pour qu’il propose un correctif.

« L’aviation doit arrêter de se voiler la face, a déclaré Patrick Ky. Nous devons nous poser la question de savoir quel réseau spécifique doit être mis en place, comme on en trouve dans les secteurs de la banque ou de l’énergie. Il faut par exemple pouvoir informer le reste du réseau qu’une attaque vient de se produire ».

Pas simple. « Il faudrait connaître la totalité de l’architecture réseau du système de pilotage, ainsi que toutes ses interfaces d’accès », avertit David Stupples, professeur à la City University et conseillé pour la division contre le cyberterrorisme du gouvernement britannique.

Par Philippe Richard

[conférence] Impact du climat sur les risques hydrologiques en domaine montagneux : de la recherche aux applications

Les risques hydro-climatiques tels qu’inondations, glissements de terrain, fonte des glaciers, et érosion posent des défis majeurs aux paysages et populations locales.

Face à ces risques, plusieurs approches améliorant la résilience de ces régions ont été développées :

Intervenants :

  • Gilles Grandjean
    Adjoint à la Direction des Risques et de la Prévention – institut Carnot BRGM
  • Didier Richard
    Directeur de l’unité Érosion torrentielle, neige et avalanches – institut Carnot Irstea
  • Nadia Amraoui
    Chercheur à la Direction de l’eau et de l’environnement – institut Carnot BRGM
  • Christian Château
    Directeur – DSA Technologies

En savoir plus

Et aussi dans l’actualité :

Et aussi dans les ressources documentaires :

[conférence] Radiocommunications M2M, sûreté de connexion

Les limitations des technologies radio dans les conditions difficiles augmentent les coûts de déploiement et de maintien en opération. Il faut innover dans la qualification des réseaux sans-fil pour la certification de l’IoT.

L’internet des objets IoT est là ; il révolutionnera la valeur des produits et des services et il bouleversera tous les secteurs d’activités en favorisant une économie des plateformes.

Les transports intelligents et l’industrie du futur sont parmi les révolutions les plus marquantes de l’IoT.

Cependant, les coûts de déploiement et de maintien en opération des réseaux sans-fil questionnent encore les perspectives de cet IoT du fait des limitations des technologies radio dans les environnements fortement métalliques ou encore pour les mobilités grande-vitesse.

Les instituts Carnot du CEA innovent dans les radiocommunications robustes ; le CEA-Leti invente l’électronique radiofréquence très faible consommation et les formes d’ondes très longue portée, le CEA-List invente les technologies des réseaux temps-réel et résilients. Mais la recherche ne peut se contenter d’une offre technologique dans ce domaine.

Les applications critiques de l’IoT requièrent la maîtrise des risques et des coûts. Cet exposé abordera l’innovation, d’une part, en termes d’outils et de méthodes pour la qualification des déploiements de réseaux sans-fil dans les environnements difficiles et, d’autre part, en termes de technologies permettant d’accroitre la robustesse des communications réseau pour les applications critiques. Nous présenterons une vision des enjeux croissants de la certification des réseaux sans-fil pour les différents segments de marché de l’IoT :

Intervenants :

  • Lionel RUDANT, responsable marketing stratégique, CEA-Leti
  • Christophe JANNETEAU, chef du laboratoire des systèmes communicants, CEA-List
  • Philippe SISSOKO, LCIE Bureau Veritas

 

Et aussi dans l’actualité :

 

En savoir plus

Et aussi dans les
ressources documentaires :

Invalidation du « safe harbor » : les données mieux protégées ?

Les données sont devenues un enjeu majeur pour de nombreux secteurs économiques. Et les entreprises américaines, soutenues par leur gouvernement, l’ont compris bien avant les Européens. Mais ces informations à caractère personnel ne doivent pas être considérées comme de simples marchandises. Elles doivent être protégées afin de respecter la vie privée de chacun.

C’est le message qu’a rappelé la Cour de justice de l’Union européenne (CJUE) dans sa décision du 6 octobre en invalidant une décision prise par la Commission européenne du 26 juillet 2000. Plus connue sous l’expression de « sphère de sécurité » (« safe harbor »), cette décision avait accordé aux entreprises faisant le commerce de données personnelles et amenées, à ce titre, à les transférer et à les stocker outre-Atlantique.

Or, pour la CJUE, les États-Unis n’apportent pas une protection suffisante de ces données personnelles. La Cour de Luxembourg constate également que les citoyens européens ne disposent d’aucun recours pour protester contre l’utilisation de leurs données personnelles.

La décision de la CJUE est l’épilogue d’une procédure entamée en 2011 en Irlande (où se trouve le siège européen de Facebook) par un étudiant en droit autrichien. Suite aux révélations d’Edward Snowden, Max Schrems avait déposé 22 plaintes contre le réseau social.

L’invalidation du Safe Harbor rappelle que le recueil de données est une vieille pratique aux États-Unis. Dans un long entretien (accès payant) accordé à Securiteoff, Maitre Olivier Iteanu, Avocat à la Cour d’Appel de Paris , rappelle qu’il « faut distinguer la loi du 25 octobre 2001 [son nom complet étant « Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism Act » (Loi pour unir et renforcer l’Amérique en fournissant les outils appropriés pour déceler et contrer le terrorisme)] et PRISM. Appelée aussi USA Patriot Act, la première comprend deux modalités de collecte de données. Premièrement, les National Security Letters qui permettent à l’agence fédérale de requérir de FAI ou de sites Web des informations personnelles sur les internautes, sans aucun contrôle judiciaire. Deuxièmement, les FISA Orders (« Foreign Intelligence Surveillance Amendment Act ») . Cette loi de 1978 décrit les procédures de surveillance physique et électronique, ainsi que la collecte d’information sur des puissances étrangères soit directement, soit par l’échange d’informations avec d’autres puissances étrangères. Quant à PRISM, c’est un programme qui est également appelé ‘Collection data program’. Il poursuit les mêmes objectifs que la loi de 2001, mais ce n’est pas la même entité. Avec PRISM, la NSA est autorisée à mettre la main dans le pot de confiture, mais on ne sait pas ce qu’elle récupère. On sait simplement que toutes les données, et notamment administratives et financières, sont accaparées ».

Dix-huit mois après l’arrêt de mai 2014 contraignant Google à appliquer le droit au déréférencement de données personnelles, le fameux « droit à l’oubli », la CJUE rappelle donc à l’ordre les États-Unis.

Quelles peuvent être les conséquences ? Une relocalisation physique des traitements de données en Europe pourrait être envisagée même si cela sera long et couteux. Il est encore trop tôt pour identifier les impacts car les batailles judiciaires ne sont peut-être pas terminées. En « affirmant que les États-Unis n’ont pas un niveau de protection suffisant, la Cour européenne de justice ouvre aussi la voie à des attaques contre des clauses contractuelles signées entre des entreprises européennes et américaines », estime l’avocat Joseph Smallhoover, de Bryan Cave.

Par ailleurs, un Règlement européen sur la protection des données, plus protecteur, devrait être adopté d’ici la fin de l’année et concerner indirectement les géants du net.

La prochaine réunion des différentes CNIL européennes permettra de déterminer précisément les conséquences juridiques et opérationnelles de cet arrêt.

Par Philippe Richard

Et aussi dans les bases documentaires :

Rendez-vous Carnot 2015 : suivez le programme

Pour les entreprises, le Rendez-vous Carnot constituent l’occasion de rencontrer des partenaires R&D en capacité de soutenir leurs actions d’innovation. Ces Rendez-vous prolongent l’action continue en direction du monde industriel menée tout au long de l’année par le réseau des instituts Carnot.

Cet événement est le point de rencontre annuel de tous les acteurs de la R&D : l’édition 2014 a accueilli 2 550 participants et 9000 rendez-vous d’affaires ont pu être ainsi organisés. 95 % des participants ont jugé bonne ou très bonne la qualité de leurs rendez-vous et déclarent avoir identifié de nouveaux partenaires R&D.

Les 34 instituts Carnot sont exposants, tout comme l’étaient en 2014 des SRC (Sociétés de Recherche Contractuelle), des CTI (Centres Techniques Industriels), des Pôles de compétitivité et clusters, des sociétés agréées CIR, des laboratoires de recherche et structures de transfert nationaux (Universités de Lyon, l’ensemble des SATT, CNRS FIST…) et internationaux (Centre spatial de Liège, ESA…)

Des structures de soutien et d’accompagnement à la recherche partenariale et à l’innovation sont également présentes : L’ANRT pour le dispositif CIFRE, l’INPI, Bpifrance, Paris Région Entreprises, l’ARDI notamment pour les 7 Domaines de Spécialisation Intellignet (DSI) et le plan PME de la région Rhône-Alpes, le MENESR et des membres du Point de Contact National PME pour faire connaître les différentes opportunités de financement proposées aux PME par Horizon 2020…

Techniques de l’Ingénieur y participe également, n’hésitez pas à visiter le stand. Vous y rencontrerez les équipes éditoriales et commerciales.

Les Rendez-vous Carnot, en partenariat avec Techniques de l’ingénieur, proposent également un programme de conférences, des visions prospectives et des réponses aux grands défis technologiques et économiques avec des spécialistes et des témoignages d’industriels.

Voici la liste des conférences qui auront lieu lors de l’édition 2015 :

  • Matériaux fonctionnels – Revêtements et traitements de surface : Fonctionnaliser les surfaces pour améliorer le comportement en service des matériaux
  • Radiocommunications M2M, sureté de connexion : Déploiements de réseaux sans-fil en environnements difficiles et pour applications critiques
  • Méthodes pour l’efficacité énergétique des procédés industriels : De l’audit avancé à l’innovation technologique
  • Matériaux architecturés pour les véhicules : Allégement et traitement vibroacoustique
  • La médecine personnalisée : Le traitement à la carte en cancérologie : espoir ou réalité ?
  • Intensification des procédés au service de la chimie durable : L’illustration par quelques exemples industriels: bio-solvants et procédés séparatifs
  • Les Risques hydro-climatiques continentaux et Climat : Risques hydro-climatiques sur le continuum Montagne – Plaine : de la Recherche à l’application
  • La robotique collaborative : Application en polissage

Quand ?

Jeudi 19 novembre 2015, vendredi 20 novembvre 2015

Où ?

Les Docks – Cité de la Mode et du Design – Quai d’Austerlitz Paris

Et aussi dans l’actualité :

[conférence] Matériaux fonctionnels – Revêtements et traitements de surface

La fonctionnalisation des surfaces est un formidable moteur de R&D car les défis à relever sont multiples et les enjeux technologiques comme économiques colossaux.

Le laboratoire Cetimat, commun aux instituts Carnot Cetim et Cirimat, est dédié à l’ingénierie de surface et au comportement des matériaux sous sollicitations sévères. Un industriel témoignera des travaux menés et des bénéfices attendus pour son activité :

Intervenants :

  • Dominique GHIGLIONE, Responsable R&D – Institut Carnot Cetim
  • Philippe THAILADES, Chercheur, habilité à diriger des recherches (HDR) – Institut Carnot Cirimat
  • Pascal VINZIO, Directeur technique de KSB, fabricant de pompes

En savoir plus

Et aussi dans l’actualité :

Et aussi dans les ressources documentaires :

[conférence] La médecine personnalisée

Le traitement à la carte en cancérologie : espoir ou réalité ?

Des sociétés réalisent une carte génétique de la tumeur des patients pour établir un traitement sur mesure :

Intervenants :

  • Dr Christophe Letourneau, Oncologue médical, Responsable des essais précoces – Institut Carnot Curie Cancer, département d’oncologie médicale
  • Patrick Korman, vice-président international, Market access, Public affairs et BD ; Country management France de Myriad Genetics

En savoir plus

Et aussi dans l’actualité :

Et aussi dans les ressources documentaires :

[conférence] La robotique collaborative : application en polissage

Un exemple de développement réalisé dans le cadre du programme Carnot PME Capme’up.

Les outils et défis technologiques pour permettre une interaction optimale en robotique collaborative sont aujourd’hui une meilleure appréhension de l’environnement grâce à des capteurs sensoriels, à l’intelligence embarquée, à l’intelligence sensori-motrice, mais aussi grâce à des algorithmes d’apprentissage en temps-réel,  les aspect mécaniques et matériaux, cognitiques, comportements, décisions, contrôle d’erreur, fiabilité :

Intervenants :

  • Yvan Measson • Ingénieur chercheur en robotique • institut Carnot LIST
  • Philippe Morin • Référent industriel robotique • institut Carnot Cetim

En savoir plus

Et aussi dans l’actualité :

Et aussi dans les ressources documentaires :

[conférence] Intensification des procédés au service de la chimie durable

L’intensification, à partir de technologies innovantes et de solvants moins polluants, vise à opérer des procédés plus compacts, plus sûrs, plus propres et plus économiques. Illustration par des exemples :

Intervenants :

  • Laurent Falk • Directeur de recherche CNRS, Directeur du Laboratoire de Génie des procédés • institut Carnot ICÉEL
  • Sophie Thiebaud-Roux • Professeur à l’ENSIACET, Laboratoire de Chimie agro-industrielle • institut Carnot 3BCAR
  • Eric Français • Responsable R&D • SEPAREX

En savoir plus

Et aussi dans l’actualité :

Et aussi dans les
ressources documentaires :

[conférence] Matériaux architecturés pour les véhicules

L’utilisation massive de matériaux composites pour alléger les structures mécaniques et diminuer leurs impacts écologiques de réalisation et de fonctionnement induit inéluctable des problèmes industriels importants mettant en cause la sécurité des systèmes : ambiance vibratoire et problème de stabilité dynamique, phénomènes de fatigue et d’endommagement dans les structures composites, modélisation et aide à la conception en présences d’importantes incertitudes… Le challenge technologique porte alors sur la réalisation d’une nouvelle classe de matériaux composites fonctionnalisés permettant la sécurisation et le contrôle des structures dans lesquelles ils sont utilisés.

Ces nouveaux composites adaptatifs devront être capables de détecter et de réagir à leurs environnements de manière prévisible et contrôlée, en intégrant différents éléments, tels que des capteurs, des actionneurs, des sources d’énergie, du traitement de signal, et un réseau de communications. En plus de supporter des charges mécaniques, les structures intelligentes distribuées pourront atténuer leurs vibrations, réduire le bruit acoustique, mesurer leurs conditions opérationnelles et leur environnement, changer leur forme ou leurs propriétés mécaniques sur commande. La maîtrise de ces nouvelles technologies représente un challenge crucial tant sur le plan sociétal, économique qu’environnemental.

Nous assistons, ces dernières années, à la convergence des progrès technologiques dans les domaines des MEMS, de l’impression 3D et des matériaux fonctionnels qui laisse entrevoir une future rupture technologique qui impactera profondément le développement des futures structures et systèmes mécaniques. On peut ainsi imaginer, aujourd’hui, intégrer au sein même des matériaux des systèmes hybrides constitués de matériaux adaptatifs, d’électronique, de ressources informatiques et de sources d’énergie. Ces technologies permettent alors de ‘programmer’ le comportement physique des matériaux pour synthétiser de nouvelles fonctionnalités jusqu’ici inenvisageables. La prochaine génération de composites ou «métacomposites intelligents», devrait tirer pleinement parti de ces avancées technologiques pour optimiser leurs fonctionnalités notamment vibratoires et acoustiques.

Après un court état de l’art, la présentation décrit les outils théoriques et numériques pour la conception de métacomposites adaptatives à travers la présentation de deux applications spécifiques l’une concernant la réalisation de liners acoustiques intelligents et l’autre de métacomposites piézoélectriques. Dans la première partie, le concept de peau active acoustique est introduit. Les outils de modélisation et d’optimisations sont décrits et le concept validé par un prototype expérimental. La deuxième partie traite de la réalisation d’une interface mécanique intelligente pour contrôler l’absorption et la transmission de l’énergie vibratoire dans un réseau distribué de patchs piézoélectriques shuntés. Les outils de conception sont présentés. Finalement, un prototype nous permet de valider le système distribué proposé :

Intervenants :

  • Rémi Berger • Responsable de l’OpenLab Vibroacoustique et Tribologie • PSA, Direction Scientifique et Technologies Futures 
  • Manuel Collet • Directeur de Recherche • institut Carnot Ingénierie@Lyon

En savoir plus

Et aussi dans l’actualité :

Et aussi dans les
ressources documentaires :

Découverte de mystérieuses ondulations au travers d’un disque de poussière

Semblables à des ondes animées d’un mouvement rapide, ces structures figurent dans le disque de l’étoile AU Microscopii. Elles ne ressemblent en rien à ce qui a pu être observé ou envisagé jusqu’à présent. L’origine ainsi que la nature de ces structures offrent donc aux astronomes un tout nouveau champ d’investigations. Les résultats de leurs observations font l’objet d’une publication au sein de l’édition du 8 octobre 2015 de la revue Nature.

AU Microscopii, abréviée AU Mic, est une étoile jeune, proche de notre système solaire et entourée d’un disque de poussière étendu [1]. L’étude de semblables disques de débris est susceptible de compléter notre connaissance des processus de formation planétaire à partir de telles structures.

Les astronomes ont recherché le moindre signe de structure déformée ou grumeleuse – témoignant de la possible existence de planètes – dans le disque de AU Mic. A cette fin, ils ont utilisé, en 2014, l’instrument SPHERE nouvellement installé sur le Très Grand Télescope de l’ESO. Aidés de ce puissant dispositif capable de discerner le moindre détail contrasté, ils ont fait une étrange découverte.

« Nos observations ont révélé quelque chose d’inattendu », rapporte Anthony Boccaletti, chercheur CNRS au LESIA (Observatoire de Paris/CNRS/UPMC/Paris-Diderot), premier auteur de l’article. « Les images acquises par SPHERE laissent apparaître un ensemble de structures inexpliquées au sein du disque. Ces structures arborent une forme arquée, ou ondulée, bien différente de ce qui a déjà été observé par le passé. »

Sur les nouvelles images figurent, telles des vagues à la surface de l’eau, cinq arches formant globalement une structure ondulante à différentes distances de l’étoile. Après avoir repéré ces structures au moyen des données de SPHERE, l’équipe a consulté d’anciennes images du disque acquises, en 2010 et 2011, par le Télescope Spatial Hubble NASA/ESA [2]. Il est ainsi apparu, non seulement que ces structures figuraient sur les images d’Hubble, mais également qu’elles avaient changé au fil du temps. En fait, ces ondulations se déplacent – et à une vitesse très élevée ! [3]

“Après avoir effectué un nouveau traitement des images issues des données de Hubble, nous sommes parvenus à reconstituer les mouvements de ces étranges structures sur une période de quatre ans”, précise Christian Thalmann (ETH Zurich, Suisse). « Nous avons ainsi pu constater que les arches s’éloignaient de l’étoile à des vitesses pouvant atteindre les 40 000 km/h ! »

Les structures les plus éloignées de l’étoile semblent se mouvoir à vitesse plus élevée que les plus proches. Trois des structures au moins se déplacent si rapidement qu’elles pourraient bien échapper à l’attraction gravitationnelle de l’étoile. L’existence de vitesses si élevées exclut l’hypothèse selon laquelle ces structures résulteraient de perturbations causées sur le disque par des objets – telles des planètes – en orbite autour de l’étoile. Un élément inconnu, et véritablement inhabituel, doit être à l’origine de l’accélération de ces ondulations et de leur vitesse si élevée.

« Cette découverte a apporté son lot de surprises » ajoute Carol Grady du Groupement Scientifique Euréka, Etats-Unis. « Et parce que rien de tel n’a été observé ou prédit par la théorie par le passé, nous ne pouvons que spéculer sur l’occurrence et l’origine du phénomène observé ».

L’équipe ne peut affirmer avec certitude la cause de ces mystérieuses ondulations autour de l’étoile. Elle a toutefois envisagé et écarté un ensemble de phénomènes possibles, telle la collision de deux objets massifs et rares semblables à des astéroïdes libérant d’importantes quantités de poussière, ou bien encore des ondes spirales générées par des instabilités gravitationnelles à l’intérieur du système.

D’autres hypothèses envisagées paraissent toutefois plus prometteuses.

« Il est possible que l’étrange structure présente un lien avec les flambées de l’étoile. AU Mic est une étoile très active – d’importants et brusques sursauts d’énergie se produisent à sa surface ou à proximité directe, » explique Glenn Schneider de l’Observatoire Steward, Etats-Unis, par ailleurs co-auteur de l’étude. « L’un de ces sursauts a pu déclencher quelque chose sur l’une des planètes – si planètes il y a : à titre d’exemple, une violente expulsion de matière qui se propagerait à présent au travers du disque, propulsée par l’intensité de l’éruption ».

« SPHERE n’est que dans sa première année de fonctionnement et il est déjà capable d’étudier un tel disque. On ne peut donc que se réjouir de ce résultat des plus prometteurs qui confirme les grandes capacités de l’instrument », conclut Jean-Luc Beuzit, co-auteur de la nouvelle étude et co-concepteur de l’instrument SPHERE.

L’équipe ambitionne de continuer à observer le système AU Mic au moyen de SPHERE et d’autres instruments parmi lesquels ALMA, afin de comprendre les processus à l’œuvre. Pour l’instant toutefois, ces étranges structures demeurent un véritable mystère.

Notes

  • [1] AU Microscopii se situe à 32 années-lumière de la Terre seulement. Le disque est essentiellement constitué d’astéroïdes que les violentes collisions ont réduits à l’état de poussière.
  • [2] Les données ont été acquises par le Spectrographe Imageur du Télescope Spatial Hubble (STIS).
  • [3] Observer le disque par la tranche complique l’interprétation de sa structure tridimensionnelle.

Plus d’informations

Ce travail de recherche a fait l’objet d’un article intitulé “Fast-Moving Features in the Debris Disk Around AU Microscopii” à paraître dans l’édition du 8 octobre 2015 de la revue Nature.

Source : eso

Et aussi dans les
ressources documentaires :

On a pris la température de dinosaures à partir de leurs oeufs

Une équipe de chercheurs dirigée par Robert Eagle, de l’université de Californie à Los Angeles (UCLA), a utilisé une technique pionnière d’analyse chimique des coquilles fossilisées. Leur composition dépend de la température à laquelle elles se sont formées. C’est à dire de la température dans le ventre de la maman dinosaure !

Deux isotopes rares du carbonate de calcium – ingrédient clé dans la coquille d’oeuf – l’oxygène 18 et le carbone 13, ont tendance à se regrouper si les températures sont basses. Et à se séparer si elles sont hautes.

« Cette nouvelle technique nous permet de définir la température interne du dinosaure femelle au moment de l’ovulation », explique Aradhna Tripati, coauteur de l’étude. Le communiqué de l’Université UCLA note qu’il s’agit des « premières mesures directes de la température corporelle de deux types de dinosaures ».

Les chercheurs se sont penchés sur deux espèces de dinosaures : les grands sauropodes au long cou, dont des œufs fossilisés ont été retrouvés en Argentine et les petits oviraptoridés de Mongolie, les plus proches des oiseaux actuels.

Résultat: la température corporelle des plus gros était d’environ 38 degrés Celsius et celle des oviraptoridés était un peu inférieure à 32 degrés C. La température corporelle des dinosaures variaient donc entre les différentes espèces !

L’étude note également que « la température corporelle des oviraptoridés était plus élevée que la température ambiante, ce qui suggère qu’ils ne sont pas vraiment à sang froid, mais intermédiaire ».

Chez les animaux à sang froid (alligators, crocodiles, lézards), la température du corps est engendrée par les échanges thermiques avec l’environnement. Pour ceux à sang chaud ou endothermes (les hommes, les mammifères, les oiseaux), la température du corps est générée par un mécanisme interne, indépendamment de la température de leur environnement.

« Les oviraptoridés pourraient être d’une catégorie intermédiaire, quelque part entre le crocodile et l’oiseau actuel », explique Robert Eagle.

« Cela pourrait signifier qu’ils génèrent leur température corporelle et peuvent l’élever au-dessus de celle de l’environnement mais ne la maintiennent pas à des températures aussi élevées que les oiseaux modernes (40°, ndlr) », ajoute-t-il.

Une précédente étude conduite par John Grady, un biologiste de l’Université du Nouveau-Mexique, et publiée en juin dans la revue Science aboutissait déjà aux mêmes conclusions mais selon une autre technique à partir notamment des anneaux de croissance des os fossilisés.

Selon le biologiste, les dinosaures tombaient dans la catégorie intermédiaire, dite mésotherme, plus proche de celle des thons, de certains requins et de la tortue caouanne.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Concevoir plus rapidement de meilleurs catalyseurs

Cette avancée est le fruit d’une collaboration entre chimistes théoriciens du Laboratoire de chimie de l’ENS de Lyon (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et de l’université de Leiden (Pays-Bas), et chimistes expérimentateurs de l’université technique de Munich et de l’université de la Ruhr à Bochum (Allemagne). Leurs travaux sont publiés dans la revue Science le 9 octobre 2015.

Les catalyseurs sont des substances ou des matériaux qui, par leur interaction avec des réactifs, minimisent l’énergie nécessaire aux réactions chimiques et favorisent la formation des produits désirés. L’industrie chimique en dépend presque entièrement, et il en résulte un surplus commercial estimé à 50 milliards d’euros en Europe1. Au-delà de l’aspect économique, les dispositifs catalytiques tels que ceux embarqués dans les pots d’échappement des véhicules diminuent l’impact polluant des moteurs à combustion. En outre, si peu de voitures équipées de piles à hydrogène2 ont été lancées sur le marché alors qu’elles n’émettent pas de gaz à effet de serre, c’est notamment parce que les catalyseurs de piles à combustible ne sont pas encore véritablement au point s’agissant de leur fonctionnement dans la durée. Développer des catalyseurs plus efficaces est donc un enjeu de taille.

Les catalyseurs sont souvent constitués de petites particules métalliques de quelques nanomètres de diamètre. Leur efficacité dépend de leur taille, de leur forme et de leur composition chimique. Jusqu’à présent, pour améliorer un catalyseur, les chimistes n’avaient à leur disposition qu’un indice : la force d’interaction optimale entre le réactif et le catalyseur. Ensuite, ils devaient procéder par tâtonnement, faute de relation entre cette valeur et la structure que devaient présenter les particules de catalyseur pour l’atteindre. Il leur fallait passer en revue de grandes bases de données à la recherche des meilleurs candidats, puis tester de nombreuses possibilités de structure du matériau jusqu’à parvenir à la force d’interaction adéquate.

Aujourd’hui, une équipe internationale de chimistes a mis au point une nouvelle approche, permettant de déterminer la structure optimale du site catalytique (site d’interaction entre le catalyseur et le réactif), pour un catalyseur de composition chimique donnée (par exemple, du platine). Et cette approche repose sur un concept chimique simple : le nombre de coordination, qui désigne le nombre de voisins d’un atome appartenant au catalyseur et qui se calcule simplement en les décomptant. En effet, les chercheurs ont montré qu’il existe une relation entre l’activité d’un site catalytique et ce nombre de coordination (voir figure).

Ils ont ensuite validé expérimentalement cette approche en concevant un nouveau type de catalyseur au platine pouvant être utilisé dans les piles à combustible. L’efficacité maximale a été prédite pour des sites avec un nombre de coordination plus élevé que pour le catalyseur de référence, c’est-à-dire situés dans une cavité creusée dans la surface de platine. Après avoir créé des cavités sur une surface modèle de platine par trois méthodes différentes, les résultats ont été sans appel : l’efficacité catalytique a été multipliée jusqu’à 3,5 fois.

Ces travaux devraient donc permettre de diminuer les temps de développement de catalyseurs. Ils ouvrent la voie au développement de piles à combustible commercialement performantes, à une utilisation plus large de l’hydrogène comme carburant propre et plus généralement, à terme, à l’optimisation de nombreux processus industriels.

Source : cnrs

Et aussi dans les
ressources documentaires :

Le matériau qui se répare lui-même

Pensé avant tout pour un usage spatial, le matériau « capable de se régénérer tout seul » répond à un besoin de sécurité. Que ce soit dans la stratosphère ou dans l’espace, il y a toujours des risques d’impact, qui, même s’ils sont minimes peuvent endommager gravement la carlingue de l’appareil (avion, fusée, station orbitale…). Il faut, à ce moment, que le trou soit rapidement colmaté si l’on ne veut pas perdre tout l’oxygène par exemple. Ce qui serait fatal à l’équipage.

Le matériau mis au point rend moins vulnérables ces appareils en leur permettant de se régénérer eux-même. Composé de trialkylborane, de la famille des alkylboranes, il a la capacité de se solidifier au contact de l’air. C’est le principe de la polymérisation, « ce procédé par lesquels des petites molécules réagissent entre elles pour former des molécules de masses molaires plus élevées ».

Pour s’assurer du procédé, les chercheurs ont tenté une expérience. Ils ont inséré entre deux couches de plastiques (solides donc) une espèce de résine liquide contenant le trialkylborane. Puis ils l’ont perforé avec une balle de fusil. La brèche n’aurait pas mis plus d’une seconde à se colmater grâce à la réaction avec l’oxygène.

Le procédé n’est pas nouveau, mais c’est la première fois qu’il est aussi rapide. Quand il fallait compter une à plusieurs heures pour le rebouchage d’un trou avec d’autres produits, ici, une voire quelques secondes sont suffisantes. Et c’est évidemment le plus qui devrait faire la différence.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le traitement illégal des DEEE est majoritaire en Europe !

Interpol et les Nations Unies ont publié fin août les résultats d’une enquête de deux ans portant sur le traitement des déchets électriques et électroniques (DEEE) en Europe. Au niveau européen, seulement 35 % des 9,5 millions de tonnes de DEEE jetés en 2012 ont été pris en charge par les systèmes officiels de collecte et de recyclage. Les 65 % restant ont été recyclés en Europe dans des conditions non conformes (3,15 millions de tonnes), exportés illégalement (1,5 million de tonnes), triés seulement pour en récupérer les matériaux de valeur (750 000 tonnes) ou tout simplement jetés dans les poubelles (750 000 tonnes). Le commerce illégal de ces déchets se fait avant tout en Europe, proche des lieux de consommation.

Sur les 1,5 millions de tonnes de DEEE exportées, peu sont officiellement déclarées. Selon les estimations de l’étude, 70 % auraient une deuxième vie, 30 % seraient directement traitées comme déchets. Selon les informations d’Interpol, « chaque année, sur l’ensemble des déchets électroniques exportés par l’Union européenne, seules 2 000 tonnes (0,5 %) [sont] interceptées dans le cadre d’opérations donnant lieu à une forme de condamnation, des amendes administratives ou des sanctions civiles ». Le risque d’interception est faible pour les trafiquants, qui ne risquent pas grand chose dans ce business juteux.

Les vols dans les centres de traitement agréés sont également dénoncés dans cette étude. « Le vol à grande échelle de composants de valeur prélevés sur ces déchets, tels que les circuits imprimés et les métaux précieux, entraîne une importante perte de matériaux et de ressources pour les sociétés de traitement des déchets respectueuses de la loi en Europe, estimée entre 800 millions et 1,7 milliard d’euros annuellement », estime Interpol.

Concernant les performances de chaque pays, les pays scandinaves et la Suisse occupent les premières places et atteignent déjà les objectifs réglementaires pour 2016 (de 60 à 85 % des DEEE recyclés). A l’opposé, la Roumanie, l’Espagne et Chypre sont les plus mauvais élèves, avec moins de 20 % de leurs DEEE recyclés. La France essaye de rattraper son retard et se situe dans le peloton des pays européens. En 2014, l’équivalent de 7,4 kg de DEEE ont été collectés par habitant en France. En 2019, la collecte devra atteindre 15 kg par an et par habitant, pour respecter les objectifs de la directive européenne DEEE 2.

Dresser un bilan pour mieux lutter

Pour lutter contre ce commerce illicite particulièrement rentable, le rapport propose d’harmoniser les définitions de déchets, les sanctions administratives et pénales et la coopération entre les pays européens. « L’harmonisation, y compris du type d’infractions, du degré de gravité et de la définition des sanctions, permettrait de limiter les écarts entre les pays européens et, par conséquent, le déplacement des activités illicites entre les pays. Cela faciliterait les enquêtes, les poursuites et les condamnations et donc, créerait un véritable effet dissuasif sur les délinquants », souligne le rapport. Il propose également de mieux suivre le marché dans chaque pays, définir des standards de recyclage et de réutilisation, mieux informer le public et lutter contre les vols sur les points de collecte et les décharges.

Un rapport du Programme des Nations Unies pour l’environnement (UNEP) publié en avril rappelle que le volume de déchets électriques et électroniques ne cesse d’augmenter. Au niveau mondial, 42 millions de tonnes de DEEE ont été produits en 2014, et 50 millions sont attendus en 2020. Selon les estimations, de 60 % à 90 % des DEEE échapperaient aux filières de dépollution à l’échelle mondiale. Les bénéfices du trafic illégal sont estimés à près de 20 milliards d’euros.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les ressources documentaires :

Établir une base dans l’espace grâce à l’impression 3D !

Fonder une colonie hors de la Terre, une idée plus que jamais d’actualité ? Oui ! Et sur Mars si possible, surtout depuis l’annonce de la présence d’eau liquide sur la planète rouge. Tous veulent s’y rendre : la Nasa, le milliardaire américain Elon Musk, l’organisation privée Mars Polar ou encore le néerlandais Bas Lansdorp avec son projet Mars One mêlant mission habitée et téléréalité. On croirait presque qu’un voyage est prévu pour demain. À tel point qu’à Las Vegas on pronostique, on lance des paris sur celui qui sera le premier à fouler Mars. À ce jeu, il semblerait que SpaceX ait l’avantage.

Les technologies continuent d’évoluer et permettent d’élaborer de nouveaux scénarios. En l’occurrence, c’est l’avancée de l’impression 3D qui fait le plus spéculer. Il ne se passe en effet pas une semaine sans que l’on entende parler de ses exploits. Dans le domaine du bâtiment par exemple, le chinois Win Su s’est récemment distingué en construisant un immeuble de six étages par impression 3D. Du coup, les chercheurs n’ont plus qu’une idée en tête : fabriquer sur place en s’appuyant sur les ressources locales (le fer notamment) et transporter le moins possible de matériaux. Il faut dire que le prix d’un kilo à véhiculer reste très élevé malgré l’arrivée de nouveaux concurrents sur le marché de l’aérospatial (SpaceX en tête). À titre indicatif, un kilo envoyé à l’ISS revient à 4 750 dollars.

Inventer la maison martienne de demain

Se servir des matériaux locaux pour construire une base viable dans l’espace, sur la Lune ou sur Mars, c’est donc l’idée qui trône dans toutes les têtes. C’est aussi le défi que semble s’être imposé la Nasa, qui souhaite offrir, dès 2030, une base aux futurs colons. L’agence gouvernementale américaine a, dans cette logique, lancé mi-mai le concours Habitat imprimé en 3D (3DPHab) afin que soit imaginée puis élue la maison martienne type. Le design architectural, l’habitabilité et la fonctionnalité étaient au coeur des préoccupations.

À la suite de cet appel à projets, de nombreuses candidatures ont abondé. Parmi elles, celle de la société française de conseil et maîtrise d’oeuvre en impression 3D Fabulous, et son projet baptisé Sfero, réunion joyeuse de « sphère, fer et eau ».

La start-up voulait créer un habitat sphérique de 80 m² ressemblant quelque peu à un champignon en utilisant le fer et l’eau présents sur Mars. Sur les plans, on peut voir que le haut de l’habitation est une sphère à l’air libre tandis que le pied est enterré; le tout enrobant un mât télescopique de huit mètres de haut. Évidemment, pour la construire, Fabulous misait sur la fabrication additive. Le projet n’a toutefois pas été retenu puisque seuls les projets américains pouvaient aller plus loin dans le concours. Ce n’était que pour montrer le savoir-faire français en matière d’impression 3D.

Les propositions des trois finalistes :

La première phase du concours aujourd’hui terminée, trois projets sont encore en lice sur les 165 de départ. Dans le haut du panier, on trouve l’équipe de SEArch/Clouds Architecture Office qui a tenu compte des conditions météorologiques qui règnent sur Mars (la température y est à -65°C en moyenne) en proposant une maison de glace, ou ce que l’on pourrait appeler un igloo de neige. L’équipe a reçu 25 000 dollars pour son projet « Ice House ».

En seconde position arrive l’équipe Gamma, récompensée pour son idée originale d’abris « gonflables ». D’après leur présentation, Gamma compte faire atterrir plusieurs modules à la surface de Mars. Ces derniers sont ensuite censés se déployer, certains pour former les habitations, d’autres pour construire un mur de protection tout autour à partir du régolithe (poussière fortement chargée en rayons solaires).

Enfin, en troisième position, le projet de LavaHive se démarque par sa volonté d’utiliser des matériaux recyclés pour concevoir les habitations, en plus de modules gonflables. L’équipe aspire également à exploiter le régolithe, en le chauffant puis en le faisant couler, pour former des couloirs de communication entre les dômes.

La prochaine étape, désormais, consiste pour ces équipes à construire en taille réelle ces habitats. Ou en tout cas à réfléchir aux contraintes techniques qu’elles pourraient rencontrer. Le gagnant empochera la bagatelle d’1,1 million de dollars.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

GE/Alstom : Feu vert de Bruxelles

C’était la décision qu’attendait GE. Près de 15 ans ont passé depuis que le commissaire européen à la concurrence de l’époque, un certain Mario Monti, n’empêche le groupe américain de réaliser une énorme opération avec Honeywell. En autorisant le rachat d’Alstom, Bruxelles permet à General Electrics de réaliser sa plus grosse opération financière de son histoire (12,4 milliards d’euros) et de poursuivre la stratégie engagée de sortir rapidement des services financiers pour se concentrer sur l’industrie. Et de concentration, il en a été une nouvelle fois beaucoup questions dans les couloirs de la Commission européenne.

Moins de concurrence

L’acquisition du fleuron français a de quoi inquiéter les producteurs européens d’électricité qui voient le nombre d’acteurs sur le marché des équipements se réduire avec un risque, à terme, de hausse des prix.

Une crainte que ne semble pas avoir partagé les autorités européennes : « la Commission n’a relevé aucun problème de concurrence, principalement en raison du fait que les activités des deux entreprises sont complémentaires et ne se chevauchent pas ». A quelques exceptions près tout de même. C’est pourquoi le feu vert a été conditionné à la cession à Ansaldo (Italie) de l’activité vente et maintenance des turbines à gaz de grande puissance, sur laquelle Alstom et GE sont en concurrence directe, l’Américain dominant déjà le marché suivi de Siemens, Alstom et Mitsubishi Hitachi Power Systems (MHPS).

Cet oligopole de fait s’explique par l’ampleur des investissements initiaux requis pour la R&D, les essais et la fabrication, ce qui engendre de très importantes barrières financières et technologiques. En mettant en selle l’Italien, Bruxelles espère maintenir un semblant de compétition. « Ansaldo est un concurrent existant sur le marché des turbines à gaz de grande puissance. Elle possède déjà le savoir-faire, l’expérience et une usine performante de fabrication de turbines à gaz et d’autres éléments destinés aux centrales électriques (comme des turbines à vapeur et des générateurs) », justifie la Commission. Reste à savoir si elle aura la taille critique pour survivre sur ce marché.

Par Romain Chicheportiche

Et aussi dans les
ressources documentaires :

Hammertoss : un malware qui utilise Twitter pour voler des données

La société de cybersécurité FireEye a découvert un malware, “Hammertoss”, qui utilise Twitter pour dérober des données sans être détectés par les solutions de sécurité. Les hackers, des cyberpirates russes membres d’un groupe nommé “APT 29” (probablement soutenu par le gouvernement), insèrent et dissimulent des bouts de code reliés à leur logiciel malveillant dans des images diffusées sur le réseau social.

« Alors que l’image semble être normale, elle contient en réalité des données qui permettent de dissimuler un message, une image ou un fichier dans un autre message”, explique FireEye dans son rapport. Grâce au malware, les pirates peuvent “voler des données” ou avoir ”accès aux ordinateurs” visionnant les images.

Un malware dissimulé par la sténographie

Les organisations gouvernementales, qui utilisent pratiquement toutes un compte Twitter, seraient particulièrement ciblées par Hammertoss. Dans les images envoyées aux cibles, les pirates placent des données chiffrées, au moyen du procédé de sténagographie. Une fois la photo (qui se trouve dans un tweet contenant une URL et un hashtag relié à Hammertoss) visionnée, le malware s’exécute via PowerShell, puis extrait des données depuis l’ordinateur visé, qu’il stocke ensuite dans un service de stockage Cloud.

Selon FireEye, il serait très difficile de détecter Hammertoss. En s’appuyant sur le “bruit” (trafic) généré par Twitter, autrement dit en se fondant dans la masse, Hammertoss serait capable cacher ses actions, et « de saper les efforts pour identifier les comptes Twitter utilisés pour attaquer, ou pour distinguer l’activité malveillante de l’activité normale ».

Par Fabien Soyez

Et aussi dans
les bases documentaires :

L’habitation et le véhicule deviennent un système autonome

Les véhicules électriques présentent tout leur intérêt lorsqu’ils sont rechargés par des énergies renouvelables de façon intelligente. Les experts parlent souvent de l’intérêt qu’il y aurait à ce qu’un véhicule électrique puisse se charger grâce aux énergies renouvelables placées sur une habitation. Ainsi, lorsque la production renouvelable est importante, le surplus non utilisé par l’habitation serait stocké dans les batteries du véhicule. Mais lorsque les besoins de l’habitation seraient supérieurs à la production renouvelable, les batteries du véhicule fourniraient le courant manquant. Avec le dispositif créé par les laboratoires d’Oak Ridge, dans le Tennessee, la théorie devient réalité.
La voiture, de style 4×4, est une hybride gaz-électricité. L’habitation, de 20 m2, est composée d’une seule pièce recouverte de panneaux solaires qui totalisent une puissance de 3,2 kilowatts. Ces panneaux fournissent l’électricité nécessaire aux besoins de base de ce studio équipé d’un évier, d’une plaque de cuisson et d’un système d’éclairage. Le squelette de la maison et le châssis de la voiture ont été imprimés en 3D. L’équipe justifie ce choix en expliquant que cela permet de réduire au minimum les déchets de fabrication.

Des échanges bidirectionnels maison-voiture et avec le réseau

Lorsque le soleil brille, le surplus d’électricité produite par les panneaux solaires est stocké dans une batterie placée sous le porche de la maison. De son côté, le véhicule se gare au-dessus d’un chargeur à induction, sans fil. C’est là que le dispositif devient particulièrement intéressant. Les batterie de la voitures peuvent se charger grâce au surplus emmagasiné dans les batteries de la maison.

Mais si c’est la maison qui est en manque d’électricité, c’est la voiture qui la lui fournira, grâce à ses batteries. Les échangent sont bidirectionnels, en fonction des besoins de l’habitation ou du véhicule. Ce système peut fonctionner de manière totalement autonome, mais peut aussi être relié au réseau de distribution électrique.

De larges applications possibles

Le laboratoire voit grand. Il rappelle que « le réseau électrique fait face à des défis sans précédent. Les événements météorologiques extrêmes peuvent laisser des maisons et des commerces sans électricité pendant des périodes prolongées. Le changement climatique, la demande croissante pour les sources d’énergie renouvelables, et l’incertitude sur l’équilibre entre les sources d’énergie centralisées et la demande, ont un impact sur le réseau. En outre, plus de 1,3 milliard de personnes dans le monde n’ont pas accès à un réseau électrique, et pour un milliard de personnes supplémentaires, l’accès au réseau n’estt pas fiable.» rappelle-t-il dans un communiqué. Ce système pourrait donc être une solution pour alléger la demande sur le réseau électrique de distribution et pour toutes les habitations qui ne sont pas encore reliées au réseau. Il présente un intérêt certain pour les habitations isolées, les opérations militaires ou pour des équipes de secours après une catastrophe.

Découvrir les échanges d’énergie possible en vidéo :

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Internet des objets : des hackers prennent le contrôle d’un fusil connecté

L’internet des objets se développe et couvre tous les champs d’application, de la domotique aux villes intelligentes… en passant par l’armement. Ainsi, l’entreprise TrackingPoint propose un “fusil de chasse intelligent”, à assistance informatique, pour la visée. Son système de “précision guidée” permet de fixer la ligne de mire sur la cible, puis de la suivre, afin d’obtenir le point d’impact le plus précis possible. Il tient aussi compte de la température ambiante, du vent ou du poids des munitions.

Un millier de ces fusils intelligents, qui coûtent 13 000 dollars, sont en circulation, selon TrackingPoint. Seul problème, majeur : 2 experts en sécurité informatique ont réussi à trouver un moyen pour pirater ces armes : grâce au WiFi, ils ont pu prendre le contrôle, à distance, d’un de ces fusils “connectés”.

Runa Sandvik et Michael Auger se sont concentrés sur le point faible de l’Internet des objets : l’utilisation de points d’entrée en réseau, ici une connexion WiFi, pour rendre l’objet “connecté”. Dans le cas du fusil de TrackingPoint, modèle TP750, le WiFi permet à l’utilisateur de diffuser en direct, sur Internet, ce qu’il voit dans son oeil de mire lors de sa “chasse connectée” – pour permettre à ses “proches” de suivre le spectacle.

Dans une vidéo diffusée sur Wired, les deux spécialistes en sécurité expliquent avoir détecté une faille lors de l’utilisation du WiFi par l’appareil : le système de l’arme demande ainsi un mot de passe par défaut, qui permet à tout individu situé dans le rayon d’émission de l’engin, de se connecter au réseau – le code étant “facile à trouver”, selon les hackers.

Prise de contrôle

Auger et Sandvik se sont connectés plusieurs fois à des modèles TP750. Résultat : ils ont pu prendre le contrôle, à distance, des armes hackées. Ils étaient ainsi capables de modifier les coordonnées de la cible (afin de perturber le tir), de désactiver l’ordinateur interne, de saboter le système d’exploitation, ou même d’empêcher l’arme de tirer. Heureusement, la seule limite reste humaine et physique : le fusil ne pourra jamais tirer “tout seul”, le pirate ne pouvant “appuyer sur la gâchette” à distance.

Pour Runa Sandvik, ex-développeuse du logiciel Tor, cette découverte est une nouvelle preuve de la vulnérabilité des objets connectés. “Il y a tellement de choses qui sont aujourd’hui rattachées à Internet: voitures, frigos, machines à café, et maintenant, les armes… Ceci est un message pour TrackingPoint et les autres entreprises. Quand vous installez de la haute technologie sur des objets qui ne l’avaient pas avant, vous rencontrez de sérieux problèmes de sécurité auxquels vous n’aviez jamais pensé”, indique-t-elle.

Selon Wired, TrackingPoint aurait réalisé rapidement une mise à jour pour combler la faille. Et aurait rappelé que le “périmètre limité” dans lequel un hacker devrait se trouver pour pirater l’arme, limite le risque d’un tel piratage.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :