Une armada de satellites pour une couverture mondiale d’Internet

Après environ 7 ans, tous les systèmes sont prêts pour le lancement, il y a un mois environ, des premiers satellites haut débit produits en série du monde. Pesant 147 kilos, ces petits satellites sont positionnés sur une orbite basse quasi polaire (1 200 km d’altitude).

Fabriquée à Toulouse par une entreprise commune à OneWeb et Airbus, cette constellation reposera sur 648 satellites opérationnels. Il y aura 252 satellites de remplacement.

Il existe différents projets d’internet par micro satellites. Mais OneWeb peut se targuer d’avoir de puissants investisseurs : Softbank (principal, actionnaire), Virgin Group, Coca-Cola et Qualcomm. Intelsat, le numéro un mondial des télécommunications par satellite, devait se rapprocher de ce projet, mais le mariage n’a pas eu lieu.

Ce lancement témoigne aussi du succès de Syrlinks. Installée à Cesson-Sévigné, cette entreprise va produire plus de 3 000 équipements radiofréquence pour faire fonctionner cette constellation ; il s’agit d’un émetteur-récepteur pour contrôler le satellite à partir de l’infrastructure au sol et d’un amplificateur faible bruit à l’entrée du récepteur GPS. Cet émetteur-récepteur constitue un vrai cordon ombilical. Il permet de commander et contrôler les satellites, et de les faire communiquer avec la Terre.

Mais y aura-t-il de la place pour tout le monde ? De nombreux industriels aux États-Unis, en Europe, en Asie, ou encore au Brésil ont des projets de constellations de micro ou nanosatellites. Ainsi Starlink, initié par SpaceX, prévoit de lancer 12 000 satellites.

De quoi augmenter le nombre de déchets dans l’espace…

Le véhicule électrique à l’aune du CO2

La mobilité effrénée est la principale source des rejets carbonés dans l’Union européenne. Face au poids du transport dans l’impact environnemental, tant en matière de CO2 que de pollution aux particules, dès 2009, l’Union européenne a mis en place une réglementation : des règles pour lutter contre les effets nocifs des voitures particulières et des véhicules utilitaires légers, fondées sur les émissions « au pot d’échappement » (également appelées émissions « du réservoir à la roue »).

La dernière révision de cette réglementation a ouvert la porte à la prise en compte des émissions des véhicules sur des périmètres plus complets, dont les contours seront à définir par la Commission européenne en 2023, explique l’OIE, émanation de l’Union française de l’électricité.

Réglementation et réalité

En 2017, les émissions moyennes de CO2 par kilomètre parcouru des véhicules mis en circulation en Europe ont augmenté de 0,4 gCO2/km par rapport à 2016 et atteignaient alors 118,5 gCO2/km2, loin des 95 gCO2/km, l’objectif fixé par la réglementation européenne à l’horizon 2021, constate l’OIE. Pour poursuivre et accélérer le recul des rejets carbonés des véhicules neufs, l’Europe a fixé un nouveau cap à l’horizon 2030 : une baisse de 37,5 % des émissions des voitures neuves par rapport aux objectifs 2021, soit des rejets moyens de CO2 d’environ 59 gCO2/km.

Comparer ce qui est comparable

Pour l’heure, « pour un segment donné, les véhicules à motorisation essence émettent plus de CO2 qu’un véhicule à motorisation diesel, alors que les véhicules électriques et les véhicules à pile à combustible n’émettent pas de CO2 à l’usage », rappelle l’OIE.

Ainsi, le moteur électrique n’émet pas de CO2 « du réservoir à la roue », mais pour « la production d’électricité au réservoir », rien n’est moins certain. D’où la nécessité de bien prendre en compte l’impact de la montée en puissance des véhicules électriques (VE) en termes d’émissions de CO2.

Ainsi, l’OIE juge qu’« une évolution progressive des analyses des émissions de CO2 “du réservoir à la roue” vers des analyses “du berceau à la tombe” , c’est-à-dire sur l’ensemble du cycle de vie, s’impose mais reste complexe à mettre en œuvre en pratique dans les réglementations. Néanmoins, le résultat de ces comparaisons entre motorisations s’avère être déterminant pour définir les technologies garantes d’une réduction globale des émissions de gaz à effet de serre et d’atteinte de la neutralité carbone à horizon 2050 ».

Dans une première approche, les analyses du « puits à la roue » (« well to wheel ») permettent de prendre en compte, pour tous les types de motorisations, les émissions de CO liées à la production de l’énergie utilisée dans la production des carburants, explique la note de l’observatoire. Ainsi, pour un VE, une telle approche permet d’intégrer l’empreinte carbone de la production d’électricité, soit par exemple en France 57 gCO2/kWh (chiffre Agence de l’environnement et de la maîtrise de l’énergie, ADEME). Cette même approche invite à prendre en compte, pour un véhicule hydrogène, le mode de production de l’hydrogène. Pour les véhicules thermiques cela permet de s’apercevoir qu’une voiture au GNV (gaz naturel pour véhicules) émet environ 7% de moins de CO2 qu’une voiture diesel et 25% de moins qu’un véhicule essence.

Au final, pour apprécier l’ensemble des émissions de CO2 d’un véhicule, il convient de prendre en compte l’ensemble de l’analyse du cycle de vie, encore dénommé « cradle to grave ». Celle-ci prend en compte la fabrication du véhicule et de ses composants, la production et le transport de l’énergie, l’utilisation du véhicule et la fin de vie du véhicule. Un tel périmètre fait par exemple ressortir que la production des batteries des véhicules électriques (qui constitue une phase particulièrement énergivore), majoritairement réalisée aujourd’hui en Asie, augmente sérieusement le bilan carbone du VE, dans la mesure où la réponse à la demande asiatique en énergie repose principalement sur les fossiles.

Les différents périmètres possibles pour une réglementation sont ainsi résumés en trois grandes catégories : « du berceau à la tombe », « au pot d’échappement » et « du puits à la roue ».

Le VE gagnant sur tous les plans

Plusieurs études en analyse du cycle de vie ont d’ores et déjà été réalisée. La Fondation Nicolas Hulot (FNH) associée à l’European Climate Foundation (ECF) a étudié l’impact des citadines et berlines ; l’ADEME et l’IPFEN (IFP Energies nouvelles) y ont inclus les véhicules utilitaires légers et les bus et poids lourds. Enfin, Carbone4 a pris en compte la majeure partie des véhicules particuliers. Bilan, ces études montrent que le VE l’emporte sur toute la ligne. Pour l’étude FNH/ECF, l’écart d‘émissions de CO2 constaté avec les véhicules thermiques est en faveur du VE de l’ordre de 2,2 à 3,2 fois. Le document ADEME/IFPEN juge que l’écart d’émissions par rapport à la version thermique est d’environ de 2 à 6 fois moindre que la version électrique. Enfin l’étude de Carbone 4 trouve un écart de 2,6 à 4 fois moins en faveur du VE, en termes de rejets carbonés.

Laval Virtual 2019 : quel bilan tirer de la 21e édition du salon de la réalité virtuelle ?

La 21e édition de Laval Virtual, qui a fermé ses portes dimanche dernier, a accueilli quelque 18000 visiteurs (professionnels et grand public inclus), bien que les chiffres officiels ne soient pas encore arrêtés. Une affluence comparable à celle de l’an dernier, dont les organisateurs se satisfont très bien. Interrogé par Ouest France, Laurent Chrétien, directeur général de l’évènement, estime en effet que le salon a atteint une «taille parfaite», réunissant «toutes les communautés de la réalité virtuelle et augmentée : start-ups, chercheurs, fabricants, artistes, etc.»

Cette diversité se fait jour quand on traverse les différents halls de Laval Virtual. Si les applications industrielles forment toujours le pivot du salon, d’autres filières – production audiovisuelle, divertissement, santé, immobilier… – exposent désormais et démontrent à quel point la réalité virtuelle et la réalité augmentée se généralisent, depuis l’apparition des casques grand public comme l’Oculus. Pour la deuxième année consécutive, des expériences de nature artistique ont également profité d’un espace à part entière.

La réalité virtuelle s’impose de fait comme un terrain d’expression et de communication, de sensibilisation même, justifiant la création du prix «VR for a cause». «Le vainqueur, Holoforge Interactive, a modélisé le Mont Saint-Michel, la cause étant ici la protection du patrimoine, détaille Maud Oukaltoum, responsable du pôle évènementiel de Laval Virtual. Un autre projet sélectionné, Hero : A Vérité VR Experience, se consacre au conflit syrien.»

Si l’on se focalise sur l’aspect technique, on découvre comment certains casques se perfectionnent avec l’intégration du suivi rétinien. On observe aussi combien les «accessoires» se multiplient pour renforcer l’immersion : Manus VR dont les gants permettent de visualiser ses propres mains et d’interagir avec des objets 3D, Senseglove, un dispositif haptique qui reproduit des sensations tactiles quand on se saisit d’un objet… Le Virtualize Elite 2 de Cyberith est quant à lui un plan incliné qui analyse la vitesse et la direction de l’utilisateur pour simuler le déplacement de son avatar dans un environnement 3D. Les salles de jeux d’arcade ne sont pas la seule clientèle car les métiers de la sécurité civile peuvent, à l’aide d’un tel outil, se former pour intervenir à plusieurs sur un sinistre.

Des solutions livrées clé en main

En provenance d’universités et de laboratoires surtout japonais, de nombreux projets plus expérimentaux peuvent prêter à sourire : petit ventilateur chauffant fixé à un casque de réalité virtuelle pour ressentir l’arrivée d’une tempête de sable dans un désert, mécanisme «tire-nez» grâce auquel les visiteurs se retrouvent dans la peau de Pinocchio… Ces drôles de concepts stimulent toutefois l’émergence d’idées novatrices. «Ce sont les prémices de technologies à venir» explique Maud Oukaltoum.

De manière plus concrète, d’autres acteurs cherchent à simplifier les solutions existantes pour démocratiser la réalité virtuelle et prospecter une nouvelle clientèle qui ne disposent pas des moyens financiers et/ou humains adéquats. Illustration avec Diiice, une salle immersive livrée clé en main par l’intégrateur Immersion, qui peut entrer dans une pièce de 2,5 mètres sous plafond. Le prix inférieur à 50000 € HT peut convaincre une PME. La cabine de Jaluxi, offrant une surface de 9m2, s’inscrit dans une démarche comparable, bien qu’elle se destine au divertissement. Prête à l’emploi, elle est fournie avec son matériel informatique, son logiciel et son casque de réalité virtuelle. En Suisse, les magasins MediaMarkt l’utilisent pour moderniser l’expérience-client.

La réalité virtuelle et augmentée est appelée à se déployer un peu partout, donc, et le marché s’annonce florissant : IDC prévoit un chiffre d’affaire mondial et global (matériel, logiciel et service) de 215 milliards de dollars en 2021, contre 11,4 milliards en 2017. Une motivation supplémentaire pour se rendre à la prochaine édition de Laval Virtual, qui se tiendra du 22 au 26 avril 2020.

Challenge Industrie du futur : quelles startups peuvent postuler au Prix SKF ?

Pour la deuxième année, le leader international dans le domaine du roulement mécanique SKF coorganise le Challenge Industrie du Futur. Le concours, en partenariat avec Techniques de l’Ingénieur, encourage et récompense les startups qui innovent dans le monde de l’industrie.

Les 21 startups finalistes sélectionnées présenteront leur projet face à des industriels lors de la finale du 6 juin, au Campus de l’Espace. Cinq prix seront décernés selon des thématiques précises, avec des récompenses allant de 3 000 à 6 000€.

Le Prix SKF distinguera les startups qui développent des matériaux et des procédés du futur. Frédéric Ponson, program director à SKF, s’enthousiasme de découvrir les nouvelles solutions proposées par les startups : « Nous espérons avoir des propositions pour de nouveaux matériaux, de nouveaux revêtements et de nouveaux procédés, par exemple en fabrication additive ou concernant l’intégration de robots dans les usines ».

Les startups qui conçoivent des nouveaux matériaux ou des revêtements innovants à base de composites, polymères, céramiques etc. peuvent être candidates à ce prix. Les jeunes entreprises qui imaginent de nouveaux procédés pour créer l’usine du futur sont également attendues dans cette catégorie.

La startup sélectionnée gagnera un chèque de 3 000€, en plus de l’accompagnement des entreprises partenaires dont bénéficient tous les finalistes.

 

Le Grand carénage d’EDF : un chantier industriel d’ampleur

Philippe Sasseigne, le directeur du parc nucléaire et thermique, a rappelé que le Grand carénage vise à maintenir le parc nucléaire dans la durée. « Il s’agit d’un axe fort de stratégie économique d’EDF pour contribuer à la transition énergétique. Une transition dont l’objectif est de décarboner l’énergie et en particulier l’électricité ». Cette stratégie Cap 2030 a aussi pour objet de renforcer la place de leader d’EDF en matière d’énergies bas carbone dans la durée, en se fondant sur la complémentarité entre les énergies renouvelables et le nucléaire. Une stratégie qui se trouve confortée par la programmation pluriannuelle de l’énergie (PPE), laquelle permet la prolongation de réacteurs, en réduisant la part du nucléaire dans l’électricité à l’horizon 2035 à 50%, contre 75% aujourd’hui, mais aussi qui ne ferme pas la porte à la possibilité de construire de nouveaux réacteurs, donnant deux ans à EDF pour se préparer pour l’avenir.

Le Grand carénage

Le programme Grand carénage recouvre tout à la fois la mise à niveau de la totalité du parc de réacteurs de 900 MW à l’âge de 40 ans et leur prolongement de 10 ans au départ, mais aussi la maintenance habituelle du parc (par exemple, des examens périodiques tous les dix ans des réacteurs de l’ensemble du parc nucléaire) et les mesures post-Fukushima demandées par l’autorité de sûreté nucléaire française  (ASN – Autorité de sûreté nucléaire), a signalé Emmanuelle Verger, directrice gestion-finance à la direction du parc nucléaire et thermique d’EDF, lors de la convention SFEN.

Des impératifs de sûreté

De son côté, Julien Collet, directeur général adjoint de l’ASN, a détaillé les enjeux en termes de sûreté de ce grand carénage. Rappelant d’abord que les quatrièmes visites décennales sur le parc 900 MW vont rester inégalées par leur ampleur et par le volume de travaux réclamés à EDF dans la mesure où plusieurs réacteurs atteindront les 40 ans en même temps, J. Collet a souligné que le Grand carénage devait intégrer plusieurs aspects. D’abord, il a souligné que les 40 ans constituent une échéance technologique et pas un couperet, signalant qu’il s’agissait d’une hypothèse de conception. L’objectif est donc de qualifier les équipements dans la durée, notamment la cuve du réacteur. L’échéance technologique vise à traiter l’obsolescence de certains équipements – ce pas uniquement sur le plan de la sûreté – et donc parfois de remplacer ou de mettre à niveau différents éléments. En termes de sûreté, il s’agit notamment de vérifier la conformité des installations, donc le respect du référentiel de départ, notamment à l’aune d’événements récents sur le parc 900 MW qui ont fait apparaître certains écarts.

Ensuite, le Grand carénage prend en compte le retour d’expérience de Fukushima, l’objectif poursuivi étant d’éliminer les risques de fusion du cœur, d’éviter les vidanges des piscines (comme cela a été le cas à Fukushima) et de disposer à tout moment d’eau pour refroidir les installations. Cela se traduit par la mise en œuvre de moyens mobiles d’intervention (la Force d’action rapide nucléaire – FARN), mais aussi l’installation de diesels d’ultime secours afin de maintenir l’approvisionnement en eau en cas d’accident, d’un centre de crise bunkerisé, ainsi que par une modification d’équipements, par exemple la distribution d’électricité et le contrôle commande.

Ensuite, une réévaluation du niveau de sûreté, qui vise plus particulièrement, en France à se rapprocher le plus possible de l’installation la plus récente du parc, c’est-à-dire des critères de sûreté de l’EPR. Ce qui implique des aménagements dans les réacteurs datant de 40 ans et de nombreuses phases de démonstration que cet objectif est bien atteint.

Un changement du cadre de la réglementation est également en place, depuis la loi de transition énergétique de 2015, avec l’obligation de procéder à des enquêtes publiques. Enfin, J. Collet a souligné que le calendrier du Grand carénage est contraint, puisque la mise en œuvre des éléments liés au retour d’expérience de Fukushima a différé le début des travaux proprement dits de prolongation du parc. En 2020, l’ASN rendra un avis dit « générique » pour l’ensemble des prescriptions applicables sur le parc 900 MW, avant la déclinaison réacteur par réacteur. Mais dans le même temps, la première visite décennale aura lieu à Tricastin 1, dès cette année, indique J. Collet.

Une opération rentable

Une série d’opérations sur la période 2014-2015 qui mobilise toute la filière nucléaire, soit près de 2 600 entreprises en France et quelque 220 000 emplois, a insisté P. Sasseigne.

Son coût est maintenant estimé à environ 45 milliards d’euros (51 milliards de dollars, soit 48 milliards d’euros en 2015 euros). Depuis le début du plan, en 2014, le coût du Grand carénage a été réduit de 10 milliards d’€, compte tenu du fait que le gouvernement a annoncé la fermeture de deux réacteurs à Fessenheim, mais aussi grâce à la réduction des coûts obtenue par le management de projet mis en place par EDF (soit deux tiers de cette réduction).

La maintenance courante représente environ 21 milliards d’euros de ce coût. Le Grand carénage s’élève ainsi autour d’un milliard d’euros par an sur la base d’une production d’environ 400 TWh/an, soit environ 2 €/MWh à 2,5 € /MWh, a indiqué E. Verger.

Même s’il est difficile de prévoir un prix de l’électricité sur le marché dans les 10 à 15 prochaines années, EDF s’attend à un retour sur investissement à deux chiffres grâce à ce programme, d’ici 2025, a insisté E. Verger.

 « Il est évident que le prix de l’électricité sur le marché est un fait hautement dimensionnant, mais du point de vue actuel, aucun argument économique ne permet d’affirmer qu’il n’y a pas de raison de ne pas prolonger la durée de vie du parc », conclut-elle

Quand chercheurs et citoyens coopèrent

Cet article a été co-écrit par Bertrand Bocquet, Martine Legris (Univ. Lille, CNRS, UMR 8026, Centre d’etudes et de recherches administratives, politiques et sociales, Lille), Mireille Havez (Maison régionale de l’environnement et des solidarités, Lille), Bénédicte Lefebvre (Univ. Lille, CNRS, UMR 8019, Centre lillois d’études et de recherches sociologiques et économiques) et Florence Ienna (COMUE Lille Nord de France, mission culture, patrimoine, société, F-59658 Villeneuve-d’Ascq).


Les science shops, boutique des sciences en français, sont des dispositifs indépendants qui permettent aux organisations de la société civile d’accéder à la recherche académique. Mais il ne s’agit pas ici de mobiliser les citoyens pour des projets de recherche. Ce sont les personnels de la recherche qui se mobilisent pour répondre aux demandes de la société. Une coopération fructueuse à la fois pour les citoyens qui développent leurs compétences et leur « pouvoir d’agir » et pour les scientifiques qui accèdent à des questions et des terrains d’études originaux tout en contribuant à résoudre des problèmes concrets. Comment organiser cette coopération ? C’est l’objet principal des science shops.

De nouveaux rapports entre chercheurs et citoyens

La vulgarisation scientifique est souvent vécue comme une communication des chercheurs vers le public. Mais face aux grands défis sociétaux, une demande de plus en plus forte émane de la société civile pour un dialogue bilatéral. La simple publication des résultats scientifiques et une communication à sens unique ne sont pas des réponses suffisantes à une telle demande.

Sous le double effet de la montée en puissance des dispositifs de démocratie participative, d’une part, et des politiques nationales et européennes d’ouverture de la recherche, d’autre part, on assiste aujourd’hui à de profondes transformations des rapports entre sciences et sociétés, qui se veulent plus coopératifs comme le souligne au niveau national le rapport Houllier sur les sciences et recherches participatives paru en février 2016. Dans ce rapport, les sciences participatives sont définies « comme les formes de production de connaissances scientifiques auxquelles des acteurs non-scientifiques-professionnels, qu’il s’agisse d’individus ou de groupes, participent de façon active et délibérée. »

Les sciences participatives ont pris un essor au cours des quinze dernières années notamment via des plates-formes numériques en ligne, permettant à tout un chacun de participer à des projets de recherche. Les participants sont mis à contribution pour la collecte de grande quantité de données (échantillons, photographies, informations géolocalisées) ou bien pour le traitement de données (par exemple via des jeux ou la mise à disposition d’une partie de la puissance de calcul de son ordinateur). Les exemples se multiplient.

Ces évolutions donnent lieu au développement de pratiques de recherches originales, mobilisant les énergies, savoirs et savoir-faire de la société civile aux côtés de la recherche académique. Ces partenariats suscitent aujourd’hui largement l’attention des pouvoirs publics et des instances de programmation de la recherche et font l’objet d’analyses à différents niveaux institutionnels (régional, national, européen).

Un concept qui n’est pas nouveau

Il existe un format de coopération entre chercheurs et citoyens, peu connu en France, qui accompagne les parties prenantes dans un travail non plus seulement de participation mais sur la création des savoirs, sur le travail de recherche en lui-même : les boutiques des sciences. Celles-ci se positionnent en tant qu’interface entre des organisations de la société civile qui ont une visée d’intérêt général (collectifs de citoyens, associations, établissements scolaires, conseils de quartier…) et la recherche académique (enseignants-chercheurs, ingénieurs de recherche, doctorants, étudiants). Ces boutiques sont de petites entités, sans but lucratif, qui accompagnent les recherches quelles que soient les disciplines, gratuitement et sur demande des organisations locales. Le fait de répondre aux besoins de la société par un processus ascendant est un élément clé qui les distingue des autres mécanismes de transfert de connaissances.

Les demandes des organisations de la société civile sont de l’ordre de la méthodologie, de l’expertise et de la recherche scientifique. Les boutiques des sciences aident ces organisations à traduire leur demande afin qu’elles accèdent à la recherche académique dans le cadre d’un véritable partenariat, puis accompagnent les acteurs tout au long du processus de recherche. Dans la recherche collective pour trouver des réponses aux questions posées, de nouvelles connaissances sont générées ou bien les connaissances existantes sont combinées et adaptées pour répondre à des objets de recherche plus transversaux.

Le concept est né dans les années 70 aux Pays-Bas et aux États-Unis. Puis il se développe dans les années 80 dans huit autres pays en Europe, dont la France. Dans les années 90, le concept essaime dans le monde entier (Canada, Corée du Sud, Afrique du Sud, Nouvelle-Zélande, Malaisie). Il continue de se développer en Europe dans les années 2000. Aujourd’hui plus d’une quarantaine de pays sont concernés. En France le concept renaît en 2005 à l’ENS Cachan portée par des étudiants avec l’aide de l’Association Sciences Citoyennes.

Boutique des sciences, nord de France, Author provided

Puis grâce à l’action du réseau mondial des boutiques des sciences, Living Knowledge, et du programme européen « Science with and for society » trois boutiques sont créées : la première en 2011 à Grenoble porté par une association, la seconde en 2013 à Lyon portée par l’Université de Lyon et la troisième en 2015 à Lille portée par la ComUE Lille Nord de France et la Maison européenne des sciences de l’homme et de la société (MESHS). Une nouvelle boutique est également en cours de création à Montpellier portée par la MSH Sud.

Depuis les années 2000, les boutiques des sciences sont soutenues par la Commission européenne via les appels à projets. On peut citer dernièrement le projet InSPIRES du programme H2020 « Science with and for society ».

Des modèles adaptés aux contextes locaux

Il existe de nombreux modèles dans la manière dont les boutiques des sciences sont organisées et fonctionnent puisqu’elles dépendent fortement des contextes locaux dans lesquels elles se situent. On peut néanmoins définir deux structures organisationnelles dominantes : celles portées par une association et celles portées par des structures universitaires. Les formats de projets mis en œuvre pour répondre aux demandes peuvent être des stages d’étudiants en master 2 recherche (Lyon, Lille), des projets intégrés dans les cours de l’université quel que soit le niveau (Québec), des recherche-action (Grenoble).

Le terme science est utilisé dans son sens le plus large, englobant les sciences sociales et humaines, ainsi que les sciences naturelles, physiques, de génie et techniques. Voici quelques exemples de sujets ayant été traités par les boutiques des sciences françaises : analyse des causes de mortalité hivernale des abeilles ; la trame verte et bleue dans le bassin minier : quelle appropriation par les habitants ; étude des nuisances sonores nocturnes d’éoliennes ; l’engagement associatif des femmes issues des migrations subsahariennes ; transmission de l’histoire des luttes des immigrations (et des quartiers populaires) ; les projets de coopération internationale : diagnostic d’une base de données associatives.

Un véritable travail de coopération où chacun apporte son expertise

Comment induire une coopération entre des parties prenantes qui ont des fonctionnements, des cultures et des attentes très différents ? C’est toute l’originalité du travail d’accompagnement proposé par les équipes des boutiques des sciences. Nous prenons ci-dessous plus spécifiquement le cas de la boutique des sciences Lille Nord de France où les projets se formalisent par des stages d’étudiant en master 2 avec un double tutorat associatif/chercheur d’une durée de six mois. La coopération repose sur l’engagement à respecter les objectifs des différentes parties prenantes :

  • offrir au chercheur un sujet de recherche original qui peut donner lieu à une publication,
  • offrir à l’étudiant un travail de stage de recherche, directement utile à la société et en lien avec des professionnels en dehors des laboratoires, qui valorise son projet professionnel,
  • offrir à l’association une méthodologie et des connaissances qui lui permettent une première réponse à la question posée, de mieux comprendre son terrain et de faire évoluer ses pratiques et ses activités.

Tout d’abord un travail de sollicitation de la demande est nécessaire : rencontrer les acteurs associatifs pour faire connaître et expliquer le dispositif. Toutes les associations ne sont pas éligibles. Elles doivent servir l’intérêt général, être à but non lucratif et être en capacité d’accueillir un étudiant en stage pendant six mois. Ensuite lorsque des demandes sont formulées, des rencontres entre la boutique des sciences et les associations ont lieu pour comprendre les demandes et les traduire ensemble en questions de recherche. Cette première étape est enrichissante pour les associations qui découvrent alors un autre regard porté sur leur sujet d’étude leur permettant ainsi une prise de recul.

Une fois la question formulée, la boutique des sciences sollicite des équipes de recherche qui pourraient être concernées de par leur discipline. L’enseignant-chercheur intéressé par le sujet doit être en mesure d’encadrer un étudiant et de participer aux rencontres avec l’association.

Une fois tous les protagonistes trouvés, la boutique des sciences les accompagne et suit le projet jusqu’à la fin. L’étudiant s’engage à rédiger un document synthétique et accessible, destiné à l’appropriation des savoirs par les acteurs associatifs, en plus de son mémoire de recherche. Les parties prenantes s’engagent à organiser un rendu public des résultats.

Les résultats sont publics, accessibles à tous, pouvant ainsi être repris par d’autres organisations et d’autres chercheurs. À la fin de la collaboration, le demandeur doit être capable de s’approprier et d’utiliser les résultats.

Une recherche avec et pour la société

Ce dispositif original est une opportunité pour le secteur associatif de mieux comprendre son terrain et donc de modifier son activité, de développer son « pouvoir d’agir ». Il lui permet également de mieux comprendre les démarches scientifiques, le champ d’action de la recherche et ses limites. Pour la communauté scientifique (chercheur·e·s et étudiant·e·s), c’est un moyen d’accéder à des terrains et des sujets de recherche encore peu étudiés, faisant ainsi évoluer leurs disciplines, tout en étant directement en lien avec les questions issues de la société. Les boutiques des sciences permettent un enrichissement croisé, et favorisent les approches interdisciplinaires. Elles reposent sur un engagement mutuel fondé sur le bien commun et basé sur une éthique de la recherche, qui met les différents types de connaissances en dialogue et les partenaires dans un rapport de parité.The Conversation

Par Bertrand Bocquet, Professeur des Universités, Physique & Science, Technologie et Société, Université de Lille et expert chez Techniques de l’Ingénieur

Les matériaux autoréparants en phase de décollage

Depuis le début des années 2000, les chercheurs du monde entier développent des matériaux dits autoréparants.

De manière plutôt étonnante, le besoin de créer ce type de matériau est apparu quand les mécanismes de tests pour repérer les défauts dans les structures ont montré leurs limites.

Plutôt que de développer des techniques très onéreuses pour repérer des défauts minuscules au sein de grandes structures (des ailes d’avion par exemple, où un défaut de fabrication peut entrainer des pertes en vies humaines), les chercheurs ont misé sur la mise au point de matériaux ayant les capacités de « réparer » seuls ces défauts.

L’exemple ultime de matériaux autoréparant est bien sûr la peau humaine. Et pourtant notre épiderme porte aussi en lui les germes d’un matériau qui cesse petit à petit de fonctionner.

Le vieillissement d’abord: la plupart des matériaux se décomposent progressivement, parfois sur une très longue période.

Après, l’usure: la plupart des matériaux s’usent progressivement en raison d’une utilisation constante.

Enfin, les défauts: certains matériaux se cassent brusquement et de manière très inattendue lorsque des forces appliquées (contraintes et déformations) entrainent une propagation rapide des fractures internes (généralement de minuscules fissures ou d’autres défauts à l’intérieur).

Bien sûr, les défauts constituent le plus grand défi pour les chercheurs, au vu de leurs conséquences en cas de casse pendant l’utilisation réelle du matériau.

D’où la quête d’un matériau qui se répare automatiquement, c’est-à-dire sans diagnostic préalable et avant aggravation du défaut.

Les premiers matériaux auto-cicatrisants (2001) étaient des polymères avec une sorte d’adhésif interne intégré. Depuis, divers matériaux autoréparables ont été mis au point. Il en existe quatre types principaux :

  • des matériaux contenant des «agents réparant»;
  • matériaux avec une sorte de circulation interne «vasculaire» analogue au sang;
  • matériaux à mémoire de forme;
  • polymères réversibles.

Les agents réparant intégrés

Les matériaux auto-cicatrisants les plus connus ont des microcapsules intégrées remplies d’un produit chimique semblable à de la colle. Si le matériau se fissure à l’intérieur, les capsules s’ouvrent, le matériau de réparation «s’évacue» et la fissure se colmate. Il fonctionne de manière similaire à l’époxy, fourni sous la forme de deux polymères liquides dans des récipients séparés. Lorsqu’on mélange les liquides, une réaction chimique se produit et un adhésif puissant (un copolymère) se forme.

Les matériaux auto-cicatrisants peuvent utiliser des capsules incorporées de différentes façons. L’approche la plus simple consiste pour les capsules à libérer un adhésif qui remplit simplement la fissure et lie le matériau ensemble.

Le principal inconvénient de la méthode d’encapsulation est que les capsules doivent être très petites pour ne pas affaiblir la structure qu’elles composent. Aussi, elles ne peuvent agir qu’une seule fois.

Les matériaux microvasculaires

Comme son nom l’indique, ce matériau tire son efficacité via des tubes vasculaires très minces qui permettent de pomper les agents réparants à un endroits pour les orienter vers une fissure ou autre.

Les tubes mènent dans des réservoirs sous pression. En cas de défaillance, la pression est libérée à une extrémité du tube, ce qui permet à l’agent réparant de pomper à l’endroit où il est nécessaire. Cette méthode permet de sceller les fissures jusqu’à dix fois la taille de la méthode des microcapsules, mais elle fonctionne plus lentement, car le matériau de réparation doit ensuite se déplacer. Cela pourrait poser problème si une fissure se propage plus rapidement que sa réparation. Mais dans un gratte-ciel par exemple, ou un pont, où une défaillance peut apparaître et se propager au fil des mois ou des années, un système de tubes de réparation intégrés pourrait certainement bien fonctionner.

Les matériaux de mémoire de forme

Les matériaux à mémoire de forme ont besoin d’énergie – de chaleur en général – pour retrouver leur forme originelle.

En pratique, un réseau intégré de câbles à fibres optiques peut être utilisé, similaire aux réseaux vasculaires utilisés dans d’autres matériaux autoréparables. Mais au lieu de gonfler un polymère ou un adhésif, ces tubes sont utilisés pour alimenter en lumière laser et énergie thermique la zone où un défaut est présent.

Comment les tubes savent-ils où livrer leur lumière? Si le matériau se fissure, il fissure également les tubes de fibre optique encastrés à l’intérieur, de sorte que la lumière laser qu’ils transportent fuit directement au point de défaillance.

Les polymères réversibles

Les polymères n’ont pas toujours besoin de systèmes internes sophistiqués, tels que des capsules intégrées ou les tubes vasculaires, pour réparer les dommages internes.

Concrètement, certains se séparent pour révéler ce qu’on pourrait considérer comme des extrémités hautement «réactives» ou des fragments qui tentent naturellement de se rejoindre. Excités par la lumière ou par la chaleur, ces fragments «errants» tentent naturellement de se lier à d’autres molécules à proximité, inversant ainsi les dommages et réparant le matériau : certains se cassent pour exposer des extrémités chargées électriquement, ce qui confère aux fragments brisés une attraction électrostatique intégrée. En cas de dommage, des forces électrostatiques rassemblent les fragments, permettant au matériau de s’autoréparer.

Polymères supramoléculaires autoréparables

Les matériaux, au cours de leur cycle de vie (durée de service), subissent en général de nombreuses sollicitations qui les endommagent. Or, l’opération de remplacement est coûteuse, voire impossible dans certain cas. Il serait intéressant, par exemple, qu’un satellite puisse s’autoréparer suite à un impact, qu’un avion soit capable de combler ses fissures en attendant la prochaine inspection, ou encore qu’une prothèse soit en mesure de s’autoréparer pour éviter une opération. De plus, en Europe, environ 40 % des matières plastiques terminent leur vie sous forme de déchets ultimes n’étant ni recyclées ni transformées en énergie.

La capacité des systèmes naturels ou artificiels, à se guérir spontanément après dommages tout en gardant leurs fonctions, est une caractéristique importante pour leur durabilité. L’autoguérison est très commune dans les systèmes biologiques. On peut citer la guérison de la peau blessée ou encore la réparation de l’ADN, comme le confirme les travaux de T. Lindahl, prix Nobel de chimie en 2015. Inspirés par cela, les systèmes autoréparables, appelés aussi autocicatrisants, ont été largement explorés depuis 15 ans. Suite à une dégradation (thermique, mécanique, chimique…), ces matériaux déclenchent spontanément, ou sous l’effet d’un stimulus externe, un processus physicochimique d’autoréparation pour restaurer leurs propriétés initiales. Ce processus permet ainsi d’augmenter leur durée de vie.

Un des premiers modèles synthétiques de ces matériaux a été proposé par White et al. en 2001 à partir de matériaux polymères composites incorporant un catalyseur et des capsules contenant un agent réparant. L’inconvénient de cette méthode repose sur le fait qu’une même région du matériau ne peut plus être réparée dès lors que la capsule d’agent actif a été consommée. Même si des améliorations ont été proposées, ces matériaux reposent sur des systèmes relativement complexes. De plus, la réparation modifie également leurs propriétés mécaniques, ce qui en limite le champ d’applications.

Aussi, un intérêt croissant est porté sur une deuxième famille de matériaux autoréparables obtenus via une réticulation réversible. Ces derniers présentent l’avantage, en théorie, de pouvoir être fracturés et réparés autant de fois que possible. Cette famille se divise en deux groupes selon que leur réticulation réversible est obtenue par liaison covalente ou par liaison non covalente.

De nombreux polymères supramoléculaires autoréparables de ce type ont été développés en laboratoire. Ces polymères possèdent comme caractéristique commune d’être intrinsèquement autoréparables, c’est-à-dire qu’ils cicatrisent grâce à leurs propriétés chimiques sans avoir recours à un agent cicatrisant stocké séparément. Certains polymères ont besoin d’un stimulus extérieur pour s’auto-réparer comme la température, d’autres en revanche sont autonomes. Dans ce dernier cas, il est important que les polymères aient une faible température de transition vitreuse. Celle-ci garantit en effet la mobilité et la dynamique des molécules favorisant l’autoréparation. Toutefois, cette température ne doit pas être trop faible pour que les liaisons non covalentes libres restent à la surface de la zone coupée afin de permettre la cicatrisation. Pour les polymères présentant une structure semi-cristalline ou cristalline, il est en plus nécessaire de supprimer la cristallinité du polymère dans la zone fracturée, afin de permettre aux liaisons non covalentes de se reformer. Le temps d’attente avant que les faces soient remises en contact joue un rôle capital. Ce temps s’étend de la minute à plusieurs heures dans le meilleur des cas. Mais, plus ce temps d’attente est faible et meilleure est l’efficacité d’autoréparation.

Aujourd’hui, deux produits issus de ces recherches sont sur le marché dans le domaine des caoutchoucs portant les marques Reverlink®  et SupraB™ .

La conception de ces polymères continue d’être améliorée pour répondre aux besoins du marché notamment en augmentant leur rigidité. Plusieurs stratégies sont étudiées, qui se focalisent notamment sur l’incorporation de nanoparticules. Ces derniers systèmes présentent souvent la particularité de s’autoréparer à température ambiante sous rayonnement UV ou IR.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 19 avril !

Polymères supramoléculaires autoréparables, un article de David PRORIOL

Matériaux programmables : le potentiel des polymères

Les matériaux dits intelligents, et parmi eux les matériaux programmables sont un défi à l’imagination des chercheurs et des industriels.

Comme pour les matériaux autoréparants, inventés à l’origine pour économiser des coûts de tests de résistance très onéreux et limités en précision, les matériaux programmables ont été développés pour éviter d’avoir utiliser massivement des mécanismes robotiques afin de rendre les matériaux dynamiques. Et ainsi élargir leur potentiel applicatif.

Les polymères sont le chaînon de base de matériaux très utilisés par l’industrie : bois, cuir, peintures, colles, plastiques… Tous ces matériaux sont candidats à la « reprogrammation ».

Pour déverrouiller le potentiel programmable d’un matériau, il faut tenir compte de ses caractéristiques naturelles. Pour obtenir des transformations précises et prévisibles à partir d’un matériau, il est nécessaire de le structurer d’une manière particulière, puis de l’activer avec de l’énergie.

Le type d’énergie nécessaire varie selon le matériau choisi. Cela peut être la température, l’humidité, la lumière, la pression, les vibrations et l’électricité.

L’exemple du bois

Prenons l’exemple du bois, qui réagit bien à l’eau. La cellulose se dilate lorsqu’elle est mouillée, et a pour effet de faire gonfler le bois. Suffisamment pour imaginer insérer des morceaux de bois dans des fissures dans la roche et les humidifier pour aider les mineurs à briser la pierre, par exemple.

Pour plus de précision, la structure des polymères est analysée pour prévoir les déformations et in fine les programmer.

Le secteur du textile utilise également des polymères qui peuvent être programmés, avec pour effet principal de proposer des structures capables de passer d’une forme 2D aplatie à une forme 3D complexe.

Aujourd’hui, la tendance évolue vers des matériaux composés d’une matrice de polymère dans laquelle on noie des fibres. Cela permet d’obtenir des matériaux composites qui allient résistance et légèreté.

Alliés à des capteurs et des actionneurs (sous forme de circuits électroniques), on obtient alors des composites capables de contrôler les vibrations et les ondes acoustiques qui les traversent et ainsi repérer l’apparition de défauts… ou encore de fabriquer de l’énergie par exemple.

L’enjeu de la miniaturisation des capteurs

Ces composites et la miniaturisation des capteurs et des actionneurs permettent de fonder beaucoup d’espoirs en ce qui concerne le développement de dispositifs antivibratoires qui permettraient de rallonger la durée de vie des systèmes mécaniques en les rendant également plus confortables à l’usage.

Les secteurs intéressés en premier chef par ces matériaux sont l’automobile, la construction mais surtout l’aviation. En effet, en considérant le matériau comme un système, il devient possible de le programmer pour répondre instantanément aux sollicitations de son environnement.

Ainsi les avions pourraient devenir des structures entièrement interconnectées et qui évoluent pour s’adapter aux contraintes : température, humidité, vent… ceci afin de soulager au maximum la structure de l’avion.

Côté construction, on imagine facilement l’intérêt du développement de tels matériaux. Des procédés d’écoute acoustique permettent de jauger l’état d’une structure, via l’écoute passive des signaux acoustiques émis dans le matériau suite à l’apparition d’un défaut.

Incontestablement les débouchés industriels sont immenses, mais pour le moment, comme en ce qui concerne les matériaux autoréparants, les prix de fabrication ne suivent pas encore. Pour le moment.

Le béton sous haute pression

L’enjeu industriel est ici important, car la pression autour des émissions de CO2 liées à sa fabrication font du béton – et surtout du ciment – un matériau condamné à évoluer rapidement.

On estime entre 5 et 7% aujourd’hui la part de la fabrication de béton dans les émissions totales de CO2 au niveau mondial.

Tout porte à croire que la pression écologique autour des émissions de CO2 obligera à limiter la production de ciment dans les prochaines années. Pourtant la demande est là. Les besoins en ciment sont très importants, et il n’est pas question aujourd’hui de trouver une alternative mais plutôt un ciment qui produirait le moins de gaz à effet de serre possible durant son cycle de vie.

L’enjeu autour du clinker

Au cours du cycle de vie du béton, le processus le plus émetteur de CO2 est la fabrication du ciment. En effet, la production du clinker, principal composant du ciment, est très énergivore. Elle consiste à chauffer à environ 1500 degrés un mélange de calcaire (80%) et de matériaux aluminosilicates (20%). Ainsi, la fabrication d’une tonne de clinker produit 900 tonnes de CO2. A cela s’ajoute l’extraction de 1,6 tonne des matières constituant le clinker.

C’est à ce niveau du cycle de vie que le potentiel de réduction de l’empreinte carbone lié à la production du béton est le plus important.

C’est donc à ce stade là que se concentrent les recherches.

Aujourd’hui le ciment classique – Portland – est de loin le plus utilisé et le plus polluant. Il est composé à 95% de clinker. Il est apprécié car il est économique, de grande qualité et très résistant pour la fabrication de béton armé par exemple.

Les tentatives pour mettre au point des bétons alternatifs moins impactant dans leur fabrication sont nombreuses.

Mettre au point un béton compétitif en termes de prix

D’abord, les ajouts cimentaires. Il s’agit d’obtenir un béton mélangé en y incorporant des produits résiduaires d’autres industries destinés aux sites d’enfouissement. Les ajouts cimentaires les plus utilisés sont :

  • la fumée de silice ;
  • les cendres volantes ;
  • le laitier de haut fourneau.

Ensuite, le ciment argile. Sa particularité est d’être produit à froid via un procédé d’activation alcaline. La réaction moléculaire, qui se fait à froid, est naturelle et ne nécessite aucun produit issu de la pétrochimie. Cette technologie, issue des géopolymères, se résume en fait à recréer de la pierre à partir de l’argile.

Autre exemple, le fibrociment. Pour sa fabrication, on utilise du ciment et des fibres minérales. Cela permet d’utiliser beaucoup moins de ciment, parfois jusqu’à 50%.

Les matériaux les plus utilisés pour le béton fibré sont les cendres de fumier, les déchets domestiques ou la gomme de pneu usé.

Enfin, une start up a également mis au point un composite bas carbone à partir de sable du désert – une ressource abondante – qui remplace une partie du ciment et permet de réduire de 50% le bilan carbone associé à la production du béton.

Une utilisation encore très large du Portland

Si les performances de ces bétons alternatifs sont de plus en plus intéressantes, force est de constater que le secteur du bâtiment utilise encore très majoritairement le béton Portland. Preuve que les solutions existantes doivent encore être affinées pour que leur prix baisse.

Car techniquement, on arrive aujourd’hui à proposer, grâce aux mélanges, des bétons avec des propriétés innovantes – légèreté, isolation phonique, thermique, durabilité… dont l’utilisation s’avère plus pertinente que le Portland contextuellement. C’est en termes de prix que doit désormais s’opérer la marche en avant.

Comment conclure sans faire mention des bétons « absorbeurs de CO2 ». Ces bétons consomment du CO2 pendant leur processus de durcissement, et ont tendance à être moins demandeurs en termes de consommation d’eau. Même si les performances de ces bétons s’améliorent et permettent d’obtenir des cycles de vie du produit intéressant écologiquement, le problème reste le même que pour les autres bétons alternatifs : le prix.

Aujourd’hui, les « meilleurs » bétons pour l’environnement ont une empreinte carbone entre 25 et 6O% moins importante que le béton Portland, selon les bétons. Les fourchettes de gain varient énormément. Mais l’enjeu est clair, réduite l’empreinte et le prix du béton.

D’autant plus que le béton reste un matériau nécessaire dans la conduction de la transition énergétique : les fondations des éoliennes, les centrales électriques, les barrages… tous ces outils pour développer une production d’énergie « renouvelable » sont composés en grande partie de béton.

Le graphène n’en finit pas de s’imposer

La téléphonie s’intéresse de près à la recherche sur le graphène. Pour plusieurs raisons. D’abord pour les connections : Possédant une conductivité électrique et thermique deux fois plus importante que le cuivre, l’usage du graphène permettrait d’obtenir des connexions WIFI 100 fois plus performantes.

C’est aussi au niveau des transistors que le graphène pourrait se révéler indispensable… en remplaçant le silicium. En effet on estime que ce dernier aura atteint ses limites en termes de miniaturisation dans une dizaine d’années, et le graphène est le candidat parfait pour le remplacer. D’ailleurs le transistor le plus petit du monde est en graphène : il fait un atome d’épaisseur pour 10 de largeur !

Une vitesse de transmission très au dessus de la moyenne

C’est en particulier la vitesse de transmission électronique 30 fois plus importante que celle du silicium qui fait du graphène une solution à fort potentiel dans un secteur industriel névralgique.

Les technologies de batterie et de stockage de l’énergie pourraient également voir leur efficience grimper en flèche via l’usage du graphène.

Si on devait miser sur un secteur industriel dont le graphène va révolutionner les codes, la santé serait un candidat tout à fait crédible. En effet, si les implants bioniques à base de graphène sont encore du domaine de la science fiction, la recherche a fait une découverte surprenante : le graphène est très bien accepté par nos tissus biologiques et montre une capacité exceptionnelle à interagir avec eux.

Un potentiel encore mal connu

Il n’a été jusqu’ici exploité que combiné à d’autres éléments comme le gaz, les métaux ou d’autres sources de carbone. Mais depuis, les chercheurs testent le graphène afin de créer des antennes, des filtres d’eau de mer, des fenêtres, de la peinture, des ailes d’avion, des raquettes de tennis, des  système de séquençage d’ADN, des pneus, de l’encre et bien d’autres choses encore.

Si les propriétés du graphène sont de mieux en mieux comprises par les chercheurs, les applications industrielles potentielles semblent difficiles à cerner tellement elles sont larges : filtration de l’eau de mer, peinture, pneus, internet des objets, structures d’avions…

Laval Virtual 2019 : le suivi rétinien, nouvelle tendance des casques de réalité virtuelle

Le salon Laval Virtual est généralement l’occasion d’entrer en contact avec une nouvelle génération de casques de réalité virtuelle, et cette édition 2019 s’est pliée à la règle. Ou presque… Car nulle part, même sur le stand de Microsoft, on ne trouvait trace du HoloLens 2.0, la dernière version du casque de réalité augmentée dont le Mobile World Congress de Barcelone avait eu la primeur il y a quelques semaines. D’autres modèles en ont profité pour retenir l’attention des visiteurs, notamment le Pimax, qui se montrait pour la première fois dans la Mayenne.

L’entreprise chinoise du même nom, qui cible en priorité le grand public, promeut un large champ de vision (200°), pour favoriser l’immersion, et la réalité virtuelle en haute voire en très haute définition. Ainsi, l’un de ses derniers modèles arbore le sigle 8K, bien qu’il comporte en réalité deux écrans de définition 4K (soit 3840×2160 pixels chacun), ce qui n’est pas du tout la même chose qu’un écran 8K (plus de 30 millions de pixels). Une définition supérieure signifie une netteté supérieure, un critère d’autant plus important quand l’écran se situe à quelques centimètres des yeux.

Alléger les calculs 3D

Revers de la médaille : la puissance de traitement requise s’amplifie. Les images 3D calculées pour chaque œil doivent en effet s’enchaîner de façon fluide, avec peu ou pas de latence, pour que l’expérience demeure agréable.  A moins de posséder une machine de guerre, il est difficile d’espérer obtenir les taux de rafraîchissement conseillés, entre 60 et 90 Hz. C’est la raison pour laquelle le rendu fovéal se développe : seule la portion d’image dans la direction du regard bénéficie d’une définition optimale, afin d’alléger la charge de la station de travail reliée au casque. Schématiquement, cette technique repose sur l’analyse de la réflexion d’un signal infrarouge par la rétine. Un suivi rétinien qui, par ailleurs, intéresse les formateurs faisant usage de la réalité virtuelle : ils savent où regardent les personnes.

Le casque StarVR a été l’un des pionniers en la matière, mais son avenir est compromis, l’entreprise éprouvant des difficultés à financer le projet. Le Vive Pro Eye, dévoilé dernièrement par HTC et présent à Laval Virtual, fonctionne selon un principe similaire. Il en va de même pour le VR-1 conçu par l’entreprise finlandaise Varjo, dont un exemplaire était exposé sur le stand de l’intégrateur Immersion, qui en assure aussi la distribution. Le VR-1 combine deux écrans pour chaque œil. Le premier, d’une définition de 1440×1600 pixels, est réservé à la vision périphérique, tandis que le second, en Full HD (1920×1080 pixels), occupe le centre du regard, lequel est détecté par un dispositif de suivi rétinien (qui serait le plus précis à ce jour, selon Varjo). Il en résulte une définition de 60 pixels par degré d’angle à l’endroit de l’image où les yeux convergent. Le champ de vision total s’étend quant à lui sur 87 degrés.

Mis à l’essai, le casque VR-1 se révèle en effet satisfaisant. Dans un cockpit d’avion, les chiffres, instructions et autre cadrans placés sous le regard apparaissent immédiatement de façon lisible. Voilà qui pourrait plaire aux instructeurs et formateurs dans l’aéronautique et ailleurs, eux qui se plaignent habituellement de la définition insuffisante des casques se destinant au grand public et au «prosumer». Vendu près de 7000 € avec sa licence, le VR-1 se veut plus professionnel.

Soutien opérationnel à l’entrepreneuriat étudiant

Le support qu’il faut mettre en place pour ces entreprises est très différent de celui couramment mis en œuvre pour des entrepreneurs ayant eu une vie professionnelle en tant que salariés avant d’entreprendre. Les deux types de projets diffèrent non seulement au niveau des ressources disponibles, mais aussi dans les méthodes de travail, de gestion des ressources humaines, des stratégies partenariales, ainsi qu’au niveau de l’exposition de l’entrepreneur aux regards des institutions et des médias. Souvent menés en parallèle d’une dernière année d’étude, ces projets demandent au jeune entrepreneur d’exercer deux activités à plein temps : celle de dirigeant et de candidat à un diplôme. Ce retour d’expérience correspond à la méthodologie mise en place dans la couveuse d’entreprises française Solen Angels en s’inspirant des expériences américaines et canadiennes.

Contexte, enjeu, problématique et objectifs du projet

En premier lieu, le processus de création d’entreprises par des étudiants  en cours ou juste après leur formation est étudié de manière importante, parce qu’il est sans doute plus naturel, dans le contexte américain. En France, bien que récemment mis en place dans le contexte universitaire au travers notamment du dispositif PEPITE (Pôle étudiant pour l’innovation, le transfert, et l’entrepreneuriat), ce processus est notablement moins documenté.

En second lieu, au niveau mondial, selon les chiffres du Bureau International du Travail sur 90 pays représentant 84 % de l’emploi total, 46 % des travailleurs sont à leur propre compte, contre 26,4 % de salariés. Dans les pays à haut revenu, les salariés représentent encore 77 % des emplois (10 % de travailleurs non-salariés), alors que dans les pays à revenus moyens, 53 % des travailleurs sont à leur compte. En fait, la création d’entreprises individuelles apparaît comme un remède au déficit de développement économique.

Troisième élément de contexte, particulièrement en Europe : un certain divorce s’installe entre les jeunes générations et les entreprises, notamment les plus traditionnelles. Selon un sondage IFOP pour ADIA en 2010, 65 % des dirigeants considèrent les jeunes professionnels comme peu impliqués. Une étude en 2015  montre que seulement 9 % des jeunes estiment que l’entreprise les intègre bien et 40 % d’entre eux envisagent de créer leur entreprise. Si 80 % des jeunes professionnels ont une bonne image de l’entreprise, cela semble être de la leur et pas de l’entreprise en général. Nous assistons à une profonde mutation de la relation au travail, qui se reflète dans les valeurs mises en avant : respect, dynamique et travail. La tendance est à la petite structure, agile et agissante, avec une dimension éthique.

Les étudiants entrepreneurs constituent une population très différente des créateurs d’entreprises habituels, tels que les couveuses d’entreprises en rencontrent et en accompagnent régulièrement (tableau ci-dessous).

Tableau 1 – Comparaison entre le créateur moyen classique et l’étudiant entrepreneur
Créateur classique Étudiant entrepreneur
Dispose d’une expérience professionnelle N’a pas d’expérience professionnelle, hors stage
A acquis le métier au préalable N’a jamais exercé son métier
Connaît les principales étapes du développement de produit Imagine le process de fabrication et de création
Créé plutôt dans son domaine de connaissance Tout domaine, sur la base d’une idée
Peu influencé par les modes Très influencé par les récents succès de la nouvelle économie
Dispose de fonds propres ou d’économies qu’il peut investir Fonds propres extrêmement faibles, voire nuls
Dispose d’indemnités (pôle emploi) N’a pas de revenus
Créé après un poste qu’il a quitté Engage une création pendant ses études
Consacre 100 % de son temps à la création Les études sont prioritaires
Part d’une idée éprouvée Part d’une idée spéculative
Travaille de chez lui ou d’un lieu qu’il a choisi Doit être hébergé

Les écoles et universités disposent de programmes de formation à l’entrepreneuriat, utiles à des fins pédagogiques, mais peu adaptés en situation d’incertitude, notamment lorsque les encadrants et formateurs présentent des biais culturels : salariés de grandes entreprises tentant d’adapter des modèles de développement industriel disproportionnés, enseignants du secteur public ayant une approche théorique de la création d’entreprises. Bien que connus, les déterminants de la création d’entreprises chez les étudiants sont peu pris en compte. En effet, la plupart des systèmes pédagogiques visent au développement, comme dans d’autres matières, des capacités entrepreneuriales et des techniques supposées associées (business plan…) et négligeant un des critères déterminants : l’attrait. En cela, l’acquisition de ces compétences sur une base théorique peut même, pour peu qu’elle soit rébarbative, conduire, par la réduction de l’attrait à une contre-performance regrettable, d’autant que les modes de création d’entreprises en France se sont depuis quelques années, notamment par la digitalisation des services, extrêmement simplifiés. En véhiculant une fausse image de difficulté, ces approches peuvent limiter les projets effectivement menés à bien, ce qui est effectivement observé. Les formations ont un effet modéré sur l’intention entrepreneuriale, les caractéristiques liées aux personnalités et aux valeurs sont déterminantes : autonomie, pouvoir, action, challenges, avoir un travail intéressant.

Il est à noter que ces recherches mettent en avant trois perceptions ou croyances, qui priment significativement sur la réalité effective. Dans ce contexte, la mission que nous nous sommes fixée a été de traiter ces croyances par leur concrétisation avec des éléments factuels, de manière à passer d’une forme de pensée magique à une sécurisation rationnelle et objective. Ces trois croyances sont :

  • la perception de désirabilité ;
  • la propension à agir ;
  • la perception de faisabilité.

Dans ce contexte, nous pouvons observer quatre types de créateurs étudiants (figure 1), même si cette segmentation peut être relativement floue pour la plupart d’entre eux et peut varier en fonction de l’évolution du projet.

placer ici la figure 1

Figure 1 – Segmentation de l’approche entrepreneuriale

Par certains aspects, cette segmentation ressemble à la typologie de Jung . La méthodologie que nous allons retenir a donc fortement à faire avec un comblement des sous-évaluations de chacun des types et une relativisation de leurs tendances naturelles. Toutefois, l’accompagnement d’un entrepreneur ne peut se faire, et en cela elle diffère fortement de l’accompagnement pédagogique, que par :

  • une personnalisation très importante ;
  • l’apport d’informations claires, stables et documentées ;
  • l’interdit de décider à la place : seul l’entrepreneur est légitime pour prendre les décisions.

Un point particulièrement important, propre à la population de créateurs considérés, est constitué par l’ensemble des désirs des entités environnant le jeune entrepreneur.

De jeunes et photogéniques entrepreneurs suscitent l’appétence des structures engagées dans leur projet :

  • leurs écoles qui veulent montrer la pertinence de leur formation ;
  • leur banque qui veut montrer qu’elle soutient l’innovation ;
  • les collectivités locales qui veulent prouver l’attractivité de leur territoire ;
  • la presse en quête de nouvelles de meilleure fraîcheur.

Alors qu’un entrepreneur classique subit seulement, et cela peut déjà être stressant, l’exposition à sa famille et à ses amis, le jeune entrepreneur peut être placé sous les projecteurs à l’occasion d’événements, colloques, concours aussi divers qu’il est possible d’imaginer. Or, son projet est par nature incertain et une partie significative de celui-ci gagnerait, en termes de stress, à être mené sans qu’il leur soit trop souvent demandé où ils en sont, de manière trop intrusive par des personnes non impliquées dans le suivi du projet.

Cette dimension humaine qui intègre l’approche psychologique est à prendre avec sérieux, notamment pour les plus créatifs des porteurs de projet qui sont statistiquement plus exposés que la moyenne aux troubles dépressifs , notamment en relation avec l’éthique et la responsabilité sociétale . Ce dernier aspect renforce l’idée qu’un accompagnement sur-mesure prenant la totalité de la personnalité du futur entrepreneur est indispensable et soulève le problème des compétences et savoir être des encadrants.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 avril !

Soutien opérationnel à l’entrepreneuriat étudiant, un retour d’expérience rédigé par Anne-Lucie CLAUSSE et Luc-Émile BRUNET.

Laval Virtual 2019 : la technologie Dual Eye Point pour deux points de vue dans une salle immersive

Dans l’industrie manufacturière, explorer un modèle 3D à l’aide d’un «powerwall» ou d’une salle immersive (cave) est une pratique courante et précise…  surtout quand on travaille seul. Car l’image projetée par le ou les vidéoprojecteurs ne montre qu’un seul point de vue, calculée à partir de la localisation d’une seule paire de lunettes stéréoscopiques. Peu importe que deux ingénieurs ou plus soient présents : tout le monde partage la même perspective, ce qui n’est pas l’idéal pour échanger des impressions. Un inconvénient que la technologie Dual Eye Point, présentée par le belge Barco sur le salon Laval Virtual, est chargée de résoudre.

Cette méthode permet de détecter la position de deux paires de lunettes distinctes, de calculer les deux images 3D correspondantes, puis de les projeter en même temps. Le vidéoprojecteur mis à contribution dans cette démonstration, UDX-4K32, offre en effet la possibilité de diffuser deux images indépendantes à une fréquence de 120 Hz, chacune bénéficiant d’une définition WQHD (soit 2560×1600 pixels, la définition native de la matrice DLP). Chaque paire de lunettes active, qui fonctionne donc par cycle d’obturation et d’ouverture, est réglée de façon à ne «voir» qu’une seule image sur les deux.

Une solution intéressante, mais également exigeante, puisqu’elle requiert de calculer deux images 3D, provenant de deux stations de travail. Il y a quelques années, Christie, gros concurrent de Barco, avait également travaillé sur le simulateur Dualview, qui avait la même finalité. Mais l’installation des deux vidéoprojecteurs était beaucoup plus contraignante.

Laval Virtual 2019 : une innovation contre les troubles induits par la réalité virtuelle

Porter un casque de réalité virtuelle s’avère insupportable quand apparaît la cinétose, ou mal des transports, qui provoque une désorientation, des maux de tête ou même la nausée. Ces troubles sont causés par le conflit sensoriel entre la vision, qui perçoit un mouvement apparent, et l’oreille interne, qui n’en perçoit aucun. Ces deux signaux contradictoires finissent par «emmêler» les cerveaux les plus sensibles. La petite entreprise familiale Boarding Ring, qui expose à Laval Virtual, a peut-être trouvé le remède pour atténuer voire éliminer ce phénomène.

Boarding Var est composé d’un contrôleur et de deux émetteurs équipés de petites LEDs. Installés à l’intérieur du casque, de part et d’autre du champ de vision périphérique, ces émetteurs produisent un repère lumineux, grâce auquel les sens de la vue et de l’équilibre se resynchronisent. C’est un principe que Boarding Ring exploite déjà dans le transport automobile avec l’équipementier Novares. Quant au contrôleur, il prend l’aspect d’un petit boîtier, se fixant à l’extérieur du casque. «Il a l’avantage d’être indépendant de l’image 3D diffusée et n’agit qu’en fonction de l’orientation du casque», explique Renaud Jeannin, directeur technique de Boarding Ring.

Ce dispositif serait efficace dans 80% des cas et devrait être commercialisé d’ici à la fin de l’année. La cinétose fait également l’objet de recherches de la part de l’Institut b-com, qui a mis au point un système pour analyser le stress d’un conducteur placé dans un simulateur, ou encore de Sony, pour ne citer qu’eux. A en juger par un dépôt de brevet, le prochain casque Playstation VR pourrait détecter plusieurs paramètres physiologiques : température, transpiration, pulsations cardiaques, etc. L’idée serait d’interrompre automatiquement la session dès l’apparition des premiers symptômes. Le Boarding Var se différencie au moins par sa proposition, qui consiste à traiter le «mal» à la racine ou à en retarder les effets.

JNI 2019 : le Colloque National

Le Colloque National est l’événement central de ces JNI 2019. Il aura lieu toute la journée du 21 mars 2019. Cette année, le Conservatoire national des arts et métiers (CNAM) à Paris accueillera les différents intervenants qui participent au colloque.

La thématique qui orientera le colloque sera : l’innovation et la transformation numérique. Cette journée spéciale sera parrainée par une personnalité qui influe le monde des sciences et des technologies : Bertin Nahum président et fondateur de Quantum Surgical.

Comme pour l’ensemble des JNI 2019, Techniques de l’Ingénieur souhaite apporter tout son soutien et mettre en valeur son partenariat avec l’IESF. Pour ce faire, nous avons décidé de donner la parole a plusieurs des intervenants de ce colloque, pour les interroger sur les thèmes de l’innovation, de la diversité, etc…

Vous pouvez retrouver les interviews ici :

Retrouvez l’article de présentation de ces JNI 2019 ici.

Vers une vraie politique contre les perturbateurs endocriniens ?

« L’Union européenne a des obligations légales en termes de protection des Européens contre les perturbateurs endocriniens » rappelle Natacha Cingotti, juriste et membre de l’Alliance pour la santé et l’environnement (HEAL) lors du colloque Perturbateurs endocriniens: impacts, avancées et demain ? du 11 mars dernier. Présenté ainsi, il est très légitime de penser que la santé des citoyens du Vieux continent est placée entre de bonnes mains. Mais très vite, Natacha Cingotti rappelle, lors d’une table ronde portant sur l’état des lieux politique sur les perturbateurs endocriniens, que le cadre légal actuellement en vigueur en Europe date de 1999. Le règlement REACH, celui qui définit les perturbateurs endocriniens comme des substances « hautement préoccupantes », a vingt ans. En 2019, une telle définition apparaît comme bien trop lacunaire et trop laxiste pour de nombreux acteurs.

Seules 14 substances sont aujourd’hui concernées par la définition donnée par REACH. Or, la communauté scientifique s’accorde à dire qu’il y en aurait plutôt plus d’un millier qui pourraient être considérées comme « cancérogènes, mutagènes et reprotoxiques (CMR) de catégorie 1 et 2 ». Le premier élément majeur de crainte pour les militants d’une politique plus stricte sur les perturbateurs endocriniens est le manque d’évaluations scientifiques. « Malgré un ensemble d’éléments scientifiques, dès qu’il y a un doute, eh bien on ne fait rien » déplore Delphine Batho, députée des Deux-Sèvres et présidente de l’association Génération Écologie, également présente lors de la table ronde. Et les différents organes décisionnels, nationaux et européens, ne semblent pas être disposés à changer rapidement de cap.

Organiser des États Généraux de la santé environnementale

En France, la plus grande opération politique menée pour lutter contre les perturbateurs endocriniens est le plan Écophyto, lancé en 2008. Installée aux côtés de Natacha Cingotti et Delphine Batho, Laurence Guichard, ne cache pas sa déception face à cette initiative. « Le plan Écophyto est un échec. Entre 2008 et 2018, le taux d’utilisation de pesticides a augmenté de 15% au lieu de baisser » constate l’agronome de l’INRA Versailles-Grignon. Pour François Veillerette, fondateur de Générations futures, il est urgent que la législation, notamment sur les pesticides, change. « Aujourd’hui en France, la question des perturbateurs endocriniens est un réel sujet de société. On sait également que les pesticides et les biocides ont une dangerosité intrinsèque. Donc, le contact avec des pesticides est dangereux pour la santé et l’environnement dès la première utilisation » explique François Veillerette. En ce sens, il est nécessaire que l’État insiste bien davantage sur la sensibilisation.

Autre problème pour Laurence Guichard : la question de la contamination des denrées alimentaires lui semble encore sous-traitée. Elle souhaite, entre autres, voir le gouvernement mettre en place une politique publique d’envergure afin d’augmenter la part de produits bio dans l’alimentation des femmes enceintes. Un souhait partagé par Delphine Batho qui appelle même à l’organisation d’« États Généraux de la santé environnementale pour arriver à une loi-cadre globale ». Mais pour l’instant, leurs multiples demandes adressées aux ministères semblent rester lettre morte. Pour expliquer cette léthargie gouvernementale, certains avancent la piste de la prééminence des intérêts des industriels. Un avis partagé par Christine Martin, ancienne membre de la CFDT : « l’État manque de courage. Il faut qu’une coalition se crée, comme pour le climat ».

« La mécanique diffusionniste de l’État ne fonctionne pas »

Les voix s’élèvent également pour défendre les agriculteurs. « Ce sont les pouvoirs publics qui organisent eux-mêmes l’agri-bashing » dénonce Delphine Batho. L’ancienne ministre de l’Écologie de François Hollande s’insurge des raccourcis utilisés par les politiques. Pour elle, il est scandaleux que des raccourcis soient aussi vite faits pour aller pointer la responsabilité des agriculteurs dans l’exposition aux pesticides. Cet avis emporte également l’adhésion de François Veillerette qui considère que « la mécanique diffusionniste que l’État a voulu mettre en place à l’égard des agriculteurs ne fonctionne pas ». En clair, l’État n’aurait pas dû imposer des normes sur les pesticides, mais favoriser l’accompagnement des agriculteurs dans un changement de modèle.

Dans la salle, un agriculteur est inquiet de voir que peu de moyens sont mis en œuvre pour remplacer les pesticides par d’autres solutions agronomiques. « Les recherches manquent parce que l’agronomie ne permet pas de faire de jolies publications dans les revues scientifiques » assène Laurence Guichard. Natacha Cingotti ajoute quant à elle que « ceux qui disent qu’ils ne peuvent pas agir ont en réalité peur de le faire ». Les différents intervenants de cette table ronde cachent à peine leurs allusions adressées contre les différents lobbies, qu’ils estiment être les véritables responsables de l’immobilisme politique, aussi bien à l’échelle française qu’européenne. Dès lors, pour favoriser la lutte contre l’exposition aux perturbateurs endocriniens, il apparaît urgent qu’un contre-pouvoir assez puissant émerge afin de contrecarrer les lobbies. Une démarche dans laquelle les citoyens ont leur place. « Les citoyens doivent montrer qu’ils sont mobilisés » achève Delphine Batho.

Des structures imprimées en 3D contrôlables par champ magnétique

Principe de fonctionnement des actionneurs flexibles magnéto actifs

L’utilisation de champs magnétiques permet une stimulation rapide et à distance d’actionneurs flexibles magnétiquement actifs (cf. exemple d’un actionneur flexible magnétiquement actif, en action). De tels actionneurs peuvent être fabriqués en incorporant des particules magnétiques au sein d’une matrice souple, de type hydrogel ou élastomère. Sous l’effet d’un champ magnétique, les forces et couples magnétiques sont ainsi extraits des particules magnétiques, ce qui provoque une déformation de la structure souple dans laquelle elles sont emprisonnées.

Les domaines magnétiques anisotropes ont généralement tendance à s’aligner avec la direction du champ uniforme appliqué, notamment à cause de perturbations créées par des interactions entre particules, ce qui rend possibles les déformations dans des configurations multiples. Néanmoins, la fabrication d’actionneurs souples, capables de répondre à des sollicitations magnétiques multidirectionnelles reste un challenge. En effet, la réalité est plus complexe, car les domaines magnétiques polarisables sans magnétisme résiduel (rémanence) sont généralement uniquement attirés par la direction positive du gradient de champ magnétique.

Actionneurs multidirectionnels flottant sur l’eau

Pour surmonter ce challenge, l’équipe de chercheurs a conçu une nouvelle classe d’actionneurs magnéto-actifs imprimés en 3D et flottant en surface de l’eau. Ces structures ultrasouples, de forme ondulée sont ainsi capables de se déformer sous l’action combinée des forces magnétiques et capillaires. L’intérêt d’utiliser ces phénomènes de tension de surface est de réduire à leur minimum les forces de frottement qui empêcheraient la structure de se déformer.

Une encre à base de silicone

Le matériau utilisé pour fabriquer ces objets magnéto-actifs est une pâte (HCP), formée à partir de deux composants : des microbilles de polydimethylsiloxane (PDMS) réticulé autour de 20 % de particules magnétiques et un précurseur PDMS liquide (le liant capillaire).

Cette pâte est ensuite transformée en filaments, en utilisant un procédé d’impression 3D par extrusion directe. La structure 3D obtenue est ensuite polymérisée à 80 °C dans un four pour donner un matériau élastique, souple et hydrophobe, ce qui lui permet de flotter à la surface de l’eau.

a) Représentation schématique du procédé d’impression 3D à partir d’une pâte homocomposite capillaire ;
b) Cliché optique de microbilles de 80%m PDMS-20%m particules magnétiques ;
c) Filament homocomposite après impression 3D ;
d) Élongation d’un filament imprimé, sous l’effet d’un gradient de champ magnétique.
Source : https://wol-prod-cdn.literatumonline.com/cms/attachment/8d995ead-b1e3-49c7-bdbb-712abe0b2ad1/admt201800528-fig-0001-m.png

Des applications potentielles

L’équipe de chercheurs a donc réussi à synthétiser et à contrôler magnétiquement des actionneurs souples leur permettant par exemple d’attraper de petits objets flottant à la surface de l’eau. L’application présentée est certes basique, mais elle prouve qu’il est possible de contrôler efficacement une telle structure dans une direction en utilisant un simple électroaimant. Leurs prochains travaux s’orienteront donc sur la fabrication et le contrôle multidirectionnel de structures 2D et 3D.

Plus concrètement, plusieurs applications sont visées, comme la fabrication de structures 3D pour la culture de cellules ou encore la fabrication de robots miniatures se déplaçant à la surface de l’eau à la manière des insectes gerridés.

Sources : https://news.ncsu.edu/2019/01/3d-printed-soft-mesh-robots/

https://onlinelibrary.wiley.com/doi/10.1002/admt.201800528

JNI 2019 : L’innovation dans le domaine du nucléaire

Dans le cadre des JNI 2019, Techniques de l’Ingénieur a réalisé des interviews avec plusieurs des participants au Colloque National organisé au CNAM par l’IESF. Voici la troisième et dernière interview avec Emmanuelle Galichet, maître de conférences en Sciences et technologies nucléaires au CNAM et également responsable du diplôme d’ingénieur en génie nucléaire.

Qu’est-ce que l’innovation dans le secteur du nucléaire ?

Pour moi l’innovation a toujours fait partie du secteur nucléaire car c’est une filière de haute technologie, qui possède un très gros relationnel avec la recherche fondamentale. L’innovation c’est apporter de nouvelles idées technologiques à l’industrie nucléaire. C’est toujours difficile de parler d’innovation dans le nucléaire car pour beaucoup le secteur n’innove pas. Les process et les systèmes doivent être qualifiés par une autorité de sûreté extrêmement forte.

Pour autant, l’innovation est l’idée de base et fait partie intégrante de la filière nucléaire. Quand le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) a été créé, c’était une manière d’innover, d’avoir un vrai partenaire qui développe des technologies innovantes. C’est une des filières industrielles en France qui a la chance de s’appuyer sur un partenaire public pour lequel l’innovation technologique et le transfert vers l’industrie sont des missions fondatrices. EDF, Orano et Framatome sont d’autres leaders du secteur qui possèdent de grands services de R&D. Ces 4 entreprises dépensent 700 M€ annuellement pour la R&D nucléaire et travaillent en commun dans le cadre de la PFN(Plateforme France Nucléaire).

Les nouveaux réacteurs fonctionnent à partir de technologies assez anciennes. Par exemple le process physique de la fission est ancien, mais le secteur a quand même réussi à développer toute une ingénierie technique autour, qui est toujours plus innovante. Notamment quand on parle de l’EPR (réacteur de 3ème génération), c’est un produit innovant par rapport aux réacteurs qui existent en France, que sont les réacteurs à eau pressurisés. Ils ont réussi à innover à pleins d’endroits alors même que le process de base n’a pas changé.

L’innovation a été permise grâce au retour d’expérience d’accidents comme TMI ou Tchernobyl. Aujourd’hui, l’EPR qui se construit à Flamanville intègre l’ensemble du retour d’expérience et c’est de l’innovation. Pour donner un exemple concret, l’EPR a un récupérateur du corium qui n’avait jamais été construit dans les réacteurs actuels.

Nous sommes dans un schéma d’innovation assez traditionnel avec une recherche, un développement, une démonstration et un déploiement industriel. Malgré cela, depuis quelques années, des initiatives d’open innovation voient le jour sur l’ensemble du territoire. La transformation numérique de l’industrie permet des nouveaux modes de collaboration et augmente l’efficacité dans pleins de domaines.

Par exemple, Orano, EDF et le CEA développent des plateformes d’innovation permettant à leurs sous-traitants de laisser des idées, de travailler avec eux. Les maquettes numériques, la réalité virtuelle, le BIM vont permettre un gain important d’efficacité et de sûreté.

Les nouveaux modes d’innovation organisationnelle sont aussi essayés dans le secteur nucléaire. La filière veut travailler ensemble (la PFN regroupe les 4 donneurs d’ordre), et s’organise dans ce sens. Un exemple concret : EDF essaie de travailler en mode entreprise étendue, en organisant depuis cette année des rencontres industries/universités. C’est une initiative que je trouve très innovante, où des chercheurs d’EDF présentent leurs verrous technologiques aux chercheurs universitaires pour les lever.

Enfin, il y a un gros secteur du nucléaire qui est en train de s’ouvrir, c’est le démantèlement et l’assainissement des installations nucléaires. C’est un secteur qui débute et il y aura un besoin d’innovations assez rapidement de manière à diminuer les coûts et à augmenter l’efficacité des chantiers d’assainissement. C’est un des domaines du secteur où l’innovation va être importante. Il y a également le nucléaire du futur où l’on va pouvoir utiliser l’innovation. Nous parlons à une échelle de 50 voire 100 ans. Ce n’est pas une innovation qui va permettre un gain de productivité ou de parts de marché immédiatement .

Comment instruire l’innovation aux élèves ?

Il y a deux points lorsque l’on fait de la formation dans le secteur nucléaire. Il y a les process technologiques et scientifiques. Prenons l’exemple de la fission, c’est de la physique pure. De ce côté-là, nous ne pouvons pas innover énormément puisque ce sont des sciences, et il existe des concepts de base qu’il va falloir inculquer de manière claire. Là où nous pouvons innover, nous en tant que formateurs, c’est sur « comment leur inculquer ? ».

Aujourd’hui nous sommes face à des élèves qui n’ont pas les mêmes attentes que par le passé. Nous devons utiliser l’arrivée des nouvelles technologies de manière importante pour amener les élèves vers la compétence et la connaissance dont ils ont besoin. Nous allons utiliser notamment Internet, la réalité virtuelle, les codes de simulation. Par exemple je monte actuellement au CNAM un Learning Lab où il sera possible d’utiliser toutes les technologies numériques pour former nos futurs salariés du nucléaire à l’ensemble des postes de travail, des process, des gestes qu’ils doivent savoir pour  intégrer cette industrie. Cela peut être simplement la connaissance d’une installation nucléaire en allant la visiter de manière virtuelle. Cela peut être des serious game pour les entraîner à identifier les différentes parties d’un système, d’une installation. Vous pouvez utiliser ces jeux pour entraîner vos apprenants aux bons gestes, aux bons comportements lorsqu’ils sont dans des zones où il y a des rayonnements ionisants.

Tout cela fait partie des nouvelles manières d’enseigner par les mises en situation. Nous utilisons aussi énormément de chantiers écoles grâce à l’INSTN, avec qui nous sommes en collaboration. Le principe repose sur un scénario à dérouler comme s’ils étaient dans une vraie installation. Les travaux pratiques, les mises en situation, les chantier-école font partie de l’innovation dans l’enseignement.

Au-delà du gain de compétences est-ce que cela permet également de développer leur créativité ?

En tant que responsable de formation j’essaye d’essaimer ce sentiment de liberté et de créativité, qui est la base de l’innovation, dans l’ensemble des cours, qu’ils soient théoriques ou expérimentaux. Je demande aux intervenants de les amener à ce questionnement perpétuel qui permet d’avoir de nouvelles idées par de nouvelles questions. Nous faisons souvent des classes inversées (une nouvelle innovation pédagogique), qui sont des moments où vous pouvez laisser les élèves poser l’ensemble de leurs questions parce qu’ils vont aller découvrir par eux même. Cela peut être un cours, un scénario d’étude, des travaux pratiques, toutes ces méthodes peuvent être jouées en classes inversées.

Si vous les laissez découvrir les choses par eux même avant de leur donner la leçon, ils vont pouvoir se questionner seul ou en groupe ce qui permet l’innovation par la diversité de pensée. Il est possible que les questions soit naïves ou peu opportunes mais elles permettent aux élèves d’avancer dans leur cheminement intellectuel. Que ce soit de la physique, des mathématiques ou du management vous pouvez très rapidement faire de la classe inversée. Ce que j’ai fait en plus dans ma formation d’ingénieur, c’est d’inclure un cours de management et de la gestion de l’innovation. Ils vont apprendre ce qu’est l’innovation, comment on l’organise au niveau d’une entreprise, voir comment cela fonctionne dans d’autres industries. Cela leur permet d’avoir de nouvelles idées, de leur montrer que des choses peuvent être faites. Il faut que nos élèves soient préparés au nucléaire du futur.

Est-ce que la diversité peut aider à l’innovation ?

Oui, par exemple, sur les réacteurs du futur il existe un groupement qui s’appelle Génération 4 qui est un groupement international. Nous faisons de l’innovation participative pour réfléchir à des réacteurs du futur avec des innovations de rupture, avec des concepts de filières totalement différentes de ce qui est aujourd’hui en place à travers le monde.

Si nous parlons d’une diversité homme/femme, il est clair que le secteur nucléaire a beaucoup à faire, comme toutes les sciences. Mais le secteur fait beaucoup. Il y a eu une réelle prise de conscience du manque de femme à tous les niveaux dans le secteur nucléaire. L’ensemble des politiques RH est très en faveur des femmes. C’est nouveau et ça ne marche pas trop mal. Elles sont les bienvenues. Notamment, EDF a fait le prix FEM’ ENERGIA par exemple. C’est une initiative d’EDF et de WIN (Women in nuclear) qui est une association de femmes dans le nucléaire. Oui, il y a des actions, des initiatives, des prix importants pour mettre en avant les femmes.

Après la diversité va plus loin. Cela peut-être la diversité dans les parcours, et c’est très important aussi, autant que la diversité homme/femme. Le nucléaire a aussi des progrès à faire sur ce domaine. Aujourd’hui, nous pensons que la diversité des parcours de formation, des écoles et des parcours de vie sont des leviers à l’innovation et sont déterminants pour la productivité et l’efficacité de la filière. Pour donner un exemple, j’ai ouvert ma formation en 2012 et la formation par l’apprentissage n’était pas du tout reconnue dans le secteur nucléaire. Aujourd’hui, le secteur nucléaire est un des secteurs qui emploie le plus d’apprentis en France. La filière a beaucoup changé sur la diversité des parcours.

Maintenant, j’ai une vingtaine d’ingénieurs par an qui en sortent, formés par l’apprentissage et ils sont tous embauchés avant le diplôme, avec les mêmes salaires qu’une école d’ingénieur en formation initiale. Cela veut dire que les entreprises reconnaissent les parcours de formation différents et les intègrent dans leurs équipes. Et ça c’est sûr que ça va aider à l’innovation.

Pour le secteur nucléaire il existe d’énormes challenges dans lesquels la filière nucléaire à un vrai rôle à jouer : la transition énergétique et le mix énergétique du futur, le grand carénage et le développement international. La filière nucléaire est obligée d’innover, et finalement d’avoir des femmes et des hommes, des parcours de formation différents, des visions différentes car cela permet d’aller plus loin.

Une stratégie politique pour un usage soutenable des plastiques

La France a annoncé l’arrêt de toute exploitation d’hydrocarbures et la fin de la commercialisation des véhicules thermiques neufs pour 2040. François-Michel Lambert veut ajouter à cette liste la fin du plastique à base de pétrole. Pour y parvenir et lutter contre la pollution plastique, il souhaite mettre en place une Agence Nationale du Plastique. Elle sera chargée d’accompagner les politiques publiques et les entreprises vers une utilisation soutenable des plastiques.

Mieux réguler l’utilisation du plastique

Le nouveau plastique sera « zéro toxicité » grâce à des polymères biodégradables, sans additifs toxiques. Il sera également beaucoup moins superflu, avec un usage unique réduit à son strict minimum au profit de la réutilisation. Pour y parvenir, la route est longue et les propositions multiples. L’une d’entre elles consiste à créer un « GIEC du plastique et des pollutions chimiques » pour mieux cartographier les sources et impacts des pollutions. À l’instar du WWF, le rapport propose par ailleurs la conclusion d’un traité international d’ici 2025. Il s’agirait ici d’un « traité d’interdiction globale de certains additifs, certaines résines, certains produits constitués de plastiques et que l’on retrouve le plus souvent en mer ».

La Commission européenne prévoit plusieurs d’interdictions d’emballages en plastiques pour diminuer la pollution océanique. Le rapport propose d’aller beaucoup plus loin. Il s’agirait d’interdire tous les 5 ans une nouvelle liste de produits qui se retrouvent dans l’environnement. « En maintenant constamment cette menace, l’impact visé est celui de la prévention par les industriels eux-mêmes qui internaliseront l’objectif de protection de l’environnement », précise le rapport.

Diminuer la pollution plastique

Afin de limiter la libération de fibres et de microplastiques, François-Michel Lambert propose l’instauration d’une nouvelle norme exigeant un filtre à microplastiques pour l’ensemble des machines domestiques et industrielles susceptibles d’en libérer. Il recommande de rendre obligatoire la coopération autour du « 1% déchets » afin d’améliorer les infrastructures de collecte des déchets dans le monde. Il recommande aussi d’interdire l’export de déchets plastiques hors de l’Union européenne pour qu’ils ne se retrouvent plus en grande partie en Asie.

La baisse de la pollution plastique passera par la réutilisation et l’interdiction des plastiques non recyclables. Michel Lambert propose un budget plastique, comme il existe un budget carbone. L’instauration d’une limite de quantité de plastique émise sur le marché français via un marché des droits de commercialisation du matériau permettrait de mettre fin au plus vite aux usages les plus superflus. Une mesure complémentaire vise à taxer la distribution gratuite de tout objet contenant du plastique. En parallèle, l’Agence Nationale du Plastique gérerait les autorisations de mise sur le marché des résines plastiques pour ne commercialiser que les produits recyclables.

En France, selon PlasticsEurope, 91% de la matière première est d’origine pétrosourcée, 8% recyclé et 1% biosourcé. Les accords volontaires ne suffiront pas pour changer de paradigme. Le rapport estime donc qu’ « il est indispensable de contraindre les industriels (producteurs, transformateurs, metteurs sur le marché) à tenir des objectifs ambitieux ». Il propose de rendre obligatoire l’incorporation d’un taux défini de matière première recyclée par usine de production de plastique.

La plus grande carte dynamique de l’Univers : le milliard d’années-lumière enfin atteint !

Voilà cinq ans, notre supercontinent de galaxies, appelé Laniakea, était révélé grâce à l’étude des mouvements de galaxies : les flux cosmiques. Ainsi notre Univers proche était-il cartographié de manière précise mais surtout dynamique. Depuis cette découverte, l’exploration de notre environnement immédiat cosmique était en panne de percée, impossible de voir au-delà de Laniakea. En effet, plus les galaxies sont distantes, plus les erreurs des mesures tendent à empêcher les astrophysiciens de retrouver précisément les positions des galaxies dans l’Univers. Or, sans cartographie précise, il n’est pas possible de calculer les grands flux cosmiques cohérents ni de comprendre les grandes régions de matière noire qui engendrent ces mouvements. La compréhension de cette matière invisible est l’une des deux grandes questions à élucider au 21e siècle pour les cosmologues. L’autre question brûlante concerne l’expansion de l’espace : la distance entre les galaxies ne cesse d’augmenter, et ce de plus en plus vite. Pour quelle raison ? Une mystérieuse énergie sombre pourrait l’expliquer.

Dans l’objectif de fournir une carte de l’Univers toujours plus précise et d’apporter des éléments de réponse à ces deux grandes énigmes, l’équipe d’astrophysiciens, emmenée par Hélène Courtois, chercheure Université Lyon 1 à l’Institut de physique nucléaire de Lyon (IPNL, Université Lyon 1/CNRS), observe chaque année davantage de galaxies grâce aux télescopes géants en Australie, aux USA, en France, etc. Avec au commencement du projet, seulement 2 000 galaxies observées en 2008, puis 8 000 en 2014, ce chiffre s’élevait à 18 000 en 2016 et continue encore d’augmenter. Bien que ces données soient publiquement distribuées à toutes les autres équipes en compétition mondiale, au bout de trois ans,  aucun consortium ne réussissait encore à calculer la cohérence des mouvements des grands continents de galaxies.

Un jeune doctorant lyonnais lance alors l’idée de modéliser les données en amont plutôt que de les analyser a posteriori, et répéter l’analyse des milliers de fois afin d’explorer toutes les erreurs systématiques qui faussent les mesures. Une nouvelle méthodologie made in France est née. Elle nous donne à contempler des cartes de 1/45e de l’Univers observable ! Les nouveaux continents découverts tels qu’Apus, Pisces-Cetus, Telescopium, Lepus, Shapley, Hercules, rejoignent la liste du seul continent précédemment cartographié : Laniakea (voir figure 1).

Les lecteurs peuvent explorer leur univers en zoomant et tournoyant dans la carte interactive disponible ici :

Figure 1 : Deux plans de coupe perpendiculaires, du cube de cartographie de 1 milliard d’années-lumière autour de nous, avec en rouge la localisation de la matière invisible, en noir la position des galaxies connues et les noms des nouveaux continents découverts. Notre Voie Lactée se trouve au centre de ces cartes. © Romain Graziani

La nouvelle carte de l’Univers sera présentée au grand public le 4 avril sur France 5 :
Le film « Voyage sur les flots célestes » retrace la recherche actuelle en cartographie de l’Univers. Les astrophysiciens cosmologues sont des explorateurs aux avant-postes de la technologie, qui ont pour vaisseaux des télescopes toujours plus puissants et spectaculaires, repoussant toujours plus loin les limites de nos connaissances et donnant corps à notre rêve d’infini. De Hawaï à l’Australie, en passant par l’Afrique du Sud, le spectateur embarquera pour une incroyable aventure humaine et scientifique à destination des plus grands sites d’exploration du Cosmos sur la planète et à la découverte des nouveaux défis sur la compréhension de l’Univers. Un voyage sur Terre et dans l’espace à couper le souffle ! Un documentaire de François-Xavier Vives, co-écrit par Hélène Courtois, produit par Camera Lucida en partenariat avec France Télévision (diffusion le 4 avril à 20h50 sur France 5).
• Regarder le trailer : cpbfilms.com/fr/documentaires/voyages-sur-les-flots-celestes

 

Référence de l’article :
The peculiar velocity field up to z ∼ 0.05 by forward-modeling Cosmicflows-3 data R Graziani, H M Courtois, G Lavaux, Y Hoffman, R B Tully, Y Copin, D Pomarède Monthly Notices of the Royal Astronomical Society, stz078, 16 January 2019
https://doi.org/10.1093/mnras/stz078

Source : cnrs

Revue du web #121: les 10 vidéos les plus étonnantes du mois

Speeder, la moto volante

Jetpack Aviation vient de lancer la commercialisation d’une moto volante tout droit sortie d’un film de science fiction. 105 kilos, 4 turboréacteurs, elle peut s’élever à près de 4600 mètres et filer à plus de 240 km/h. Son prix : 380 000 dollars.

 

Q, le premier assistant vocal non genré

Cette voix artificielle a été créée dans le but de « favoriser une plus grande inclusion dans la technologie des assistants vocaux ». Ses créateurs, des chercheurs danois, ont travaillé sur le domaine fréquentiel. Le but : retirer toute intonation caractéristique afin d’aboutir à la neutralité.

 

Biomimétisme : un robot impressionnant  qui nage et qui rampe

Il ressemble à une anguille, ou à une carpe. Son atout : il se sent à l’aise partout. Dans la boue, sur la glace, dans l’eau… Ce prototype de robot tout-terrain se faufile sans aucun souci. Futur sauveteur ?

 

Timelapse : la formation d’un flocon de neige

Quand la science rencontre la poésie…  Le photographe russe Vyacheslav Ivanov a réalisé cette séquence à l’aide d’un simple microscope.

 

Reconstituer en 3D un ancêtre des reptiles pour étudier sa démarche

Une équipe de chercheurs (biologistes et roboticiens) a développé un robot mimétique après avoir réalisé des simulations sur ordinateur. Le but : découvrir la démarche de l’Orobates pabsti qui vivait sur Terre il y a 350 millions d’années. Résultat ? Il se déplaçait comment un caïman.

 

AntBot, le robot-fourmi

Nouvel exemple intéressant de biomimétisme.
Cette fois inspiré des fourmis du désert, ce robot (qui ressemble davantage à une grosse araignée) ne se perd jamais. Son secret :  une boussole solaire qui capte la polarisation de la lumière solaire, l’observation et le comptage des pas, exactement comme les Cataglyphis,

 

Toyota : une voiture pour rouler sur la Lune

En collaboration avec la JAXA (Japanese Aerospace Exploration Agency), Toyota travaille actuellement sur un véhicule capable de rouler sur la Lune avec des passagers à bord. Autonomie visée : 10 000 km.

 

Aéroport : le robot Stan gare votre voiture

En attendant de pouvoir se garer sur la Lune, retrouvons notre classique parking mais, cette fois, avec l’aide du robot-voiturier inauguré à l’aéroport de Lyon. Son travail : nous faire gagner du temps.

 

Un ballon crevé ? Non, un robot à la force plus que décuplée

Ne jamais se fier aux apparences… Ce robot présenté par le laboratoire de recherche du MIT soulève des charges 100 fois plus lourdes que lui.

 

Un méta-matériau qui isole presque totalement du bruit

Révolution acoustique. Des chercheurs de l’Université de Boston ont mis au point un méta-matériau imprimé en 3D qui isole 94% du bruit en renvoyant les sons entrants. Les applications possibles sont bien sûr innombrables.

Par I. B

JNI 2019 : Un parcours vers l’innovation, le cas LUDOCARE

Dans le cadre des JNI 2019, Techniques de l’Ingénieur a réalisé des interviews avec plusieurs des participants au Colloque National organisé au CNAM par l’IESF. Voici la deuxième interview avec Élodie Loisel, co-fondatrice et responsable R&D de LUDOCARE.

Quel a été votre parcours et comment l’idée de créer une entreprise vous est venue ?

Je suis ingénieure généraliste, diplômée de l’INPG. J’ai poursuivi avec un doctorat en biotechnologie et ensuite, j’ai travaillé sept ans dans l’industrie chez bioMérieux. Au cours de mes dernières années chez bioMérieux, j’allais chercher l’innovation à l’extérieur de l’entreprise, étant donné qu’une grosse structure ne peut pas être aussi agile qu’une petite startup. J’étais donc mentor de startups lors d’événements comme BigBooster. Lors d’un startup weekend, j’ai rencontré mon futur associé qui est venu avec la problématique de l’observance et nous avons gagné ce startup weekend. Cela a été l’opportunité pour moi de me lancer dans l’entrepreneuriat.

A quoi sert LUDOCARE ?

L’objectif de LUDOCARE est d’apporter des solutions concrètes, ludiques et adaptées aux besoins des patients atteints de maladies chroniques.

Comment fonctionne votre robot JOE ?

La solution JOE pour l’asthme, ou LEO pour la mucoviscidose, c’est le premier petit robot connecté qui accompagne les enfants de 3 à 11 ans dans la prise de leurs traitements quotidiens. Nous allons retrouver une dalle tactile, du son, du wifi pour la partie hardware de la solution. JOE est connecté par wifi à un back-office. C’est ici qu’on va retrouver les sciences de l’ingénieur, du type développement logiciel mais aussi traitement des données médicales et statistiques où nous allons avoir toutes les bases de données médicales. Donc, tous les médicaments, connexions aux bases de données de l’assurance maladie. Puis les bases de données ludiques avec tous les algorithmes prédictifs. Nous travaillons avec un laboratoire du secteur de l’intelligence artificielle sur le campus de la Doua pour cette partie-là. C’est quelque chose qui va être évolutif, apprenant, personnalisable pour l’enfant. Enfin, la dernière partie de la solution, c’est l’application parent, qui elle fait appel à tout ce qui est UX design pour avoir une interface très simple sur leur smartphone pour configurer le robot.

Quels sont les projets pour LUDOCARE ?

Au moment où je viens sur Paris pour le colloque des JNI, nous serons en plein crowdfunding pour financer la production du robot en vue d’un lancement en septembre et en BtoC. Tout le monde peut contribuer, en participant au financement d’un robot pour un enfant malade, grâce au pack « PARRAIN » qui a été créé grâce aux associations Vaincre La Mucoviscidose et Asthme et Allergies. C’est la grosse échéance. Par la suite, notre ambition est vraiment de pouvoir adresser toutes les maladies chroniques et plus seulement l’asthme et la mucoviscidose.

Techniques de l’Ingénieur, partenaire d’ENOVA, vous donne rendez-vous les 3 et 4 avril à Nantes

Le concept ENOVA est d’aller à la rencontre de l’innovation qu’elle soit industrielle, scientifique et universitaire. Fort de son succès en région, la seule et unique édition du salon ENOVA en 2019, se tiendra pour la première fois à Nantes les 3 et 4 avril.

170 exposants vous attendent et, parallèlement à la partie salon proprement dite, le programme de conférences nourrit la réflexion stratégique des entreprises, entre autres, sur leur digitalisation.

Techniques de l’Ingénieur soutient cette initiative qui s’inscrit dans son action continue d’accompagnement du développement des entreprises industrielles. La transition vers l’industrie du futur et la digitalisation des usines en sont des axes forts. Les ressources documentaires autour de ces thèmes pourront vous être présentées sur le stand A53.

Retrouvez toutes les technologies, principes et modèles de l’industrie du futur en infographie : ici

Pour en savoir plus.

L’Affaire du siècle dépose une requête contre l’État au nom de la justice climatique

Face au succès inégalé de leur pétition, ayant atteint plus de 2 millions de signatures, Greenpeace, Oxfam, Notre affaire à tous et la Fondation Nicolas Hulot viennent d’adresser au Tribunal administratif de Paris une requête sommaire contre l’État pour inaction climatique. Ce court document permet d’introduire l’instance. Il sera complétée et détaillée par un « mémoire complémentaire » remis au juge administratif courant avril.

Cette action fait suite aux échanges que les ONG avaient eu avec le gouvernement en février. François de Rugy, ministre de la transition écologique et solidaire, avait communiqué un document d’une dizaine de pages. Il y rappelait à quel point la France est « pionnière » dans la lutte contre le réchauffement climatique, et ce depuis les années 1990, selon lui. Il rejetait la faute sur les Français, estimant qu’ils doivent comprendre que les objectifs à atteindre ne se feront qu’au prix de nombreux efforts, qu’ils ne semblent pas être prêts à consentir. « Le gouvernement nous a expliqué que selon lui, la trajectoire est la bonne et qu’il fait tout ce qu’il peut, tout ce qu’il faut pour lutter contre le dérèglement climatique », s’insurge Jean-François Julliard, directeur général de Greenpeace France. Pour les acteurs de l’Affaire du siècle, l’heure est à la prise de responsabilités de tous les acteurs du changement. Le temps est à l’action et non plus aux discours et aux mesurettes politico-politiciennes.

L’Affaire du siècle, pour un État qui agit

La requête pointe directement du doigt l’attentisme dans lequel sont tour-à-tour plongés les gouvernements successifs. En ce sens, l’État ne peut donner qu’une désolante impression de mollesse pour les plus déterminés à agir. « Dans le contexte actuel, l’État doit jouer un rôle central, fondamental pour éclairer, guider, inciter les citoyens, les entreprises, les décideurs, au nom de l’intérêt général », considère Jean-Baptiste Bosson, glaciologue diplômé de l’Université de Lausanne.

Aujourd’hui, le droit administratif ne permet pas d’intenter un procès à l’État pour inaction climatique, mais cela pourrait rapidement changer. « Dans le recours que l’on dépose aujourd’hui, on évoque plusieurs moyens de droit. Le premier est le principe général du droit à vivre dans un système climatique stable. Et le second est la reconnaissance du préjudice écologique » explique Marine Denis, porte-parole de Notre affaire à tous. C’est sur ce second point que les associations veulent appuyer. « Le juge administratif pour reconnaître aussi le fait que le changement climatique crée des dommages environnementaux subis par des individus. Et de fait, ces personnes-là pourraient invoquer le préjudice écologique devant une juridiction administrative ».

Les organisations appellent l’ensemble des soutiens de l’Affaire du siècle à transformer l’engouement autour du recours en une mobilisation dans les rues. Cette fin de semaine est chargée au niveau climatique. En plus dépôt du recours contre l’État dans l’Affaire du Siècle le 14 mars, les collégiens, lycées et étudiants appellent à une grève scolaire ce vendredi 15 mars. Et ce samedi 16 mars, c’est la « Marche du Siècle » pour dire « ça suffit ! » et demander des changements immédiats.

Salon Big Data : la donnée, une stratégie d’entreprise

Cette 9e édition de ce salon a été l’occasion de faire le point sur cette activité. Ce marché ne connaît pas la crise. Les éditeurs de services Big Data ont généré 57 milliards de dollars de chiffre d’affaires en 2017. Et la croissance devrait être soutenue (une moyenne de plus de 8 % par an) puisque le marché mondial du Big Data pourrait représenter 210 milliards de dollars et 3 % du PIB l’année prochaine.

Dans l’Union européenne, d’ici 2020, la part des produits et services data représenteront 11,8 % des dépenses. Enfin, l’industrie, la finance et le retail sont les trois principaux secteurs d’application du Big Data sur le vieux continent.

Si les projets Big Data s’accélèrent dans les entreprises, la maîtrise des données reste néanmoins au cœur du succès des projets. Car si les données et l’analyse ont historiquement servi à compléter la stratégie business, un changement s’est opéré, en faisant une stratégie d’entreprise à part entière.

Il apparaît en effet que les entreprises ayant un bon niveau de « datalphabétisation » (ou Data Literacy) enregistrent jusqu’à 5 % d’augmentation de leur valeur d’entreprise. C’est ce qui ressort d’une étude commandée par Qlik et réalisée par les universitaires de la Wharton School et le cabinet d’études IHS Markit.

La France dans le trio de tête

À l’heure où le volume de données explose, poussé par l’avènement des nouvelles technologies telles que la robotique et l’intelligence artificielle, la datalphabétisation c’est-à-dire la capacité des salariés à lire, analyser et utiliser les données pour la prise de décisions, et à communiquer à l’aide de ses données dans l’ensemble de l’entreprise, devient un véritable élément différenciateur pour les entreprises.

Bonne nouvelle, la France est le 3e pays européen présentant le plus haut taux de « datalphabétisation » de ses salariés, avec un score moyen de 77,3 selon cette étude réalisée à partir de 604 entretiens. L’hexagone se positionne juste derrière le Royaume-Uni et l’Allemagne parmi les pays les plus matures en la matière.

À l’échelle internationale, l’Europe détient le score le plus élevé en matière de maîtrise des données contrairement aux autres continents. En effet, 72 % des décideurs européens affirment que la datalphabétisation est « très importante », contre seulement 60 % des décideurs en Asie et 52 % aux États-Unis. Le Japon enregistre d’ailleurs le taux le plus faible à 54,9 %.

Éthique et RGPD

Le traitement et la manipulation des données ne doivent plus être réservés uniquement aux équipes informatiques, mais à tous les niveaux de l’entreprise. C’est pourquoi le besoin de former les collaborateurs à la compréhension et à la maîtrise des données est indispensable et de plus en plus pressant, permettant l’acquisition de nouvelles compétences et la prise de décisions « data-driven ».

Mais à mesure que l’usage de l’intelligence artificielle et du big data se développe dans les organisations, l’éthique doit devenir une priorité dans toute stratégie d’entreprise axée sur les données. Et si les entreprises n’adoptent pas d’elles-mêmes cette attitude, le Règlement général sur la protection des données à caractère personnel (RGPD) est là pour le leur rappeler…

EOL, la « mini-usine de fabrication d’un médicament à domicile »

Le 5 mars, le laboratoire de recherches Creative Eurecom a remporté le Global Industrie Award “Réalisation Exemplaire” pour son produit EOL. Cet équipement permet de fabriquer à domicile un nouveau traitement inhalé contre les infections respiratoires sévères.

“Ce projet a commencé chez la startup lyonnaise Alaxia qui a développé un médicament pour les patients atteints de mucoviscidose. Le seul problème : cette substance a une durée de vie de 30 minutes donc on doit synthétiser le médicament à domicile. C’est là qu’intervient EOL”, explique Julien Marine, ingénieur responsable du projet.

Simple d’aspect et sécurisée, la machine a été réalisée pour être utilisée par un enfant de 12 ans. Pourtant, elle intègre beaucoup de technologies complexes : “Ce projet regroupe beaucoup de technologies différentes : de l’électronique, du logiciel embarqué sécurisé, de la thermique -puisque le médicament est synthétisé à 5°c-, de la micromécanique, de la plasturgie sophistiquée notamment pour le consommable qui est stérile, de l’intégration et enfin de la connectivité sur internet”, explique Michel Houdou, président de Creative Eurecom.

Le but de cette machine transportable est de permettre aux patients de se soigner n’importe où et ainsi gagner en liberté. Les essais cliniques démarreront normalement en mai 2019, et Julien Marine espère une commercialisation pour 2024.

JNI 2019 : Réunir la communauté scientifique française

Dans le cadre des Journées Nationales de l’Ingénieur 2019 et du partenariat avec l’IESF, Techniques de l’Ingénieur a réalisé des interviews avec plusieurs des participants au Colloque National organisé au CNAM par l’IESF. Marc Ventre, président d’Ingénieurs et scientifiques de France (IESF), nous explique la situation actuelle de l’ingénierie en France, entre innovation et diversité.

Quels sont les objectifs de ces JNI 2019 ?

Il y a deux objectifs selon moi. D’abord, il s’agit de réunir la communauté scientifique française, qui représente plus d’un million de personnes. C’est une population qui compte et qu’il faut continuer à alimenter car nous faisons face à deux grandes transitions : numérique et énergétique. Pour que la France ait toute sa place dans ces grandes transitions, il y a un besoin en matière grise et la matière grise vient des ingénieurs et des scientifiques. Ensuite, les JNI permettent de s’adresser aux jeunes pour leur dire : « Vous avez ici une filière porteuse, n’hésitez pas à vous y engager, vous serez acteurs de ces grandes transformations. Vous aurez un métier qui est enthousiasmant. Si vous allez dans l’industrie, c’est un secteur de quasi plein emploi, avec des salaires supérieurs à la moyenne nationale ».

Quel est le rôle de l’innovation dans ces transitions ?

Il nous faut faire preuve de beaucoup d’innovation et de capacité de créativité pour répondre aux challenges posés par ces grandes transformations. Et encore une fois, les ingénieurs et les scientifiques sont particulièrement bien placés et sollicités pour répondre à ces questions. La formation des ingénieurs français favorise la capacité d’innovation et de créativité, beaucoup plus que d’autres systèmes ailleurs dans le monde.

Pourquoi axer les JNI 2019 sur la diversité ? Quelle est la situation actuelle en France ?

Nous pensons beaucoup à la diversité homme/femme mais il existe également toute la diversité des origines sociales ou de pays et c’est en mélangeant tout ça qu’on obtiendra le meilleur cocktail d’innovation et de créativité. Avec l’IESF, nous travaillons beaucoup sur la diversité homme/femme, notamment à travers une action qui s’appelle « Promotion des ingénieurs et scientifiques de France ». Nous allons dans les collèges et lycées pour promouvoir les filières techniques, surtout vis-à-vis des jeunes filles et des jeunes femmes. Nous rencontrons tous les ans 40.000 jeunes, c’est considérable ! Nous faisons également tous les ans une grande enquête nationale auprès de tous les ingénieurs et nous obtenons 50 000 réponses. La moyenne nationale de la proportion homme/femme dans les métiers de l’ingénierie est de 20% de femmes et 80% d’hommes. Mais si nous isolons les derniers arrivants dans les métiers de l’ingénierie, la proportion de femmes monte à 28%. Cela n’est pas encore suffisant mais la tendance est à l’amélioration.

Revue de presse anglophone #23 : les 10 news de la semaine

Les 5 tendances technologiques en passe de transformer les industries

Appareils pliables, intelligence artificielle, technologies d’emballage 3D,  nouvelles solutions robotiques, informatique quantique… Certaines avancées sont imminentes, d’autres prendront plus de temps à se concrétiser. Cependant, chacune donne un aperçu de la façon dont notre vie professionnelle et personnelle va changer.

Source : forbes

Confidentialité : Mark Zuckerberg fait de nouvelles promesses 

Après une année de scandales liés à quelques lacunes en matière de protection de la vie privée et de décisions politiques controversées, Mark Zuckerberg déclare vouloir faire de Facebook un réseau social « centré sur la protection de la vie privée ».

Sources : time bbc

 

Si les villes intelligentes passent au vert, c’est parce que ça coûte moins cher

Nos villes deviennent de plus en plus intelligentes. Regardez autour de vous dans n’importe quelle métropole moderne et vous verrez des centaines d’appareils intelligents. Des appareils plus pratiques, qui renforcent notre sécurité, réduisent les embouteillages, améliorent notre économie – tout cela dans le but d’améliorer notre qualité de vie. Mais avec cette révolution technologique, il est nécessaire de changer la façon dont nos villes sont alimentées.

Source : forbes

 

5G : les défis informatiques qui l’accompagnent

La technologie 5G va redéfinir tous les standards de haute vitesse. Oui, mais elle devra relever au moins 3 défis.

Source : forbes

 

Machine learning : d’ici 2022, 60% des entreprises auront introduit l’IA dans leurs activités quotidiennes

Selon les dernières prédictions d’un cabinet d’analystes, les entreprises utiliseront 50% d’automatisation en plus d’ici trois ans.

Source : forbes

 

Google Street View vous permet maintenant de vous promener dans le Grand collisionneur de hadrons

L’accélérateur de particules le plus grand et le plus puissant du monde est désormais à portée de clics. Visite guidée.

Source : time

 

La boue des zones humides, une « arme secrète » contre le changement climatique

Vu le volume de carbone emprisonné dans la boue des zones humides du monde entier, la préservation des zones humides côtières est essentielle pour atténuer le réchauffement climatique.

Source : bbc

 

Pourquoi vous devriez vous inquiéter des machines qui lisent vos émotions

Les machines peuvent maintenant identifier la colère, la peur, le dégoût et la tristesse. La «détection d’émotion» est passée d’un projet de recherche à une industrie de 20 milliards de dollars. Et c’est peut-être un problème…

Source : theguardian

 

La grosse batterie Tesla résiste dans le marché en plein essor du stockage de l’énergie

Selon le dernier rapport Quarterly Dynamics  de l’Australien Energy Market Operator, la batterie Tesla de Hornsdale, en Australie, poursuit son ascension, empochant 4 millions de dollars supplémentaires au quatrième trimestre.

Source : theguardian

 

Cinq cartes qui révèlent les dernières étendues sauvages du monde

Des recherches récentes ont montré que seulement 23% de la surface terrestre de la planète (hors Antarctique) et 13% de l’océan peuvent désormais être considérés comme étendues sauvages, ce qui représente un déclin de près de 10% au cours des 20 dernières années. Et plus de 70% de la nature sauvage restante se trouve dans cinq pays seulement.

Des chercheurs américains et australiens ont récemment produit une carte mondiale illustrant ce déclin en combinant de multiples données (densité de population, éclairages nocturnes, types de végétation, etc.)

Source : theconversation

 

Par I. B.