Industrie du futur : des instructions visuelles de travail connectées et intelligentes.

Sébastien Chevalier, co-fondateur et directeur produit de Picomto

1/ Votre solution de digitalisation des instructions de travail et modes opératoires pour capturer et
diffuser le savoir-faire opérationnel vous a permis d’être finaliste du challenge Industrie du Futur
SKF Atos 2017, dans la catégorie « Usine 4.0 ». En quoi cette participation au challenge a-t-elle pu
changer le cours du développement de votre start-up ?

Cette participation nous a permis de démontrer la pertinence de notre solution sur un cas d’usage concret avec SKF pour les opérateurs et responsables mais également de montrer toute la valeur ajoutée qu’on pouvait apporter à des entreprises comme Atos et leur client sur la problématique qu’on adresse et l’expertise que nous avons développée.

2/ La solution développée par Picomto participe à la transformation des métiers de l’industrie, en
rendant l’opérateur « digital » et augmenté ».
Quelle vision avez-vous de l’usine du futur ? Comment y contribuez-vous ?

Chez Picomto, nous sommes convaincus que l’opérateur doit être au cœur de l’usine du futur. C’est lui qui détient le savoir-faire. Nous développons notre solution afin de lui donner tous les outils pour favoriser sa performance opérationnelle : l’accompagner dans l’exécution de ses tâches avec des modes opératoires visuels et digitaux, la collecte de données simplifiée pour l’amélioration des processus et une aide au diagnostic de problèmes.

3/ Vous êtes toujours actif sur les challenges, vous êtes lauréat du « Digital Industry Award » 2018, dans la catégorie « Smart plant ». Que pouvons-nous vous souhaiter pour la suite ?

Le meilleur qu’on puisse nous souhaiter serait de continuer à convaincre les industriels que Picomto est la solution à leur problématique de perte de savoir-faire et de digitalisation de leurs instructions de travail.

Les capteurs sont les yeux de l’usine du futur

Jean INARD-CHARVIN et Geoffrey BRUNO, deux jeunes ingénieurs diplômés notamment de l’Institut d’Optique ParisTech sont à l’origine de cette innovation. Ils ont su transformer une idée en solution industrielle pour l’usine 4.0, capable de séduire le leader mondial de fourniture de technologies de roulements pour équipements tournants.

Retour sur leur parcours avec Geoffrey BRUNO, directeur général d’Enovasense, Ingénieur de l’Institut d’Optique ParisTech

Votre procédé de contrôle a séduit SKF. Dès lors que vous avez été sélectionné comme finaliste du concours, vous avez travaillé avec un mentor, collaborateur de SKF France. La participation a nécessité un réel investissement tant pour vous que pour SKF, quel retour d’expérience pouvez-vous en faire ?

Le travail avec notre mentor a été très productif : dès les premières discussions, nous avons identifié avec lui des dizaines d’applications potentielles de la technologie dans le groupe SKF. Une des difficultés a même été de choisir la plus importante et la plus porteuse pour commencer à travailler pour le Challenge. Par la suite, notre mentor a réuni les échantillons nécessaires à la réalisation d’une première étude de faisabilité. Une fois les premiers résultats obtenus, il a organisé une visite de la ligne avec les responsables du sujet où nous avons commencé à imaginer les possibilités d’implantation de la technologie. Le challenge a donc permis de créer le contact et d’allouer du temps de notre mentor au sujet, qui sont deux éléments cruciaux dans le démarrage de ce type de projets. Par ailleurs, la perspective de la date de la finale a permis d’accélérer encore plus cette étape de notre côté, comme du côté de SKF.

Un an après, quelles relations avez-vous gardées avec SKF et en quoi cette participation au challenge a-t-elle changé le cours du développement de votre start-up ?

À la suite du Challenge et de la communication qui en a été faite, nous avons reçu plusieurs sollicitations en interne chez SKF de différentes usines sur d’autres sujets que celui développé pour le concours dont un qui a bien avancé et pour lequel une usine est équipée actuellement d’un capteur de test. Sur le sujet même du concours, SKF nous a commandé une étude plus avancée, que nous sommes en train de finaliser actuellement. Indépendamment de ces nouvelles perspectives, nous avons intégré à notre communication cette reconnaissance d’un grand industriel comme SKF, ce qui a apporté de la crédibilité pour obtenir d’autres références.

Votre technologie brevetée de mesure par laser permet aux industriels de gagner du temps et des matières premières en créant le revêtement optimal pour leur produit. Nous sommes ici au cœur du manufacturing et des usines. Comment percevez-vous cette usine dite « du futur » à laquelle vous offrez de nouvelles perspectives ?

Avec les robots qui sont les bras de l’usine, les algorithmes avancés qui en sont le cerveau, les capteurs doivent être considérés comme les yeux de cette usine du futur, nécessaires pour qu’elle puisse fonctionner pleinement. D’un point de vue général, il est très excitant de voir le niveau des technologies qui sont maintenant accessibles pour l’industrie et la production. Il ne faut cependant pas que ces nouvelles perspectives ne restent justement que des perspectives théoriques qui n’existent que dans les salons et les articles. Nous constatons que les industriels qui ont le courage de vraiment accélérer le déploiement effectif de ces technologies de production prennent des parts de marché considérables dans la compétition internationale.

A moins de trente ans, vous avez déjà porté votre pierre à l’édifice de l’industrie 4.0. Votre parcours est assez exemplaire : prise de risque, innovation puis reconnaissance par des industriels « historiques ». Quels sont vos prochains défis ?

En très peu de temps, notre produit a été choisi et installé par des grands industriels, leaders mondiaux dans les domaines de l’automobile, de l’aéronautique, du verre, etc. Nous venons de déposer un brevet révolutionnaire avec Renault pour mesurer des revêtements au cœur des moteurs automobiles. Nos prochains défis sont de déployer ces premiers succès au sein de ces groupes, de développer de nouveaux marchés pour notre technologie et de l’enrichir et la faire évoluer pour lui permettre de toucher toujours plus d’applications.

 

 

 

 

 

 

 

 

 

 

L’industrie est le lieu de l’épanouissement des talents

Yves VALENTIN  Directeur général Editions TI

En 1946, un ingénieur Centralien, s’est inspiré des bulletins scientifiques des sociétés savantes pour décliner une version « industrielle », propre à accompagner la reconstruction de l’appareil productif détruit ou démantelé pendant la guerre. Il fallait recueillir les meilleures pratiques mais aussi proposer aux industriels de quoi construire des solutions innovantes pour faire face à une consommation croissante alors que les ressources et les moyens techniques ou humains étaient encore fragiles.

Depuis lors, crises et troisième révolution industrielle sont passées, la quatrième est en cours, anticipée par les plus innovants mais ne devant pas être subie par les autres.

Techniques de l’Ingénieur garde sa vocation, reste le support de formation des étudiants, nourrit l’idéation, sécurise les process.

L’Industrie du futur se prépare avec ceux qui sont aujourd’hui en poste, mais en s’ouvrant à l’agilité des startups, en sachant collaborer avec elles sans en briser la dynamique, ce qu’ont parfaitement réussi par exemple SKF et ATOS avec les finalistes du challenge Industrie du Futur.

L’industrie du futur existera parce qu’elle intégrera les étudiants d’aujourd’hui, armés de nouvelles compétences, parce qu’elle favorisera l’intrapreunariat.

Techniques de l’Ingénieur est partie prenante de cet écosystème, et aujourd’hui, moi-même ancien « industriel », je suis fier de pouvoir fournir les clés de cette usine 4.0, tant par les articles produits par nos 3500 auteurs, que par le rôle de « passeur » que nous jouons, entre les étudiants et le monde de l’entreprise comme entre les industriels installés et les startups ou encore en étant partenaire d’événements tel que l’Usine Extraordinaire.

Yves Valentin
Directeur général Editions TI

IA : conserver l’humain au coeur de la décision

3 questions à Jean-Michel Cambot, Founder & Chief Evangelist de Tellmeplus, pour comprendre comment d’une idée on peut faire une startup à succès, comment tirer avantage de sa participation à un startup challenge organisé par des industriels et se projeter dans l’avenir.

Jean-Michel Cambot Founder & Chief Evangelist de Tellmeplus

Vous êtes à l’origine d’une technologie brevetée de Machine Learning (le Meta Active Machine Learning) ; fondateur d’une startup qui attire des partenaires et investisseurs de renom. Qu’est-ce qui, dans votre parcours personnel, a motivé cette créativité et cet esprit d’entreprendre ?

Lorsque j’ai inventé Business Objects il y a 30 ans, je voulais redéfinir les outils de prise de décision grâce à l’intelligence artificielle. Je me suis alors appuyé sur la technologie émergente du « Client/Serveur », pour ainsi ouvrir la voie de la Business Intelligence. Avec Predictive Objects, j’ai voulu cette fois utiliser l’IA pour révolutionner la prise de décision des experts métiers du secteur industriel. Grâce à l’analyse prédictive et à l’IA, nous sommes désormais capable chez Tellmeplus de déporter l’intelligence dans les objets connectés industriels (IoT) de nos clients pour une prise de décision en local et quasi temps réel. C’est ce que nous appelons l’Asset Intelligence at the Edge. Nous utilisons également l’IA symbolique qui sait expliquer ses décisions et permet ainsi aux experts métiers industriels de bénéficier de recommandations explicables et immédiatement actionnables.

A partir du moment où la liste des finalistes a été dévoilée, vous avez travaillé avec un mentor, collaborateur d’Atos. Steve Péguet, le directeur innovation d’Atos France, continue à faire vivre cette collaboration. Concrètement, quels bénéfices avez-vous pu tirer de cette expérience ?

Nous n’avons cessé depuis 2015, date de ma rencontre avec Steve Peguet lors du Big Data Paris, de développer notre collaboration et multiplier les occasions de partager sur diverses scènes nos convergences. Nous avons également participé à plusieurs challenges et adressé des entreprises et prospects ensemble. Nous sommes aujourd’hui partenaires stratégiques. Nous serons d’ailleurs ensemble sur scène avec Steve lors du panel « Direction la maintenance prédictive” qui se tient à l’occasion du Digital Industry Summit Atos. Nous avons, j’en suis sûr, encore de belles collaborations à venir !

Predictive Objects utilise l’Intelligence Artificielle pour créer les modèles prédictifs. Vous êtes au cœur des “Technologies clés 2020”, les technologies identifiées comme stratégiques pour la compétitivité des entreprises françaises et qui font basculer le tissu industriel vers “l’industrie du futur”.

Comment imaginez-vous cette usine 4.0 à laquelle l’IA et les applications que vous en faites offrent de nouvelles perspectives ?

L’IA est présente depuis les années 60 dans les usines, ce n’est donc pas une nouveauté en tant que telle. Ce qui est différent aujourd’hui dans l’industrie 4.0, c’est le volume de données générées par des capteurs connectés dans l’usine, tous reliés au cloud ou à une plateforme. Grâce à l’IA, l’usine du futur peut simplement collecter et utiliser les données afin de mieux coordonner la chaîne d’approvisionnement, les équipes de conception, la chaîne de production et le contrôle qualité, … dans le but de proposer des produits ou des services personnalisés à ses clients et d’en assurer la disponibilité, la livraison et la conformité.

En tant que nation industrielle, la France se doit de maintenir son industrie à la pointe des nouvelles technologies ! L’IA est bien évidemment au cœur du processus et la clé pour ce voyage. Pour passer à la maintenance prescriptive tant convoitée, la technologie sera certes obligatoire, mais il faudra néanmoins conserver l’humain au cœur de la décision. Il sera nécessaire d’utiliser des technologies d’IA capables d’expliquer ses décisions aux experts. Plutôt disruptive par rapport à la vague du Deep Learning, cette IA symbolique issue de l’Ecole de mathématiques Française permettra à la France de se démarquer. Nous y travaillons déjà avec de nombreux partenaires à l’image d’Atos, Cisco, Microsoft,..

En conclusion, que pouvons-nous maintenant vous souhaiter ?

Que Tellmeplus devienne le leader européen du « Edge Symbolic AI for Industrial IoT » et accompagne ainsi les groupes industriels au sommet de l’art pour leur apporter une vraie valeur ajoutée.

Industrie du futur : les briques de la 4e révolution industrielle

La transformation des entreprises signifie l’intégration de nouveaux outils numériques et technologiques mais aussi de compétences et de culture en dehors de leur cœur de métier. A travers de nouveaux modèles économiques plus proches des consommateurs et de nouveaux process plus responsables, l’industrie du futur a pour objectif de repenser la place de l’humain au sein de l’entreprise. Robotique, impression 3D, intelligence artificielle, biomimétisme, personnalisation de masse… les entreprises ont besoin de comprendre les enjeux et les opportunités de ces nouveaux modèles pour identifier ceux qui peuvent leur être réellement utiles et bénéfiques.

Retrouvez les principales briques – technologiques, numériques, environnementales, économiques – de l’industrie du futur en infographie.

Des lunettes connectées pour communiquer à distance avec les techniciens

Finaliste en 2017 du challenge Industrie du Futur organisé par ATOS et SKF, en partenariat avec Techniques de l’Ingénieur, Expert Téléportation est une jeune société dont le cœur de métier est d’éditer et développer une solution qui place l’expert aux côtés du technicien, dans l’usine.

Interview de Frédéric Pedro, CEO et cofondateur de la startup, premier et le seul intégrateur mondial sur lunettes connectées.

1/ Vous avez été finaliste du start-up challenge SKF Atos 2017, dans la catégorie « Usine 4.0 ». S’en est suivi un travail avec un mentor. Quel retour d’expérience pouvez-vous en faire ?

Nous avons remporté près de 20 prix industriels, nous avons vu de nombreuses approches. Celle de SKF était très intéressante. Le mentor SKF avait pour objectif de nous ouvrir son carnet d’adresse dans son entreprise. Nous avons pu ainsi organiser près de 30 interviews auprès d’opérationnels. Notre étude démontrait que 9 responsables techniques SKF sur 10 avaient des pertes d’exploitation chaque année car ils doivent attendre le déplacement d’un expert, souvent déjà très sollicité et basé dans une autre ville avant de pouvoir de réparer les équipements de l’usine. Nous avions trouvé de nombreux cas d’usages, fait des dizaines de meetings sur place, des opérationnels étaient motivés mais ils ont eu des refus d’obtention de budget innovation.
La démarche innovation est encore nouvelle dans les grands comptes, il y a souvent un décalage important entre la théorie et la réalité. La plupart des concours industry 4.0 servent en général de première étape d’acclimatation à l’existence d’innovations, montrer qu’il est possible de travailler autrement. Sans budget, voire de service achat spécialement dédié, les initiatives s’arrêtent vite.

2/ Un an après, où en êtes-vous ?

Nous avons remporté plusieurs autres concours : EDF Pulse, La Tribune Industry 4.0 Sud Ouest ou encore Shell Industry 4.0 (LiveWire), qui a détaché des ressources pendant plusieurs mois (RH, juridique, commerciale, etc.) pour nous structurer. Notre offre a continué à s’enrichir : nous supportons des milieux très complexes (jusqu’à des atmosphères explosives), avons eu une labellisation de la Direction Générale de l’Armement, avons mis en place des démarches qualités ISO, etc.
Surtout, nous avons développé notre chiffre d’affaire dans plusieurs pays, avec notamment des clients dans l’énergie et l’aéronautique, deux secteurs très concernés par la disponibilité du matériel. Nous sommes très fiers d’accompagner dans leur transition digitale des sociétés comme Caterpillar (Eneria, Bergerat Monnoyeur, Aprolys), Airbus, Safran ou encore EDF.

3/ Quelle vision avez-vous de cette Usine 4.0 ?

Dans un monde où les innovations de service deviennent un enjeu stratégique de différenciation et d’amélioration de la performance, l’industrie du futur permet de passer de technologies permettant de faire un « constat » (téléphone, email, photo, Skype…) à des technologies d’action immédiate et préventive. Comme d’autres solutions nouvelle génération, Expert Teleportation est une innovation de rupture, similaire à l’arrivée des téléphones portables, GPS et d’internet dans les entreprises.
Les cas d’usages sont spectaculaires : productivité accrue, réduction de coûts, disponibilité du matériel, outil de formation en continue, amélioration des conditions de travail, etc. En une seule opération à Sendou (Sénégal), EDF a ainsi économisé plus de 40.000€ de salaire, près de 10.000€ de frais logistique et l’équivalent de 2600 arbres sauvés en équivalent carbone.

L’industrie du futur, c’est à la fois repenser l’usine pour être plus productive mais aussi avec un impact social. Une autre manière de travailler. Ce n’est pas qu’une opportunité, il n’y a plus vraiment le choix. 260 entreprises du Fortune 500 ont disparu les 15 dernières années ! Si les industriels étaient un des derniers bastions épargnés, aujourd’hui il y a des startups qui fabriquent des fusées beaucoup moins chères et réutilisables ! La dernière étude de la Banque Publique d’Investissement indiquent qu’un quart des ETI industrielles françaises vont disparaître d’ici 3 à 5 ans car elles n’auront pas réussi leur transformation digitale.

La France a clairement un terreau de startups et de technologies disruptives les plus impressionnants au monde. Les industriels français ont une carte à jouer. Ceux qui vont prendre un avantage décisif sont ceux qui vont privilégier la collaboration et développer l’innovation. Nous, la collaboration grand compte et startup, non seulement on y croit mais on sait que c’est possible !

Challenge Industrie du futur : les industriels s’unissent pour l’usine de demain

SKF, le leader mondial dans la conception et fabrication de roulements et Atos, l’un des plus grands acteurs de la transformation numérique, organisateurs du challenge « Industrie du futur », ont relevé les défis de la transformation numérique dans l’industrie en donnant à des startups l’opportunité de promouvoir leurs solutions.

Les 14 startups finalistes ont été encadrées, tutorées, conseillées et accompagnées par des mentors, experts SKF ou Atos, spécialistes du développement de projets innovants. Ceux-ci les ont aidées à finaliser et à mettre en valeur leurs réalisations.

Ce mode d’intégration de l’innovation dans des entreprises « installées » a permis à tous les protagonistes de tirer profit de cette expérience. L’industrie du futur n’est pas une vue de l’esprit, les partenariats noués montrent comment elle devient réalité.

Un an après, un bilan avec les startups s’imposait. Cym, Enovasense, Expert Téléportation, Optimdata, Picomto, Skeyetech et Tellmeplus se sont prêtés au jeu.

Bilan complet de l’édition 2017 du challenge Industrie du Futur

Challenge « Industrie du Futur » : les innovations des finalistes

RV Carnot, Robot4Manufacturing, Biomim’expo ou Enova Paris, nous vous attendons !

Chargés d’affaires, éditeurs ou chef de produits seront heureux de vous rencontrer. Ce sera l’occasion de vous montrer la nouvelle application du Magazine d’Actualité, les nouvelles offres Industrie du Futur et Smart City – Ville Intelligente ou encore de vous faire découvrir le magazine Engine.
Pour en savoir plus :

Enova : 23/24 octobre, Paris
Robot4Manufacturing : 24/25 Octobre, Roche-sur-Yon
Biomem’expo : 23 octobre, Paris

ENOVA PARIS, pour donner vie aux projets alliant électronique, mesure, vision et optique

Ce rendez-vous comprend une partie salon avec plus de 260 exposants avec 3 villages thématiques (embarqué et objets connectés, photonics & IoT ; prototypage impression 3D) et des parcours de visite : aéronautique/militaire ; agroalimentaire/agricole ; automobile/transport ; industrie 4.0 ; médical ; smart cities/smart building.

Il est utilement complété d’un service de rendez-vous d’affaires pour le business et propose un programme de 30 conférences sur des thèmes tels que intelligence artificielle, LTE-M, NB-IOT, 5G, métrologie du futur, incertitude et instrument de mesure, mesure 3D, fabrication additive, véhicule autonome, contrôle, qualité et lutte anti contrefaçon, deep tech for smart manufacturing.

Enfin, ARMIR et CAP’TRONIC y organisent une animation « technologies pour la lutte anti contrefaçon » présentant les mesures performantes de nouvelles protections mises en place dans le domaine Optique, Infra Rouge et Térahertz.

Programme complet et demande de badge sur Enova

Bruno Grandjean: « La France doit rattraper le bon wagon industriel grâce à l’usine du futur »

Techniques de l’ingénieur: En quoi la rupture technologique que constitue l’usine du futur peut-elle être une aubaine pour la France ?

Bruno Grandjean: La France est à la traîne industriellement, on le sait. Nous avons décroché par rapport à un pays comme l’Allemagne. Le développement de l’usine du futur est l’occasion pour l’industrie française de raccrocher le bon wagon. Nous, les industriels, devons mettre en place une politique volontariste pour être, sinon leaders, du moins extrêmement compétitifs sur ces nouveaux marchés. Aujourd’hui, il s’agit pour l’industrie française de prendre son destin en main.

Bruno Grandjean est Ingénieur, Dirigeant du Groupe REDEX, Président de l’Alliance pour l’Industrie du Futur (AIF) et de la Fédération des Industries Mécaniques (FIM).

Comment s’y prendre concrètement ?

D’abord, il me semble que l’Europe doit tirer les leçons de ce qui se passe autour d’elle en se protégeant économiquement. La Chine et les USA le font, cela doit nous faire réfléchir. Après, il faut la volonté d’investir, de former, et de structurer l’industrie autour de cette grande rupture que constitue l’usine du futur. Le retour vers une hausse des capacités de production industrielle en France passe par là.

On entend souvent dire que l’avènement de l’usine du futur avec son lot d’IA, de robotique, d’automatisation, va tuer l’emploi industriel…

C’est aujourd’hui un débat un peu dépassé. Au contraire, de nouvelles compétences sont recherchées. Les emplois actuels en usine ne vont pas disparaître, ils vont évoluer. L’enjeu ici n’est pas de savoir si la modernisation des usines va créer de l’emploi, mais plutôt si nous saurons accompagner les besoins de formation nécessaires pour prendre ce virage technologique.

Justement, la notion de travail à l’usine pâtit en France d’une image plutôt négative. Comment cela peut-il évoluer ?

Il y a un gros travail à effectuer en direction des jeunes pour démystifier ce qu’est le travail à l’usine. Aujourd’hui, le numérique a fait son entrée dans nos usines, on ne travaille plus à la chaîne. Les profils recherchés pour les nouveaux métiers liés à l’usine du futur sont hautement qualifiés. La numérisation des métiers est une transformation importante qui doit profiter à tous les travailleurs en termes de formation. Cette montée en compétence des métiers du numérique doit servir de tremplin pour faire venir toute une catégorie de travailleurs très qualifiés dans les usines.

L’AIF est partenaire de l’Usine Extraordinaire. Quelles sont vos attentes par rapport à cet événement ?

L’Usine Extraordinaire et une formidable occasion de montrer à quel point le travail à l’Usine peut être une aventure professionnelle formidable. Nous voulons faire aimer aux jeunes les métiers d’usine et leur montrer que cette voie est aujourd’hui pleine d’opportunités. Le fonctionnement d’une usine est très méritocratique: on peut gravir les échelons tout au long d’une carrière. C’est important pour les jeunes de pouvoir se projeter dans ce type d’évolution à long terme, en sachant également qu’ils auront l’occasion de monter en compétence régulièrement.

Cet événement est aussi destiné à montrer que l’usine de demain est une mine d’innovations technologiques…

Les défis dans les usines sont permanents: L’Usine Extraordinaire permettra au grand public de découvrir les process incroyables que les technologies de l’usine du futur permettent de mettre en place. Il doit s’agir aussi de faire comprendre que toutes ces innovations ne sont possibles qu’avec des humains pour les développer et les faire fonctionner. L’usine du futur doit être une volonté collective.

Propos recueillis par la rédaction

Les objets connectés prennent de la hauteur

En 1998, Iridium lançait ses premiers satellites. Son réseau permettait de téléphoner au milieu du désert ! A cette époque, les smartphones n’existaient pas encore ; il n’y avait que des téléphones mobiles.

Aujourd’hui, l’entreprise renforce sa position en misant sur l’Internet des objets. Avec environ 630 000 dispositifs actifs au 30 juin 2018, le nombre d’abonnés IoT (Internet des objets) d’Iridium a bénéficié d’un taux de croissance annuel d’environ 19 % au cours des trois dernières années. Mais les ambitions d’Iridium ne s’arrêtent pas là.

L’entreprise s’est donc associée à Amazon web services (AWS) pour le développement d’Iridium CloudConnect for Internet of Things. Cette solution est la première et la seule dans le cloud qui offre une couverture mondiale pour les applications reposant sur l’Internet des objets. Le réseau CloudConnect se concentrera sur les zones où les technologies cellulaires ne le sont pas déployées ou optimisées.

75 satellites Iridium NEXT

Avec ce partenariat, le duo espère ainsi répondre aux besoins du marché. Selon IHSMarkit Inc., l’IoT mondial devrait continuer à croître rapidement pour atteindre environ 75 milliards de dispositifs d’ici 2025.

Grâce à cette entente, chaque partenaire actuel d’Iridium sera en mesure d’adopter rapidement les services SSFE (services sans fil évolués), grâce à la traduction automatisée des protocoles exclusifs du réseau Iridium et des protocoles IoT standards pris en charge par AWS IoT.

Les clients professionnels d’Amazon seront en mesure de réduire les efforts d’ingénierie, les coûts d’exploitation fixes et le temps nécessaire au développement de nouveaux produits et services, grâce à la puissance et aux capacités de AWS IoT.

De son coté, Iridium a entamé un renouvellement de sa flotte de satellites. Initialement prévue pour une mise en service opérationnelle en 2017, le calendrier avait été décalé après l’explosion d’une fusée Falcon 9 au cours du remplissage de carburant, sur sa rampe de lancement.

Sept lancements ont eu lieu avec SpaceX (la société d’Elon Musk, patron aussi de Tesla), qui a livré 65 nouveaux satellites. Au total, 75 satellites construits par Thales Alenia Space (66 pour la constellation active et 9 en tant que pièces de rechange) seront mis sur orbite (à 780 km d’altitude). Ce service offrira aussi des services à haut débit, ainsi que le suivi des avions et bateaux.

Mais Iridium n’est plus le seul à proposer des services IoT par satellite. Au moins vingt start-up utilisent les nanosatellites pour en fournir (reposant notamment sur les solutions  LoRaWAN et LPGAN pour « Low Power Global Area Network ») à moindre coût.

C’est le cas, surtout, de CLS (Collecte Localisation Satellites), opérateur mondial du système de localisation et de collecte de données Argos, qui a décidé de lancer une constellation de nanosatellites (opérationnels en 2030) via sa nouvelle filiale, Kinéis, et avec le concours du CNES.

Philippe Richard

L’Usine 4.0 pourra-t-elle devenir propre ?

Toujours plus ! Jusqu’à présent, les entreprises étaient incitées à produire toujours plus pour réduire le coût de chaque produit à mesure que la quantité augmente. Mais des déchets sont produits à chaque étape de la chaîne d’approvisionnement : l’énergie utilisée pour produire et expédier les marchandises, les emballages, les déchets dans les décharges…

Demain, le paradigme pourrait être (devrait être…) « l’usine durable ». Mais cette industrie du futur sera-t-elle réellement « propre » ou déplacera-t-elle simplement les enjeux environnementaux vers les pays du sud (extraction des terres rares, recyclage, traitement des déchets, etc.) ?

Des experts et des organisations militent en faveur de ce paradigme. Pour eux, l’industrie 4.0 apporte de nouvelles promesses. Certes, dans toutes les conférences, on met principalement l’accent sur les réductions des coûts d’exploitation, une meilleure visibilité, une meilleure efficacité globale de l’équipement, des mises sur le marché plus rapides… Les références explicites à la durabilité écologique des systèmes de production restent rares !

Des robots moins gloutons

Pourtant, la numérisation et l’automatisation pourraient permettre d’optimiser l’énergie utilisée dans les procédés de fabrication, d’augmenter l’utilisation des énergies renouvelables et le recours à des sources d’énergie alternatives.

Reposant sur l’Internet des objets (IoT) et l’intelligence artificielle (IA), des programmes pourraient aussi assurer l’optimisation énergétique. C’est le cas avec des robots. Une étude menée en 2016 par Lennartson et Bengtsson (projet AREUS de l’UE) a confirmé qu’en minimisant leur accélération, leur consommation d’énergie peut être réduite d’un tiers sans pour autant augmenter le temps de production global.

Les technologies numériques peuvent également remplacer des procédés de fabrication conventionnels, souvent énergivores. La production de prototypes ou de petites pièces à la demande peut être parfaitement assurée par l’impression 3D. Grâce à la fabrication additive et à un matériau composite, General Electric a réduit considérablement le nombre d’éléments du moteur LEAP (développé par Safran Aircraft Engines et GE au sein de CFM, ce moteur est destiné à équiper les avions monocouloirs de nouvelle génération).

Les tuyères de carburant imprimées en 3D ne comptent plus qu’une pièce contre 18 auparavant ! Autres avantages de l’impression 3D : une réduction de 25 % du poids et une optimisation de l’utilisation de l’énergie (et une réduction des émissions de CO2).

Choc culturel

Mais les exemples sont encore très rares. Les industriels n’associent pas ou peu les évolutions numériques aux enjeux environnementaux. « l’amélioration des connaissances sur les impacts environnementaux de ces technologies numériques semble un prérequis. Étant donné le peu de données actuellement disponibles ; puis vient la nécessité d’embarquer les entreprises dans une transition numérique durable, que ce soit les acteurs de l’offre numérique (réduction de l’empreinte environnementale de leurs produits

et services) comme les industriels et les financeurs (intégration de critères environnementaux dans les dispositifs existants de soutien à la digitalisation de l’industrie), tout en veillant à accompagner la mutation des emplois (formation) », reconnaît l’ADEME dans son rapport « Usine du futur : comment allier transition numérique et transition énergétique et écologique ».

Philippe Richard

Stocker de l’énergie mécanique grâce aux matériaux auxétiques

A l’instar des aigles qui peuvent garder leurs serres fermées sur leurs proies sans faire travailler leurs muscles, des chercheurs ont mis au point des matériaux qui stockent de l’énergie mécanique en adoptant une position « verrouillée » et qui peuvent ensuite la relâcher sur commande. Leurs travaux constituent une approche originale des matériaux auxétiques.

Les matériaux auxétiques sont des matériaux dont le coefficient de Poisson est négatif. Cela signifie que lorsque l’on les étire, ils deviennent plus épais perpendiculairement à la force d’étirement. Cette propriété, qui s’explique par leur structure interne, se retrouve tant au niveau microscopique dans des molécules simples ou des cristaux par exemple que dans des structures macroscopiques – certaines mousses ou fibres notamment. Ces matériaux présentent des capacités supérieures pour absorber l’énergie, amortir les chocs et résister à la fracture. Leur étude est assez récente et ils sont surtout utilisés comme antichocs (emballages, armures, protège-genoux etc.).

Les scientifiques de l’Université Queen Mary de Londres et de l’Université de Cambridge les abordent d’une autre manière. Leurs travaux, publiés dans Frontiers in Materials, proposent des outils pour créer des matériaux et des structures imprimables en 3D aux propriétés élastiques prometteuses.

Adoucir les angles

Dans leurs applications actuelles, les matériaux auxétiques sont conçus avec des angles vifs pour que le matériau, lors d’un choc, se replie rapidement et efficacement sur lui-même, augmentant ainsi localement la densité de matière. Il assure de la sorte un blindage léger ainsi qu’’un amorti du choc. Le problème est que ces angles concentrent les forces et engendrent une fragilité du matériau qui se casse facilement après quelques chocs. Dans le cas d’une armure, c’est peu gênant puisqu’elle est généralement prévue pour être changée après un impact de balles. Mais pour d’autres applications, cette fragilité est un réel frein. Les chercheurs ont donc ici conçu des matériaux aux courbes lisses qui répartissent les forces et permettent des déformations répétées sans altération du matériau ; le matériau peut alors servir pour stocker de l’énergie ou pour des applications nécessitant des changements de forme. Parmi les applications envisageables : le remplacement de certains appareils ou de robots par un matériau intégrant en lui-même l’intelligence du mouvement désiré. Les chercheurs pensent notamment à des outils de préhension qui serait ainsi particulièrement économes en énergie pour l’industrie. Ces matériaux pourraient aussi servir à résoudre certains problèmes d’adaptation aux variations de température. En effet, les matériaux se dilatent et se contractent sous l’effet de la température et ces changements de formes empêchent certaines applications. En travaillant avec des matériaux auxétiques, on pourrait inventer des structures qui s’adaptent aux différentes variations en faisant évoluer leurs structures internes de manière réversible.

Ces matériaux ont été imaginés pour des processus de fabrication additive laissant beaucoup de liberté dans les formes et permettent notamment la création de structures lattices – c’est-à-dire des structures en treillis de type nid d’abeille.

Les illustrations sont tirées de Low Fatigue Dynamic Auxetic Lattices With 3D Printable, Multistable, and Tuneable Unit Cells / Eesha Khare, Stephen Temple, Ivan Tomov, Fenghua Zhang, Stoyan K. Smoukov / Frontiers in Material août 2018.

Les outils pour le faire

Grâce à ces travaux, les chercheurs ont développés des outils de calcul et de conception qui peuvent servir bien d’autres recherches. Et leur système de verrouillage à clips (voir illustration) n’en est qu’une démonstration parlante. Derrière cet objet, les chercheurs ont dû travailler sur la répartition des forces et des contraintes au sein du matériau afin de créer des structures lattices légères, dynamiques et résistantes à la fatigue. En s’inspirant de systèmes naturels qui se composent de structures articulées délocalisant les forces plutôt que de les concentrer dans de petites zones, les chercheurs peuvent assembler des éléments unitaires élastiques par l’intermédiaire de charnières en forme de S, permettant des structures en 2D ou 3D auxétiques, réglables localement et présentant plusieurs états stables de répartition des forces. Cet assemblage permet, par exemple, des déformations élastiques réversibles macroscopiques de l’ordre de 30 % alors que la déformation intrinsèque des matériaux utilisés est de 6 %. Les chercheurs en ont tiré un modèle semi-analytique des déformations qui prédit les propriétés mécaniques des structures avec moins de 5 % d’erreur. Ces outils de modélisations sont transposables pour des conceptions 3D complexes, pour des matériaux imprimables divers tels que métaux, céramiques, polymères.

Par Sophie Hoguin

Des capteurs à l’écoute des machines

Anticiper la panne qui paralysera la production ou un dysfonctionnement pouvant entraîner des défauts de fabrication, voire un risque pour des techniciens. Ce sont les deux objectifs des techniques de maintenance prédictive.

Cette surveillance permanente favorisera la planification des interventions. Les opérateurs chargés de la maintenance ne sont pas obligés de travailler dans l’urgence parce qu’un problème vient de se déclarer sur un équipement.

À condition de disposer de la bonne information au bon moment ! Ce postulat repose sur trois éléments-clés :

Par exemple, de nombreux paramètres d’un robot industriel peuvent être surveillés : température du processeur et du boîtier, erreurs de positionnement, surcharge…

  • Des protocoles de communication : la transmission en temps réel de données entre les machines et les ingénieurs chargés de la maintenance ne doit pas être pénalisée par une trop forte latence. Mais elle implique aussi de s’appuyer sur des protocoles sécurisés afin d’éviter des prises de contrôle malveillantes.

La maintenance préventive présente deux avantages principaux :

  • Une meilleure productivité : un mauvais entretien peut réduire la productivité d’une usine de 5 à 20 %. L’optimisation des tâches de maintenance maximise la durée de vie des équipements et évite des interruptions coûteuses.
  • Une réduction des coûts : les temps d’arrêt imprévus coûtent en effet aux industriels américains environ 50 milliards de dollars chaque année. La maintenance prédictive peut réduire ou même éliminer les temps d’arrêt imprévus en prédisant quand une machine a besoin d’un contrôle ou quand elle peut devenir défectueuse.

Mais « que cela soit internalisé ou externalisé, le passage par des data scientists est à minima probable, pour ne pas dire obligatoire. Ces coûts induits doivent être mis en regard des coûts de non-qualité. Le choix du prédictif face au préventif doit être systématiquement comparé pour éviter les dérives économiques », rappellent André Montaud, directeur de Thesame Tech et innovation et Guillaume Lecuyer, directeur marketing produit Visiativ, dans un article publié dans l’Usine nouvelle.

Philippe Richard

Intelligence artificielle et systèmes multi-agents

La résolution distribuée de problèmes et, plus généralement, l’IA distribuée est un courant de pensée déjà ancien. L’idée de résolution distribuée de problèmes remonte au milieu des années 1970 avec d’une part, les langages d’acteurs et d’autre part, le modèle d’architecture de tableau noir ou blackboard, initialement proposé pour la compréhension automatique de la parole et largement repris par la suite. Dans un système d’IA distribuée, un ensemble d’entités autonomes, appelées agents, interagissent pour mener à bien une tâche contribuant à la résolution d’un problème complexe. Le concept d’agent a été l’objet d’étude, non seulement en IA, mais aussi en philosophie ou en psychologie. Avec le développement de l’Internet, on a assisté à l’apparition de nombreuses dénominations, françaises ou anglaises : agent ressource, agent courtier, assistant personnel, agent mobile, agent web, agent interface, chatbot, softbot, knowbot, avatar, etc.

De façon générale, un agent est une entité informatique, située dans un environnement, et qui agit d’une façon autonome pour atteindre les objectifs pour lesquels elle a été conçue. Ces agents peuvent être aussi des entités physiques (machines, robots manipulateurs, etc.) : le domaine est alors celui des systèmes multirobots.

On peut définir deux grandes catégories d’agents :

  • les agents réactifs dotés de simples réflexes stimulus-action. Dans ce modèle, d’inspiration notamment biologique (abeilles, fourmis, termites, araignées sociales…), des comportements intelligents peuvent émerger des interactions par échanges de signaux entre les agents d’un système ;
  • les agents cognitifs, plus complexes et dotés de capacités de raisonnement sur une base de connaissances (représentation du monde, des autres agents, etc.) et de mécanismes élaborés d’interaction entre agents. Nous nous limitons ici à ce type d’agents.

La figure montre la structure d’un agent cognitif. Un tel agent doit posséder les propriétés suivantes :

  • l’autonomie, la capacité à prendre des initiatives et à agir sans intervention de l’utilisateur final ;

cap-structure-agent-cognitif

  • la perception de l’environnement ;
  • l’aptitude à communiquer, à échanger et à coopérer avec d’autres agents, des serveurs de données ou des utilisateurs humains ;
  • le raisonnement fondé sur les connaissances disponibles ;
  • l’adaptation à l’environnement et à son évolution.

La communication entre agents, garant de l’efficacité de leur collaboration, ressortit à deux grands mécanismes : le partage d’informations et l’envoi de messages caractéristique des systèmes à objets et des systèmes multiagents.

Ces deux mécanismes de base résultent en des architectures très différentes. Dans les systèmes à partage d’informations, il existe une zone de mémoire commune (base de faits généralisée ou tableau noir, blackboard ) qui centralise toutes les communications entre agents. De ce fait, ces communications sont implicites : les agents s’ignorent mutuellement, il n’existe pas de lien direct entre eux. Initialement proposé pour la compréhension automatique de la parole et la vision par ordinateur dans les années 1970, ce modèle a été largement repris par la suite. Il est maintenant abandonné au profit de systèmes dans lesquels les agents communiquent entre eux de façon explicite en s’envoyant des messages de complexité très variable selon les systèmes et relevant de différents types d’interaction, compétition, coopération et négociation, avec modification dynamique des liens entre agents. Citons comme exemple le réseau de contrat (Contract Net ) permettant de mettre en relation plusieurs agents de façon analogue à un appel d’offres. La communication entre agents nécessite un partage de connaissances et une préservation de la sémantique des entités manipulées par les agents. Cela est assuré par l’utilisation d’ontologies.

Les applications des agents sont nombreuses et diverses :

  • la robotique : systèmes multirobots ;
  • la simulation : les systèmes multiagents sont bien adaptés à la simulation car ils permettent de représenter séparément les rôles et les connaissances d’entités autonomes et de modéliser leurs interactions. Plusieurs plates-formes logicielles permettent de développer de telles applications, par exemple Cougar, Jade, Madkit ;
  • la modélisation de phénomènes complexes : dans des domaines tels que les sciences de la vie (colonies d’insectes, écosystèmes, etc.), la défense, l’économie ;
  • Internet : de très nombreuses applications relèvent de ce domaine. Il existe une grande variété d’agents sur Internet : moteurs et métamoteurs de recherche d’informations généraux ou spécialisés par domaines, surveilleurs de sites Web, agents commerciaux, agents de loisirs, agents de recommandation (ces agents constituent un type de filtrage collaboratif permettant de proposer à un client potentiel des produits susceptibles de l’intéresser en se fondant sur trois types de connaissances : les propriétés de l’objet recherché, le comportement passé du client et le comportement de clients jugés semblables. Un exemple type est le système Amazon) ;
  • l’assistance aux personnes : assistants virtuels, agents domotiques… ;
  • les avatars : ces agents d’un nouveau type aident l’utilisateur à naviguer sur un site complexe (musées, grands magasins, opérateurs téléphoniques, etc.).

Le modèle d’agent est désormais central en IA et plus généralement en Informatique. Les agents intelligents et les systèmes multiagents ont un rôle important dans la recherche et dans la gestion des connaissances. L’évolution vers le Web sémantique passe aussi par une meilleure exploitation par des agents des informations disséminées sur la toile. Parmi beaucoup d’initiatives, on peut signaler la méthode Linked Data (ou Web des données) proposée T. Berners-Lee pour poster sur Internet des données pouvant être reliées entre elles et facilement exploitées par des agents ou des êtres humains. L’objectif est de favoriser la publication de données structurées sur le Web, non pas sous la forme de sources isolées, mais en les reliant entre elles pour constituer un réseau global d’informations. Les principes de base du projet sont simples :

  • utiliser d’une part le modèle de données RDF pour publier des données structurées sur le Web ;
  • utiliser d’autre part des liens RDF pour interconnecter les données provenant de sources différentes.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 4 novembre !

Systèmes à bases de connaissances, un article de Jean-Paul HATON, Marie-Christine HATON

Revue de presse anglophone #21 : cloud, blockchain, voitures autonomes et reconnaissance faciale

Cloud ou blockchain: qu’est-ce qui consomme le plus d’énergie ?

Source : The Guardian

 

Jeux vidéo : la reconnaissance faciale pour vérifier l’âge du joueur

Les créateurs de l’un des jeux vidéos les plus populaires en Chine testent l’utilisation de la reconnaissance faciale pour vérifier l’âge des utilisateurs.

jeu-video

Source : The BBC

 

Voitures autonomes : la 5G deviendra-t-elle indispensable ?

Les partisans de la 5G affirment qu’elle offrira des connexions et des téléchargements de données ultrarapides,  et sera capable de gérer des millions de connexions supplémentaires.

ERICSSON
ERICSSON

Source : The BBC

 

Des abeilles robotisées pourraient polliniser les plantes à la place des abeilles si ces dernières disparaissaient

Des scientifiques hollandais ont annoncé pouvoir créer des nuées de drones ressemblant à des abeilles pour prendre le relais si les insectes venaient à disparaître

Source : The Guardian

 

Les employés, ingénieurs et experts en technologies sont de plus en plus nombreux à demander des comptes à leur employeur : comment les produits qu’ils contribuent à créer sont -ils utilisés ?

Source : The Wall Street Journal

 

Par I. B.

Le Big Data au service de la production

Les machines et les systèmes de fabrication produisent de grandes quantités de données depuis des années. Mais jusqu’à présent, elles n’étaient pas étudiées ni partagées entre différents métiers. Résultat, ces importants volumes d’informations ne produisaient aucune valeur.

Désormais, les machines industrielles et les robots de l’Usine 4.0 intègrent des capteurs qui signalent en continu des anomalies, potentiellement à l’origine de défaillances techniques, voire même de dangers pour les techniciens ou les utilisateurs finaux des produits manufacturés.

Avec l’Usine 4.0, la maintenance prédictive sera généralisée. Les industriels peuvent ainsi anticiper des dysfonctionnements probables ou des pannes et envoyer des équipes de maintenance en prévision.  Les interventions des équipes techniques sont désormais planifiées selon des informations données en temps réel par les machines.

Analyse prédictive

Ces données peuvent être également partagées entre des sites de fabrication d’un même groupe industriel et des métiers. Les données des capteurs embarqués seront utilisées non seulement à l’intérieur des industries pendant les processus de fabrication, mais aussi dans les procédés de fabrication. En croisant les données collectées sur les machines tout au long de la fabrication, on peut analyser les facteurs qui affectent la qualité d’une pièce.

L’analyse prédictive de ses données permet de détecter et de corriger les défauts avant que les nouveaux produits ne soient lancés sur le marché. Cela permet d’éviter les problèmes avant la production de série. La chaîne industrielle sera optimisée dès la conception.

Mais la collecte de millions de données et la mise en réseau des actifs industriels posent immanquablement la question de la protection des systèmes d’information (SI) face aux menaces de toutes sortes.

Sécurité des données

La multiplication des technologies (IoT, robots, automates, logiciels, fabrication additive) expose en effet l’industrie 4.0 à des cyberattaques. Les industriels et les fabricants de machines en sont conscients. Mais la sécurité informatique des industries est plus complexe. Les mises à jour logicielles sont plus délicates : on ne peut pas arrêter une chaîne de production comme on peut le faire pour des ordinateurs de bureau. Cette politique de sécurité industrielle exige des process très précis et une hygiène numérique sans failles.

Plus facile à dire qu’à faire ! Dans une notification à ses clients, Schneider Electric a reconnu fin août 2018 que « certains supports USB amovibles livrés avec les produits Conext Combox (équipement de communications et de surveillance à distance pour les systèmes photovoltaïques Conext )et Conext Battery Monitor (surveillance de l’état des batteries connectées à ces systèmes) ont été contaminés par un virus durant la production, par l’un de nos fournisseurs ».

Philippe Richard

Revue du web #118 : les vidéos les plus étonnantes

MIT : un système de reconnaissance visuelle par apprentissage automatique

Les chercheurs du MIT ont mis au point une intelligence artificielle qui reconnaît les changements d’état d’un objet : couchée sur le côté, remplie de papiers… une tasse reste une tasse pour ces neurones artificiels !

 

Un robot capable de peler une laitue

Nous restons dans le monde de l’automatisation avec ce robot développé par l’Université de Cambridge. Travail délicat, la récolte des laitues était jusqu’à présent souvent assistée par des robots très peu autonomes.

 

Impression 3D à partir de vidéos : des sculptures mouvantes

Des chercheurs du MIT ont créé un moyen particulièrement esthétique d’analyser le mouvement grâce à un algorithme qui filme en 2D et transforme les images en « sculptures de mouvement » imprimées en 3D.

 

 

Amazon : des micro-ondes contrôlés par Alexa

Amazon a dévoilé un micro-ondes qui peut être contrôlé à l’aide de son assistant vocal Alexa.

 

Un robot miniature biodégradable qui soigne… de l’intérieur

Des chercheurs ont créé un robot qui pénètre dans le corps humain dans le but de délivrer le médicament  directement à l’endroit infecté.

 

Un robot qui saute à cloche-pied

Voici la nouvelle version du robot sauteur des chercheurs de Berkeley : plus petit mais surtout plus précis !

Par I. B.

La réalité virtuelle et augmentée au service des industriels

En 1985, Mercedes-Benz présente à Berlin le premier simulateur de conduite virtuel au monde. Une voiture était placée sur une plate-forme mobile et les projecteurs transformaient les murs environnants en un paysage généré par ordinateur. Grâce à cet appareil, le département de recherche et développement (R&D) a pu analyser le comportement d’un conducteur dans des situations difficiles ou dangereuses, sans risque de blessure.

33 ans plus tard, les enfants explorent les environnements virtuels en portant des casques de RV raccordés à leurs smartphones ou à leur console de jeu vidéo. Les entreprises aussi se sont inspirées de Mercedes-Benz. Et elles en tirent des bénéfices.

Publiée le 7 septembre, une étude de Capgemini indique que 82% des entreprises ayant déployé des technologies AR ou VR ont obtenu des résultats qui atteignent ou dépassent leurs attentes. Certes, la majorité des entreprises interrogées sont des grands comptes avec un chiffre d’affaires supérieur au milliard de dollars.

Prototypage numérique

Loin d’être des gadgets, ces solutions sont de plus en plus utilisées dans l’industrie pétrolière, gazière et chimique, mais aussi dans l’habillement, l’ameublement, l’automobile et l’aérospatiale. En Europe de l’Ouest, l’industrie manufacturière, le commerce de détail et l’industrie de transformation sont les secteurs qui devraient le plus investir dans la RV dans les prochaines années selon une étude d’IDC.

Usinage, production, collaboration entre les équipes à distance, essais et prototypage numérique… Les usages industriels de la RV et de la RA sont très variés. À la clé, des gains de temps et un taux d’erreurs moins élevé.

« Notre expérience a confirmé que la réalité virtuelle est un outil précieux sur la totalité du cycle de production, à commencer par la conception et le design, suivis par le développement de l’environnement industriel, de même que pour la formation, le SAV et la maintenance, » explique Nicolas Lepape, le responsable du projet  de Recherche et Technologie pour la réalité virtuelle et la réalité augmentée chez Safran Nacelles.

3 jours à la place de 3 semaines

Par exemple, la réalité augmentée s’avère très utile dans la phase industrielle (approche qualitative) et dans la maintenance (limitation de l’interruption de service, bases de données actualisées). Chez Airbus, la vérification des 120 000 « brackets » (petites pièces servant à fixer les parois intérieures d’un aviron) nécessitait trois semaines pour trois inspecteurs. Avec la réalité augmentée, cette vérification ne dure plus que trois jours pour deux personnes.

Autre exemple, lors d’opérations de maintenance complexes, un ingénieur en aéronautique à Toulouse pourrait guider le technicien d’une compagnie aérienne à Singapour.  Équipé d’une paire de lunettes connectée, il travaillerait plus efficacement, car l’information arriverait plus facilement et au bon moment en toute sécurité.

« Nous avons constaté que le caractère intuitif de la réalité augmentée réduit fortement la résistance au changement », précise Philippe Meleard, vice-président marketing & Communication chez Sogeti High Tech.

Entraînements immersifs 

Autre intérêt : une réduction des coûts. « Le coût de création d’une salle de réalité virtuelle est de l’ordre de 100 000 à 200 000 euros (soit le coût moyen d’un seul poste de travail sur la ligne d’assemblage). Mais faire en sorte que chaque outillage soit bien conçu dès le départ évite d’avoir à le modifier en cours de route, ou pire, de devoir mettre au rebut un outil de production coûteux », explique Nicolas Lepape. Résultat, l’entreprise a rentabilisé son investissement de réalité virtuelle pour l’A330neo en moins d’un an.

Dans l’Usine 4.0, la RV et la RA seront également de plus en plus utilisées pour la formation et la sécurité. Elles permettent notamment des « entraînements immersifs ». La réalité virtuelle permet en effet de recréer des situations réelles pour former des opérateurs à l’exécution de tâches complexes ou dangereuses (produits chimiques/ électricité).

Philippe Richard

Des membranes en graphène pour contrôler des flux d’eau

En utilisant des membranes d’oxyde de graphène parcourues par des filaments conducteurs, les chercheurs créent des champs électriques autour des filaments, qui ionisent les molécules d’eau et entravent leur transport. Selon que le courant est sur « On » ou « Off », la membrane devient perméable ou imperméable aux molécules d’eau.

Jusqu’à maintenant, les recherches concernant la perméation de l’eau à travers des membranes s’est surtout intéressée aux membranes de polymères et a tourné ses efforts « vers la modulation de la structure de la membrane ou les propriétés physico-chimique de sa surface pour faire varier le pH, la température ou la force ionique », expliquent les chercheurs dans le résumé de leur article paru dans Nature. On ne maîtrise pas aujourd’hui les phénomènes qui peuvent se produire aux abords d’une membrane soumise à des champs électriques. Le contrôle électrique de la perméation d’une membrane a, pour le moment, donné des résultats contradictoires, tant d’un point de vue théorique que dans les expériences de simulation. Par exemple, certains résultats prédisent que le champ électrique devrait générer des phénomènes de congélation et d’autres de fonte de glace.

Test grandeur nature

Les chercheurs ont testé, sur des membranes d’oxyde de graphène d’épaisseur de l’ordre du micromètre, la création de champs électriques locaux via des nano-filaments conducteurs intégrés à la membrane et dans lesquels on peut faire circuler un courant électrique à la demande. Les membranes d’oxyde de graphène ont déjà montré des propriétés de passage ultra-rapide de l’eau ou de filtrage moléculaire – notamment pour la désalinisation (cf. cet article, cet article ou encore cet article ) – et ont ouvert de nouvelles perspectives pour des systèmes de filtration, y compris à l’échelle industrielle. Les chercheurs expliquent que lorsque le champ électrique est créé, il se concentre autour des nano-filaments et ionise les molécules d’eau qui sont alors bloquées au sein de la membrane. Le phénomène s’arrête dès que l’on arrête le courant. Ce contrôle du passage du flux d’eau ouvre la voie au développement de membranes contrôlables pour des systèmes biologiques artificiels, pour l’ingénierie tissulaire et pour la filtration. A partir de ce principe, on pourrait aussi imaginer des systèmes de stockage de l’eau dans des membranes sous forme d’éponge et qui relarguerait l’eau sur commande

Un grand centre de recherche sur le graphène

Ces travaux menés au sein du National Graphene Institute de l’université de Manchester, en collaboration avec des universités iranienne et belge, sont le fruit des nombreuses recherches que cet institut a entamé sur le graphène. Déjà implanté sur près de 8 000 m², l’institut va encore s’enrichir de nouveaux équipements dont la construction a débuté en mai dernier afin de bâtir le Graphene Engineering Innovation centre (GEIC). Un projet à 60 millions de livres (plus de 65M€) qui doit poursuivre l’ambition de faire de Manchester une capitale mondiale de la recherche sur le graphène et les matériaux 2D à travers le concept de « Graphene City® ».

Par Sophie Hoguin



Internet décentralisé : retour au Web 1.0 !

Fin septembre, Facebook annonçait avoir été victime d’une fuite de données impactant des dizaines de millions de comptes. Cet été, Google a décidé de coopérer à nouveau avec les autorités chinoises pour lancer une version censurée de son moteur de recherche.

Ironie de l’histoire, cette décision du géant du web est intervenue au moment où 800 webmasters et autres experts (dont Tim Berners-Lee, qui a créé le World Wide Web) se réunissaient à San Francisco pour discuter de projets visant à contourner la mainmise de Google et Facebook. Parmi ces projets se trouve le Web décentralisé, ou dWeb.

Lorsque le World Wide Web a vu le jour à la fin des années 80, les rares utilisateurs se connectaient directement entre eux. Mais avec l’avènement du Web 2.0, au début des années 2000, les internautes ont été de plus en plus nombreux à communiquer et à partager des informations par le biais de services centralisés développés par Google, Facebook, Microsoft et Amazon.

Le dWeb consiste à redécentraliser afin de ne plus dépendre de ces intermédiaires pour se connecter. Une utopie pour quelques geeks ? Impliquée dans ce projet, la fondation Mozilla a publié une série de billets un peu techniques sur son blog. Ils présentent des applications concrètes de ce web décentralisé.

Les données appartiennent aux internautes

On peut y découvrir plusieurs solutions émergentes comme Scuttlebutt (réseau social décentralisé qui repose sur un protocole chiffré et du P2P), WebTorrent (lecteur de torrent qui fonctionne dans le navigateur) ou encore IPFS (protocole qui pourrait remplacer le protocole HTTP). Mais les réseaux décentralisés les plus connus restent ceux utilisés pour les cryptomonnaies comme Ripple, NEM (New Economy Movement) et bien sûr Bitcoin. De nouvelles applications sont apparues, comme Stealthy (un système de messagerie instantanée décentralisée), OpenBazaar (une place de marché décentralisée), GraphiteDocs (une alternative à Google Doc) et Textile (une alternative à Instagram).

« Nous devons le faire maintenant », affirme Tim Berners-Lee dans un article publié le 29 septembre. Il explique qu’il prend un congé sabbatique du MIT pour travailler à plein temps sur Inrupt. L’entreprise sera la première grande entreprise commerciale construite à partir de Solid, une plate-forme Web décentralisée que lui et d’autres employés du MIT ont passé des années à construire.

Sur son blog, il explique : « dans l’écosystème Solid, vous décidez où vous stockez vos données. Les photos que vous prenez, les commentaires que vous écrivez, les contacts de votre carnet d’adresses, les événements du calendrier, le nombre de kilomètres que vous parcourez chaque jour à partir de votre tracker de fitness… sont tous stockés dans votre Solid POD. Ce Solid POD peut être installé chez vous ou sur votre lieu de travail, ou encore avec un fournisseur Solid POD en ligne de votre choix. Étant donné que vous possédez vos données, vous êtes libre de les déplacer à tout moment, sans interruption de service. »

Mais différents défis restent à relever et, en particulier, celui de la gouvernance. Comment le web décentralisé se met-il en place alors que personne n’est en charge ? Il faudra surtout ne pas sous-estimer la force du statu quo et de la désinformation orchestrée par les géants du web…

Par Philippe Richard

Les nanotechnologies aussi peuvent se mettre au vert

Des chercheurs de l’Institut des nanotechnologies de Lyon, du laboratoire Ingénierie des matériaux polymères, de l’Institut de science des matériaux de Mulhouse et de l’Institut lumière matière, ont mis au point un procédé de lithographie pour façonner des substrats utilisant des produits respectueux de l’environnement, en l’occurrence de l’eau et du chitosane (un biopolymère issu de déchets agroalimentaires). Leurs travaux, publiés dans la revue SPIE Proceedings montrent que non seulement ce procédé se passe des réactifs issus du pétrole, mais également qu’il est économique et permet des impressions de lithographie nanométrique.

Le chitosane, abondant et peu coûteux

Le chitosane est un polysaccharide hydrophile, biosourcé, biocompatible, biodégradable et soluble en milieu aqueux. Utilisé dans ces travaux comme résine, il est fabriqué de manière industrielle à partir de la chitine, extraite de déchets comme les carapaces de crabes et de crevettes. Le chitosane est le second biopolymère le plus abondant sur Terre après la cellulose. Il est donc peu coûteux, environ dix fois moins cher que les résines classiques et, du fait de son innocuité, son utilisation est peu contraignante. Ce n’est pas la première fois que les scientifiques essayent d’utiliser des biopolymères pour la lithographie mais, jusqu’à maintenant, cela nécessitait de les transformer ou les activer chimiquement par des réactions utilisant des produits chimiques toxiques, dangereux, ou encore des opérations complexes. L’objectif final d’une chimie plus verte ne pouvait donc pas être vraiment atteint.

Plusieurs procédés testés avec succès

L’article publié s’appuie sur le travail de thèse de Matthieu Cailleau et détaille plusieurs expériences avec différents procédés : lithographie optique, lithographie par faisceau d’électron avec ou sans activation de la résine de chitosane. Il ressort notamment de ces travaux que le chitosane peut être utilisé sans autre opération chimique supplémentaire pour fournir une résine photopositive (la gravure finale est identique à celle de la résine) et que de l’eau acidifiée avec un peu d’acide acétique suffit comme solvant. En utilisant un faisceau d’électrons, la résine photopositive a pu fournir des traits de 30 nm espacés de 200 nm, et en utilisant des UV courts (193 nm) des traits de 100nm de largeur. L’ajout d’un colorant, la riboflavine, à la résine de chitosane a permis de la rendre sensible à des UV à 248 nm et d’obtenir des gravures de taille submicronique de l’ordre de 0,3 µm avec utilisation d’eau comme développeur. Dans tous les cas, les motifs ont ensuite été transférés sur du silicium par gravure au plasma.

Les performances obtenues correspondent à celles atteintes avec d’autres résines biosourcées, mais les chercheurs, maintenant que la faisabilité technique est avérée, comptent bien les améliorer rapidement.

Par Sophie Hoguin

La Coalition pour la neutralité carbone dévoile son plan

Neuf mois après le One Planet Summit à Paris, les nations déterminées à œuvrer en faveur du climat se sont retrouvées à New York pour réaffirmer leur détermination à agir et annoncer des actions concrètes. La présidente des îles Marshall, Hilda Heine, et le premier ministre fidjien, Frank Bainimarama, sont décidés à ériger leur pays au rang d’exemples mondiaux. Le message de celui qui a également été le président de la COP 23 est clair : bien que les îles Fidji ne soient pas les plus polluantes, il veut montrer qu’il est prêt à agir en espérant que d’autres pays lui emboîtent le pas. L’objectif est le même depuis la COP 21, à savoir endiguer la hausse des températures sous la barre des 2°C, voire à 1,5°C en 2100.

Une détermination à agir vite et sur le long terme

L’une des particularités de ce sommet réside dans l’envie d’action à court terme des pays en présence. Ces derniers veulent mettre en place des stratégies de long terme pour limiter les émissions de gaz à effet de serre. « Nous le ferons bien avant 2020, et si possible même dès 2018 » ambitionnent les signataires de la Déclaration de la coalition pour la neutralité carbone. Le message est très fort car à l’origine, cet objectif était prévu pour l’horizon 2030. Afin de parvenir à la neutralité carbone, ces pays devront réduire drastiquement leurs émissions de gaz à effet de serre, avoir des villes plus propres et moins énergivores.

L’autre particularité de ce nouveau plan est la volonté de faire converger les intérêts économiques et écologiques. Les premiers secteurs d’activités concernés seraient les transports, l’énergie et l’utilisation des sols. Les nations réunies sont en effet persuadées qu’« il est maintenant évident qu’agir pour le climat ne compromet pas le développement durable ». Et les derniers mots de leur déclaration officielle : « au contraire, l’économie et le climat gagnent ensemble. Nous pouvons voir des équations fonctionner et nous sommes désormais prêts à agir avec audace avec la coalition pour la neutralité carbone » peuvent difficilement être interprétés autrement que comme un appel criant à l’action.

De grands absents à déplorer

Cet aspect s’avère néanmoins être très ambitieux lorsque l’on sait que certains des pays les plus pollueurs de la planète ont été aux abonnés absents. Notons que dans la liste finale des nations signataires de la coalition, aucun pays asiatique n’est présent. Dans le même temps, la Chine serait en train d’exploiter des nouvelles centrales à charbon, et ce contrairement aux engagements pris par le gouvernement de Li Keqiang. Il est donc très facile de s’imaginer que les intérêts de certaines nations asiatiques sont encore très loin des principes du développement durable.

De l’autre côté du Pacifique, le constat est à peine moins morose. Les États-Unis et le Brésil ont également brillé par leur absence, à l’inverse du Canada. Dans un contexte où le Brésil n’apparaît pas au rang des meilleurs élèves en termes de préservation de l’environnement et où le président Trump a notamment affirmé que le meilleur moyen de lutter contre les incendies en Californie était de raser les forêts, l’Amérique semble également être partiellement motivée à agir. Cependant, même si les pays n’étaient pas représentés dans leur intégralité, 32 villes mondes telles que Rio de Janeiro, San Francisco, New York ou encore Yokohama au Japon se sont engagées à atteindre la neutralité carbone en 2050.

Les 19 pays engagés pour la neutralité carbone en 2050 sont le Canada, la Colombie, le Costa Rica, le Danemark, l’Ethiopie, la Finlande, la France, l’Allemagne, l’Islande, le Luxembourg, le Mexique, les Pays-Bas, la Nouvelle-Zélande, la Norvège, le Portugal, les îles Marshall, l’Espagne, la Suède et le Royaume-Uni.

Les 32 villes engagées sont: Austin, Accra, Barcelone, Berlin, Boston, Buenos Aires, Cape Town, Caracas, Copenhague, Durban, Londres, Los Angeles, Melbourne, Mexico city, Milan, New York, Oslo, Paris, Philadelphie, Portland, Quito, Rio de Janeiro, Salvador, San Francisco, Santiago, Seattle, Stockholm, Sidney, Toronto, Vancouver, Washington et Yokohama.

Par Matthieu Combe

Turfu Festival : zoom sur un projet robotique open source et une intelligence artificielle

Imaginer ensemble le futur : c’est la devise du Turfu Festival, dont la troisième édition s’est tenue de 2 au 7 octobre dernier à Caen. «Et l’on parle  du futur qui arrive demain, pas dans 20 ans» précise François Millet, co-inventeur avec Jérôme Caudrelier de ce festival dont l’approche est singulière. Le mot «ensemble» n’est pas anodin en effet, car l’évènement incite à la participation de tous, sur la base du modèle instauré par «les living labs » : citoyens, étudiants, chercheurs, artistes et industriels sont conviés toute la semaine à une quinzaine d’ateliers et partagent leurs réflexions pour améliorer des projets plus ou moins avancés (voir deux exemples ci-dessous).

«Ces ateliers sont des outils extraordinaires pour changer la médiation de la culture scientifique et technique entre des publics qui se parlent peu, confie François Millet. Le grand public n’est plus passif et peut se montrer critique.» Plusieurs grands enjeux de notre époque ont été au centre des discussions : mobilité, santé et handicap, intelligence artificielle, énergie hydrogène, etc. A en juger par le nombre de participants, passant de 450 l’année dernière à 600 cette année, cette nouvelle édition a rencontré le succès. Et si jamais une découverte géniale venait à surgir de ces immenses séances de brainstorming, nul ne doit pouvoir en tirer profit. «C’est la règle du jeu, indique François Millet. Les propositions faites ici sont documentées et demeurent dans le domaine public, accessibles à tous.»

Farmbot, le robot-maraîcher en quête d’autonomie

Farmbot est un projet robotique open source dont les prémices remontent à 2011, aux Etats-Unis. Objectif : élaborer un robot déconnecté de la production intensive, capable de cultiver de manière autonome un jardin potager. «Farmbot possède une tête aimantée et va chercher l’outil approprié à la fonction, explique Matthieu Debar, chargé de développement au sein du Dôme. Il repère les mauvaises herbes à l’aide d’un endoscope, les élimine en les enterrant, sème grâce à une pompe à vide pour aspirer les graines puis les arrose… Il peut également tester l’hygrométrie du sol si besoin. La base étant ouverte, l’instrumentation est libre. L’économie du produit est basée sur la vente du kit, le département R&D est mondialisé.»

Pendant le festival, les participants ont réfléchi aux moyens de gommer ses faiblesses pour qu’il fonctionne en parfaite autonomie. «Farmbot doit en effet être relié aux réseaux d’énergie et d’eau, en plus d’être raccordé à un serveur informatique, précise Matthieu Debar. Une hypothèse de travail serait de le munir d’une toiture assortie de panneaux solaires et d’un dispositif de récupération d’eau. Un mètre-carré de panneaux solaires suffit à fournir l’alimentation de 2,5 ampères nécessaire.» Avec l’appui de la Chambre d’agriculture de Normandie, 20 sites expérimentaux sont prévus. Un exemplaire est déjà installé dans un fab lab rural, cinq autres sont déployés dans des établissements pour l’enseignement. Selon Matthieu Debar, «c’est un outil pédagogique qui promeut la culture de l’open source et implique de nombreux corps de métiers : informatique, robotique, agriculture, horticulture, chaudronnerie…»

 

©clementineandre

Phebe centralise les services pratiques à bord de la voiture

Le projet Phebe vise à installer une intelligence artificielle conversationnelle, semblable à celles proposées par Google ou Amazon, mais dans la voiture. «Phebe a pour vocation de fluidifier la mobilité, indique Jérôme Caudrelier, associé à l’entreprise et par ailleurs co-fondateur du festival Turfu. Elle vous aide à trouver une place de parking, vous y conduit et paye automatiquement la place. Nous testons la possibilité de payer de la même façon le carburant délivré par des pompes de l’industriel Tokheim, dans des magasins Leclerc. Nous travaillons sur des APIs pour que Phebe puisse aussi interagir avec des services d’assistance. Nous concevons des usages plutôt à l’échelle locale.» Pour accomplir tout cela, Phebe est un petit boîtier bardé de capteurs – lecteur d’empreinte digitale, accéléromètre, GPS, gyromètre… – et connecté au réseau 4G, via une carte SIM multi-opérateurs et prépayée.

Cet assistant communique aussi via Bluetooth et possède plusieurs micros pour écouter distinctement les consignes du conducteur. Mais Phebe peut tout aussi bien prendre l’initiative de la parole, si elle constate de forts ralentissements, afin de proposer la consultation de l’info trafic. «On revendique même l’idée que notre assistant puisse faire la moue» poursuit Jérôme Caudrelier. Les interactions et les façons de s’adresser à une telle IA faisaient partie des thématiques abordées dans les ateliers lors du festival, outre la problématique du traitement des données à caractère privé. Phebe devrait être expérimentée dans des conditions réelles l’année prochaine, à bord de plusieurs centaines de voitures dans la région normande. La commercialisation est prévue fin 2019, auprès des particuliers et des entreprises qui gèrent des flottes de véhicules.

Par Frédéric Monflier

Le GIEC met en garde contre un monde à plus de 1,5°C

6 000 publications scientifiques ont été étudiées par les experts de l’ONU depuis la COP21 en décembre 2015. Le rapport qui en résulte a été adopté par les représentants de 195 États à la suite d’une semaine de négociations, à Incheon (Corée du Sud). Les conclusions sont formelles : au rythme actuel, nous atteindrons un réchauffement de +1,5°C entre 2030 et 2052, les +2°C d’ici 2065 et +4 ° C d’ici 2100. Quant aux engagements pris lors de l’Accord de Paris, ils nous conduisent vers un réchauffement de +3°C.

Les écarts d’impacts entre un réchauffement de +1,5°C et de +2°C sont déjà importants. Dans un monde à 1,5°C, déjà 6 % des insectes, 8 % des plantes, et 4 % des animaux vertébrés seraient affectés. À 2°C, deux fois plus de plantes et vertébrés seraient touchés et trois fois plus d’insectes. Un réchauffement de +1,5°C limiterait aussi la hausse du niveau de la mer de 10 cm, et 10 millions d’habitants seraient ainsi préservés de la submersion marine.

Réduire drastiquement les émissions

Le GIEC estime qu’il est encore possible de ne pas dépasser les +1,5°C. Le WWF appelle ainsi à un « big bang écologique ». Pour y parvenir, il faudra toutefois une volonté politique absolue. En particulier, il faudra une sortie définitive urgente des énergies fossiles, responsables des trois quarts des émissions de gaz à effet de serre. Nous avons besoin d’une transition très rapide vers un modèle énergétique 100% renouvelable et des politiques ambitieuses de réduction d’émissions, tout en augmentant la surface de nos forêts, zones humides et prairies pour capter le carbone déjà dans notre atmosphère.

« Je ne doute pas que les historiens considéreront cette publication comme l’un des moments marquants de l’histoire de l’humanité, a réagi Amjad Abdulla, négociateur en chef de l’Alliance des petits Etats insulaires. J’exhorte tous les pays civilisés à en assumer la responsabilité en redoublant d’efforts pour réduire les émissions responsables de la crise et à faire le nécessaire pour aider les populations vulnérables à faire face aux conséquences dévastatrices qui ne peuvent plus être évitées. »

Le rapport sera discuté par les ministres européens de l’environnement mardi 9 octobre. Il devrait servir de base pour essayer de convaincre les gouvernements à revoir leurs objectifs de réduction d’émissions à la hausse en vue de la COP24 qui se déroulera du 3 au 14 décembre 2018 à Katowice, en Pologne.

Par Matthieu Combe, journaliste scientifique

Mondial de l’Auto 2018 : les 7 innovations les plus marquantes des startups

Si le Mondial de l’Auto – pardon, le Mondial Paris Motor Show – se déroule toujours jusqu’au 14 octobre, le Mondial.Tech s’est quant à lui achevé samedi dernier. C’était une première : un salon dans le salon, occupant l’étage d’un hall de la Porte de Versailles à lui tout seul, concentré sur l’innovation technologique, les start-ups et les thématiques les plus en vue dans l’automobile de demain : mobilité, bien-être et confort, électrification, connectivité, cybersécurité, etc. Si l’organisation de l’espace était parfois curieuse – qui a compris le sens caché du labyrinthe planté en plein milieu ? – l’évènement donnait à voir plusieurs inventions, prochainement susceptibles de bonifier l’expérience du conducteur ou de valoriser la filière industrielle. En voici un aperçu.

Ce simulateur analyse le stress du conducteur

Les simulateurs de conduite automobile impliquant la réalité virtuelle ne sont pas rares sur un salon comme le Mondial de l’Auto. Celui-ci ne vise pas à divertir toutefois, mais à mesurer le stress du conducteur et son état cognitif. C’est le fruit d’un partenariat entre l’Institut de recherche technologique b<>com et Human Design Group, dont l’expertise se focalise sur l’ergonomie et les interfaces homme-machine. Volant, siège, pédales d’accélération et de freinage : le poste de conduite est comparable à celui du cockpit d’une voiture. Mais dans le cas présent, le conducteur-cobaye s’équipe d’un casque RV et de capteurs mesurant son rythme cardiaque, sa transpiration (par réponse galvanique de la peau) et les mouvements de tête. Evoluant sur une artère urbaine en 3D, il est soumis à divers incidents – GPS qui perd la boule, insecte perturbateur, impact sur le pare-brise -et réagit en conséquence. Ses signaux biométriques et ses actions peuvent être corrélées puis analysées, afin de mettre en lumière des subtilités que les méthodes traditionnelles occultent. Ce projet, au stade de preuve de concept, se destine aux constructeurs automobiles et aux fournisseurs de technologie.

L’éthylomètre Ocigo combine fiabilité et connectivité

Réalisation de la société Olythe, née en 2013, Ocigo est un éthylomètre connecté qui sera commercialisé début 2019, au prix de 250 €. Il n’a rien d’un gadget. «Sa technologie est identique à celle des éthylomètres officiels employés par les forces de l’ordre, explique Guillaume Nesa, PDG et cofondateur d’Olythe. C’est de la spectrométrie infrarouge, aussi fiable qu’une prise de sang pour mesurer le taux d’alcoolémie.» Mais il a fallu relever plusieurs défis pour qu’Ocigo soit à la fois compact et abordable. «D’ordinaire, la miniaturisation et la précision de la mesure spectrométrique sont deux notions contradictoires, explique Guillaume Nesa. A l’aide de simulations numériques, nous avons rusé en mettant au point un système multi-réflectif, qui remplace le système rectiligne habituel des spectromètres. L’autonomie est un autre enjeu, car le préchauffage, nécessaire pour dépasser la température du point de rosée, est énergivore. Ocigo, prêt en 30 secondes, ne consomme que 300 mW durant cette phase.» Enfin, et même s’il fonctionne de manière indépendante, Ocigo communique via Bluetooth : l’application mobile avise du taux d’alcoolémie et de la courbe d’absorption, indiquant le délai au bout duquel la conduite est autorisée. «Ces données peuvent être transmises à un serveur, si le client en exprime la demande» poursuit Guillaume Nesa. Car Ocigo intéresse aussi les entreprises qui gèrent des flottes de véhicules.

Selfplug se charge de la recharge de la voiture électrique

Et si la recharge du véhicule électrique s’effectuait automatiquement ? C’est le principe du Selfplug, une réalisation de la start-up grenobloise Gulplug, née en 2014 au sein de Schneider Electric. Le geste qui consiste à brancher à chaque fois la prise électrique du véhicule peut en effet être vécu comme une corvée. «40 % des personnes qui possèdent une voiture hybride finissent par ne plus le brancher» constate Benoît Thevenot, ingénieur chez Gulplug. Si cette jeune pousse va au bout de son projet, elles n’auront peut-être plus à s’en soucier. Selfplug est formé de deux parties : d’un côté, un disque de 50 centimètres, posé sur le sol et branché sur le secteur, de l’autre un câble et son embout magnétique attachés sous le véhicule. Quand le véhicule est garé et que les deux parties sont suffisamment proches (une communication Bluetooth signale cette proximité), le câble se déroule et rejoint le centre du disque, où le contact électrique s’établit. «C’est comme un électro-aimant, détaille Benoît Thevenot. On active des bobines successivement pour guider l’embout jusqu’au centre de l’accessoire, puis le contact final est assuré par un aimant.» Quand le véhicule redémarre, le câble s’enroule aussi de lui-même. Selfplug prendra en charge des puissances de 3 W et de 22 kW en triphasé. En phase d’optimisation, il devrait être commercialisé en 2020.

Boarding Light remédie au mal des transports

Créée en 2015, la société Boarding Ring s’est donnée pour mission de lutter contre le mal des transports, «qui a affecté au moins une fois 40% des personnes ayant pris place dans une voiture», indique Antoine Jeannin, le PDG. Leur première réalisation est une étrange paire de lunettes comportant un liquide coloré, déjà disponible auprès des pharmaciens notamment. «Le mal des transports résulte d’un conflit sensoriel entre l’oreille interne et la vue, le cerveau ne parvenant pas à traiter deux informations contradictoires, explique Antoine Jeannin. Notre paire de lunettes resynchronise la vue avec le sens de l’équilibre. Il suffit de les porter 10 minutes à l’apparition des symptômes, puis on est tranquille.» Le deuxième produit en préparation, Boarding Light, reprend le même principe mais le modernise : ce sont des barrettes LED qui, placées dans le champ de vision des passagers, créent un plan d’horizon artificiel. Elles pourraient être incorporées dans les montants. «Nous travaillons avec l’équipementier automobile Novares, poursuit Antoine Jeannin, et devrions présenter le projet aux clients courant 2019.»

Les pilotes remettent la gomme avec Track Connect

Un pneu connecté ? C’est plutôt gonflé, et c’est de la part de Michelin. Le spécialiste du pneumatique avait présenté cette innovation au printemps dernier et a récidivé au Mondial de l’Auto. Track Connect n’est pas fait pour tout le monde : il s’adresse aux pilotes amateurs qui cherchent à grignoter la moindre seconde au terme de leurs passages sur circuit. Concrètement, il s’agit de quatre capteurs fixés à l’intérieur de chaque pneumatique. Les données de température et de pression sont transmises à un relais radio qui les communique ensuite au smartphone du pilote. L’application mobile recommande d’abord les pressions adaptées au véhicule et aux conditions de roulage (circuit sec, humide ou mouillé), puis enregistre les informations pendant la conduite. Un moyen pour le pilote d’analyser l’évolution de ces paramètres et d’optimiser le gonflage, en vue d’obtenir de meilleures performances. Ce système pourrait s’inviter à des compétitions de rallye l’an prochain.

Les capteurs de Nanomade enrichissent l’interactivité et l’analytique

Existant depuis 2009, Nanomade conçoit des capteurs souples, brevetés, qui  rendent sensibles au toucher et à la pression des matières telles que le plastique ou le cuir. L’entreprise investit depuis deux ans le secteur automobile pour mettre «l’interactivité à portée de main», confie Faouzy Soilihi, le PDG. Mais ces capteurs peuvent aussi être placés sous la surface du siège : un prototype avait été présenté avec l’équipementier Valeo au salon CES 2018 à Las Vegas. «On peut alors mesurer de manière non intrusive les micro-mouvements du corps et en extraire, à l’aide d’algorithmes, des informations telles que les rythmes cardiaques et respiratoires» explique-t-il. L’amélioration du confort (analyse de la posture, etc) et de la sécurité sont des applications possibles.

Carfit Puls surveille l’état de santé de la voiture

Conçu par l’entreprise californienne Carfit, ce mini-capteur Bluetooth se colle au-dessus du volant et détecte les vibrations du véhicule, provenant de la direction, des amortisseurs, des freins, des pneus… Tout écart par rapport à la signature vibratoire initiale traduit une usure ou une anomalie, dont le conducteur prend connaissance en utilisant l’application mobile développée par Carfit. Cette analyse comparative, réalisée dans le cloud, s’appuie sur du traitement de signal, une base de données construite à partir de voitures neuves et un moteur d’intelligence artificielle dont les algorithmes s’affinent progressivement. Ces informations intéressent aussi les concessionnaires et les réparateurs, dans un objectif de maintenance prédictive, ou encore les assurances.

 

Par Frédéric Monflier

Le prix Nobel de physique vient d’être décerné au chercheur français Gérard Mourou.

Le prix Nobel de physique vient d’être décerné au chercheur français Gérard Mourou, co-inventeur avec Donna Strickland, de la technique d’amplification par dérive de fréquence ou Chirped Pulse Amplification (CPA).

À cette occasion, (re)découvrez le principe de cette technique (Réseaux de diffraction pour les lasers de haute intensité) dans les ressources documentaires.

Réseaux de diffraction pour les lasers de haute intensité

 

 

Socotec certifie les compétences BIM

Le BTP se transforme avec l’utilisation de maquettes numériques non plus seulement pour la conception mais aussi pendant la construction et l’exploitation, imposant donc une collaboration et des échanges de données autour de cette maquette numérique. Le BIM (Building Information modelling) et tous ses outils vont devoir être utilisés par l’ensemble des acteurs du secteur. A des niveaux très différents bien sûr. Les compétences en BIM sont à présent très recherchées et très bien valorisées d’un point de vue de la rémunération. Pour aider les salariés à valoriser leurs savoirs et compétences et pour aider les entreprises à embaucher de manière pertinente ou à faire reconnaître les compétences de leurs salariés, Socotec a lancé cet été une certification de personnes dans le BIM. Baptisée « BIM user », cette certification existe en trois niveaux différents. Ils sont délivrés après un examen théorique, un examen pratique et des évaluations de surveillance. La certification initiale est délivrée pour une période de 2 ans. Les certificats de renouvellement sont délivrés pour 3 ans.

BIM User – Basic knowledge

Il s’adresse à l’ensemble des salariés qui peuvent être en contact avec le BIM : des artisans, chefs de chantiers, mainteneurs aux programmistes, architectes ou ingénieurs de conception. Les candidats doivent démontrer qu’ils possèdent une bonne compréhension des fondamentaux du BIM et qu’ils en identifient les enjeux, les terminologies et les principes du BIM niveau 2*. Ils doivent avoir la capacité d’utiliser une visionneuse BIM.

BIM User – niveau 2 Conception Construction

Cette fois, il ne s’agit plus de comprendre et connaître les principes du BIM niveau 2 mais bien de savoir les mettre en pratique : les candidats devront par exemple démontrer qu’ils savent rédiger une convention BIM, mettre en place l’organisation nécessaire à la production de données BIM, gérer et échanger ces informations (CDE, COBie, IFC) pour répondre aux exigences d’information du client. On attend d’eux qu’ils comprennent les pratiques du BIM management, les attentes de maîtres d’ouvrage et la gestion des données des projets. Cette certification s’adresse aux acteurs du BIM rattachés aux secteurs de la conception et de la construction des bâtiments, ouvrages et infrastructures qui ont au moins une année d’expérience.

BIM User – niveau 2 Exploitation

Cette certification s’adresse à l’ensemble des acteurs du BIM rattachés aux emplois de l’exploitation, la maintenance et des services liés aux bâtiments, ouvrages et infrastructures disposant d’au moins 3 années d’expérience dans le secteur de la construction ou de l’immobilier et deux années d’expérience de pratique en BIM.

Outre une bonne compréhension du BIM niveau 2, on attend des candidats qu’ils connaissent aussi la gestion des documentations BIM du maître d’ouvrage (charte BIM, cahier des charges BIM) et  la gestion des données des projets. Ils doivent notamment maîtriser les maquettes numériques propres à la phase d’exploitation et savoir analyser les besoins de l’organisation, évaluer les équipes et définir les exigences des équipes concourantes.

*Pour rappel, on distingue généralement 4 niveaux de maturité dans le processus BIM. Le niveau 2, actuellement le plus haut au niveau opérationnel, correspond à l’étape où les différents acteurs sont capables de créer des maquettes numériques échangeables qui peuvent être fédérées en un seul modèle.

Sophie Hoguin

Echodrone, le bateau-robot du port d’Anvers

Au festival international technologique Supernova à Anvers (Belgique), dont la première édition s’est déroulée du 27 au 30 septembre derniers, le public a fait la connaissance d’Echodrone, le petit bateau qui va sur l’eau de manière autonome. Actuellement en phase de test dans ce même port d’Anvers, où transitent chaque année 224 millions de tonnes de marchandises (deuxième rang européen derrière Rotterdam), Echodrone devrait être opérationnel l’an prochain.

Ce bateau robotisé a pour mission de sonder la profondeur de l’eau le long des voies de navigation et de mouillage, en particulier dans le dock Deurganck où il sera basé. Il identifie ainsi les zones nécessitant des travaux de dragage, les fonds marins s’élevant en permanence sous l’action du dépôt sédimentaire. C’est un impératif dans les infrastructures portuaires, pour que le trafic maritime soit sûr. Echodrone est appelé à seconder le vaisseau-mère Echo, qui remplit la même tâche et bénéficie quant à lui d’un équipage. En raison de sa petite taille, il se faufile partout, à plus forte raison quand le trafic est dense, et n’a pas besoin de personnel à bord.

C’est l’entreprise dotOcean, sise à Bruges, qui a mis au point la technologie à l’origine d’Echodrone. Elle fournit tout le nécessaire (propulsion électrique, batteries, coque…) ou juste le dispositif AYB (pour Automate your boat) qui servira à équiper un bateau existant. Ce kit AYB, commercialisé à partir de 15000 €, contient l’unité qui actionne le moteur du bateau, le système de communication 3G/4G accompagné de deux cartes SIM, le compas de navigation, le GPS (un GPS externe est possible), une tablette tactile et aussi un contrôleur radio, le pilotage manuel étant envisageable à tout moment.

Cartographie enrichie

A bord, il n’y a aucune trace de détecteurs ou de caméras, qui permettraient à ce bateau d’analyser son environnement immédiat et de se frayer son chemin au milieu des porte-conteneurs. Et pour cause : la vigie et le capitaine sont restés à terre et ont pris la forme d’algorithmes, qui décident automatiquement du cap et de la vitesse. «Notre technologie repose intégralement sur le cloud, précise Wim Defevere, directeur technique senior en charge des accès maritimes auprès de l’Autorité portuaire d’Anvers. Les consignes de navigation sont le produit des données provenant de tous les systèmes portuaires, dont les radars (…).»

Facturée 85 €/mois, cette plateforme logicielle établit une cartographie de la zone où évolue Echodrone, enrichie de la position des autres navires, et calcule la meilleure trajectoire avant de la transmettre au bateau-robot via le réseau 3G/4G. Elle fait appel à des fonctions d’apprentissage automatique, selon dotOcean, mais l’entreprise belge n’en dit pas plus. A l’aide de son navigateur web ou de sa tablette tactile, l’utilisateur n’a besoin que de planifier la campagne de mesure et obtient en retour les résultats de l’opération, à savoir la profondeur de l’eau ou un autre paramètre selon le type d’instrument embarqué. DotOcean n’en est pas à son coup d’essai et a conçu un autre navire automatisé, Calypso, destiné à des mesures hydrographiques.

Frédéric Monflier

L’ingénierie de conseil en technologies se transforme et peine à trouver les bons profils

L’Observatoire Paritaire des Métiers du Numérique, de l’Ingénierie, des Études et du Conseil, et des métiers de l’Evènement (OPIIEC) a fait réaliser une étude* sur l’ « Avenir des emplois, des compétences et des formations au sein des Entreprises de Services du Numérique (ESN) et des sociétés d’Ingénierie et de Conseil en Technologies (ICT) en France ». Deux secteurs proches dans leur structure et leur fonctionnement puisque dans les deux cas il s’agit de vendre des prestations intellectuelles de haut niveau à des entreprises et qui sont tout deux très dynamiques. Les ICT sont d’ailleurs au coeur des transformations à venir dans l’industrie et doivent elles-mêmes réussir leur adaptation à l’arrivée massive de nouvelles technologies liées au numérique.

Les ICT, créateurs de richesse

Le secteur des ICT se porte bien : 116 000 emplois, une production en valeur de l’ordre de 13Md d’euros, une croissance annuelle de 4,2 % en 2017 et une croissance prévisionnelle de 4,5 % en 2018. La croissance profitant mieux aux plus grands : 87 % des acteurs de grande taille ont augmenté leur CA contre 59 % pour les acteurs de taille intermédiaire. Le secteur est cependant très scindé entre une dizaine de très grands acteurs se partageant la moitié du marché et une multitude de petites à très petites sociétés.

Une mutation numérique profonde

La frontière entre ICT et ESN s’amincit de plus en plus avec la numérisation de toutes les technologies. Ainsi, relèvent les auteurs de l’étude, « les leaders français du secteur des ICT ont développé une offre de service relevant des activités des ESN » et alors qu’en 2007, 20 % des activités ICT relevaient des entreprises du numérique, en 2016 cette proportion est passée à 40 %. Le numérique et l’informatique dans l’industrie deviennent le support aux autres technologies et demandent donc de nouvelles compétences. Parallèlement, les entreprises sont demandeuses de nouvelles offres de service, notamment en terme de formation. Elles veulent monter en compétence et être en capacité de gérer elles-mêmes les technologies implémentées par les ICT ou les ESN. Cette tendance s’accompagne d’une intégration verticale le long de la chaîne de valeur, un point assez nouveau pour les ICT qui doivent désormais proposer des projets globaux sur tout le cycle de vie du produit qu’elle vende. Au niveau du marché, la croissance externe est très importante et les concentrations se multiplient. Face à des groupes multinationaux généralistes puissant et efficaces, les acteurs de petite taille ne résistent que lorsqu’ils sont positionnés sur une niche technologique ou sectorielle protégée.

Embauches à l’horizon

Dans les 10 prochaines années, les ICT devraient recruter quelque 80 000 personnes, dont 25 000 créations nettes de postes. Ces embauches devraient intervenir principalement au sein de 15 thématiques clés qui portent l’industrie et l’économie française. Parmi elles, on peut citer :

  • l’industrie du futur (14000 recrutements)
  • l’Internet des objets (12500  recrutemetns)
  • l’énergie – smart grid, transition énergétique (11500 recrutements)
  • véhicules autonomes, nouvelles mobilités (9000 recrutements)
  • smart city/building (9000 recrutements)

Ces créations de postes prendront aussi la forme de nouveaux métiers. L’étude en identifie 19 pour les ICT et les ESN. Il s’agit par exemple des métiers de :

  • consultant blockchain
  • BIM modeleur
  • tacticien de l’usine du futur
  • géomaticien
  • responsable usage et communauté

La formation, clé de voûte du secteur

Les questions de formation sont désormais au centre des activités des ICT à trois titres :

  • la formation continue de ses salariés qui doivent se montrer ouverts, adaptables, capables d’apprendre vite pour suivre les évolutions constantes des nouvelles technologies qui arrivent à maturité comme l’intelligence artificielle, l’IoT ou la fabrication additive
  • la capacité à former les acteurs des entreprises pour lesquelles ils travaillent
  • la formation initiale qui doit faire l’objet d’une promotion sans précédent pour pouvoir fournir de la main d’oeuvre qualifiée pour les embauches à venir

Un manque de main d’oeuvre criant

Les auteurs de l’étude exposent plusieurs raisons expliquant le déficit de candidats dans ces secteurs qui pourtant embauchent maintenant régulièrement depuis plusieurs années :

  • le manque d’attractivité des métiers de l’ingénierie (horaires contraignants, travail sous tension…)
  • le manque d’intérêt et de connaissance des jeunes par rapport à ces métiers (manque d’information sur les formations existantes)
  • le déficit de lien entre le monde de l’enseignement et celui de l’entreprise
  • la faible attractivité auprès des femmes

Ce manque de main d’oeuvre crée en plus de la difficulté à fidéliser les salariés dans les entreprises d’ICT ou d’ESN. De part la concurrence : entre ces mêmes entreprises, avec les donneurs d’ordre qui veulent internaliser ces compétences, avec l’étranger qui offre de meilleures rémunérations ou conditions de travail ou encore avec le développement du travail en freelance.

La fédération réagit

Le Syntec Ingénierie s’est aussitôt saisi des constats dressés dans cette étude pour interpeller le gouvernement et propose un plan d’action « pour permettre aux entreprises d’ICT de continuer leur développement et de répondre aux besoins du marché ».

Ce plan s’articule en trois grands points :

  1. Enrichir et restructurer l’offre de formation en fonction des nouveaux besoins en compétences.
  2. Promouvoir les métiers de l’industrie et du conseil en technologies auprès d’un plus large public. La fédération professionnelle de l’ingénierie appelle ainsi à des campagnes nationales de sensibilisation aux métiers de l’ingénierie du conseil en technologies, qui accordent une attention particulière aux jeunes filles.
  3. Développer un environnement favorable aux entreprises d’ICT : accompagnement sur un nouveau positionnement dans la chaîne de valeur, ouverture à l’international des TPE et PME

*Etude réalisée par les cabinets Katalyse et D&Consultants entre janvier et mai 2018 pour le compte de l’OPIIEC (synthèse de l’étude)

Par Sophie Hoguin