La technologie photovoltaïque CIGS à film mince arrive à maturité

« En tant que gouverneur, je me suis fait un point d’honneur de transformer la Californie en chef de file écologique avec une empreinte globale. Les avancées de SoloPower démontrent que la Californie est à la pointe de l’innovation technologique pour l’économie verte, a expliqué le  gouverneur Arnold Schwarzenegger. Nous nous réjouissons de ce type d’innovation qui crée des emplois, fortifie l’économie et aide à protéger l’environnement », a-t-il déclaré à l’occasion de la certification UL (Underwriters Laboratories Inc) du premier module souple haute puissance CIGS  (cuivre, indium, gallium et sélénium) introduit en premier lieu sur les marchés européen et nord-américain.

« La certification du module souple CIGS de SoloPower est une étape importante vers la réalisation de modules solaires légers, souples et à haute puissance, ayant le potentiel d’étendre le marché du solaire en toiture et de réduire les coûts d’installation et fournitures. Elle constitue un grand pas pour l’industrie. Ayant fait carrière depuis 30 ans dans le photovoltaïque CGIS à film mince au NREL (National Renewable Energy Laboratory), je suis très satisfait de voir cette technologie arriver à maturité », déclare le Dr Rommel Noufi, scientifique principal du National  Renewable Energy Laboratory.

Alors que les cellules solaires rigides au silicium ont une épaisseur de l’ordre de 150  µm, celle des cellules souples CIGS  est comprise entre 1 et 4 µm. De plus, la technologie CIGS offre un rendement  maximum de 19,9 % au lieu de 12,2%. Autre avantage et non des moindres : les coûts de fabrication. Alors que le filière classique au silicium fait appel à des technologies de fabrication onéreuses calquées sur celles de l’industrie électronique, SoloPower a mis au point et breveté un procédé de dépôt électrolytique en continu, particulièrement économique, basé sur des transporteurs à rouleaux couplés, commandés par chaînes. 

La certification UL a été accordée à la suite d’essais rigoureux dans un laboratoire indépendant. Les modules à film mince de SoloPower ont été testés avec UL 1703, la norme de référence pour la sécurité dans la fabrication des modules photovoltaïques. En plus de cette confirmation, SoloPower qui a été également le premier fabricant à obtenir la certification UL pour des modules rigides basés sur des cellules CIGS souples en juin 2009, a lui-même effectué des essais poussés à l’interne qui excèdent de beaucoup les normes de sécurité, de qualité et de fiabilité établies par ces tests. Aujourd’hui, SoloPower propose 3 types de modules  hotovoltaïques :  80 Wp  (0,3 m x 2,9 m – 2,3 kg), (170 Wp, (0,3 m x 5,8 m -, 3,6 kg) et 260 Wp (0,9m x 2,9m – 6kg).

« Le processus de fabrication de base de SoloPower qui ne demande qu’un faible investissement et est peu coûteux, passera rapidement à une plus grande échelle durant notre prochaine phase d’expansion, a déclaré Tim Harris, PDG de SoloPower. La Société est en train d’ajouter une seconde chaîne de fabrication qui accroîtra notre capacité de façon importante afin de faire face à la demande que nous prévoyons.  » Parallèlement, SoloPower est en pourparlers avec le Département de l’Énergie pour avoir la possibilité d’obtenir une garantie de prêt pour financer la construction d’une installation supplémentaire de production comprenant plusieurs lignes.
 

Par Marc Chabreuil

Les affichages et registres obligatoires en matière de santé, hygiène et sécurité

Chaque mois, Techniques de l’Ingénieur s’associe aux Editions Tissot, spécialiste depuis 35 ans en droit du travail, pour faire le point sur une question particulière relative à la gestion des risques chimiques (voir l’encadré). Ce mois-ci, focus sur les affichages et registres obligatoires en matière de santé, hygiène et sécurité.

La thématique « santé, hygiène et sécurité » est naturellement omniprésente dans l’entreprise tant les risques peuvent y être importants. La prévention des risques professionnels connaît de multiples vecteurs. L’information en est un. Les affichages et registres obligatoires comptent parmi les outils d’information à destination des salariés, de l’inspection du travail, etc.

tableau

Détails de la procédure

Étape 1 : Vérifier les affichages permanents obligatoires

La réglementation en vigueur fait obligation aux employeurs de procéder à un affichage permanent dans les locaux de chacun des établissements où travaillent les salariés et ce, dans de multiples domaines.

Pour la santé, l’hygiène et la sécurité, ces obligations concernent :

  • le règlement intérieur (entreprise occupant au moins 20 salariés) ;
  • l’adresse de l’inspection du travail ;
  • les coordonnées du service de santé au travail ;
  • les coordonnées des services de secours d’urgence ;
  • les consignes en matière d’incendie ;
  • les horaires : l’employeur doit notamment afficher les heures auxquelles commence et finit le travail ainsi que les heures et la durée des repos. Les pénalités prévues sont celles relatives aux contraventions de 4e classe ;
  • la liste des membres du CHSCT : elle doit comporter, en outre, les indications relatives à leur poste de travail habituel.

Les affichages doivent être faciles d’accès, visibles et leur contenu clair, adapté à un langage commun et n’omettre aucune des informations obligatoires.

Étape 2 : Connaître la durée de conservation des documents obligatoires

Les délais de conservation varient en fonction des pièces concernées.

Le délai de prescription en matière sociale étant de 5 ans, cette durée de conservation est indiquée pour la majorité des documents.

Le délai court à partir du moment où le document ne porte plus ses effets (par exemple : pour un contrat de travail, 30 ans à compter de la fin du contrat de travail).

Les sanctions liées au non-respect du délai de conservation des archives sont indirectes : si l’employeur ne peut pas montrer les documents exigés alors qu’il aurait dû les conserver, il n’a aucun moyen de prouver ce qu’il avance ou de démontrer que ce qui est retenu contre lui est faux. Il sera donc considéré comme responsable et condamné en fonction du litige concerné.

Notre conseil

Rendez vos panneaux d’affichage accessibles à tous.

Ils doivent être :

  • aussi simples que possible sans détails inutiles à la compréhension ;
  • rédigés dans un langage commun ;
  • installés dans un endroit bien éclairé et facilement accessible et visible ;
  • régulièrement mis à jour.

En effet, il n’existe pas de méthode réglementaire pour la définition des zones ATEX : confrontez votre expérience et celles d’entreprises avec une activité similaire à la vôtre et n’hésitez pas à vous appuyer sur votre contact de la caisse régionale d’assurance maladie (CRAM) qui pourra vous aider pour cette définition.

Pour exemple, vous pouvez téléchargez ce registre d’infirmerie ou registre des incidents bénins ci-dessous.

Source : Schémas commentés santé sécurité au travail > Les affichages et registres obligatoires en matière de santé, hygiène et sécurité
Editions Tissot : droit du travail  – convention collective syntec

En partenariat avec les éditions Tissot

Spécialiste en droit du travail depuis 35 ans, les Editions Tissot vous proposent de découvrir leurs publications en santé sécurité au travail et les conventions collectives relatives à votre domaine d’activité. Découvrez également les programmes de formation santé sécurité au travail.

Les formations Techniques de l’ingénieur

« Les outils pour améliorer les comportements en Santé Sécurité au Travail ». Comment faire adhérer au message Sécurité ? 2 jours pour acquérir les techniques de communication du préventeur et renforcer sa crédibilité sur le terrain. le but étant de convaincre et de mobiliser les équipes autours des messages de santé sécurité. Au delà de la contrainte, des sanctions et de la répétition des consignes… il faut positiver ! Prochaine session : les 8-9 novembre 2010 à Paris.

Des robots guidés par la vision automatisent le remplissage de flacons et de seringues

Les installations généralement utilisées pour remplir des flacons, des seringues et d’autres contenants pour les laboratoires pharmaceutiques requièrent des machines dédiées présentant un niveau d’automatisation élevé. La plupart des systèmes de remplissage automatisés étant basés sur le positionnement exact propre à chaque type et à chaque taille de contenant, le remplissage de contenants de formes différentes impose au laboratoire d’acheter plusieurs remplisseuses ou d’accepter des transitions de longue durée lors du changement de type de contenant.

Une société de recherche dans les sciences de la vie a demandé à Automated Systems of Tacoma, Inc. (AST) de développer une solution alternative aux machines conventionnelles de remplissage, capable de remplir et d’apprêter ses produits d’essais cliniques avec une seule plate-forme flexible. Pour résoudre ce problème, AST a dû développer une machine suffisamment flexible pour gérer diverses tailles de seringues, flacons, cartouches et poches de perfusion pré-remplis, avec un temps minimal de commutation entre produits. Le concept de base est un système qui positionne des « nids » d’un contenant donné prêts à l’emploi à l’intérieur des fourreaux de deux robots.

Un système de vision In-Sight Micro de Cognex est utilisé pour localiser précisément chaque contenant et son bouchon et fournir ces coordonnées aux robots avant le traitement. Cette approche permet des permutations rapides entre contenants de type ou de taille différents : il suffit de charger un nouveau programme pour le robot, de remplacer les transporteurs des produits et de donner au robot l’ordre de changer l’extrémité du bras de préhension. Le système utilise des matériaux jetables pour toutes les pièces en contact avec le procédé, ce qui réduit également le temps de changement et élimine le risque de contamination croisée.

La plus grande difficulté dans le développement d’une machine intégrant ces concepts réside dans l’intégration du robot et du système de vision de manière à fournir les niveaux de précision élevés et la vitesse requis par l’application. AST a fait appel à Brian LaFave d’Olympus Controls en raison de sa longue expérience dans le développement d’applications de vision. « J’ai examiné de près l’application et suis arrivé à la conclusion que la solution résidait dans l’intégration entre le système de vision et le robot, a expliqué M. Lafave. Le montage du système de vision sur le bras du robot exigeait aussi que le système de vision soit petit, léger et de câblage très simple. J’ai pensé que l’In-Sight Micro 1100 de Cognex serait parfaitement adapté. » Ce dernier est équipé de pilotes préconfigurés, de modèles prêts à l’emploi et d’un échantillon de code pour communiquer avec la plupart des robots. AST a choisi pour cette application un robot industriel à 6 axes Staubli TX-60 HE en raison de sa capacité à supporter les nettoyages agressifs et la bio-décontamination nécessaires. 

 « Le système de remplissage par robot est la solution la plus simple pour toute organisation cherchant à accroître la capacité de remplissage de ses produits et contenants sans acheter plusieurs machines dédiées à un produit ou à un type de contenant particulier, explique Josh Russell, Ingénieur de projet pour la division Life Sciences Group chez AST. La machine est capable de gérer tous les besoins en conditionnement de liquides de nombreux laboratoires pharmaceutiques, sous-traitants et pharmacies de préparation dans les hôpitaux. Elle tient dans une salle blanche de 3,7 x 4,9 m et coûte beaucoup moins cher que les machines qu’elle remplace. »

Par Marc Chabreuil

« Le nouveau régime va réduire la durée d’instruction des dossiers ICPE »

En tant que consultante en réglementation Environnement – Hygiène – Sécurité Altran EEC, Emilie Cherre bénéficie de retours d’expériences opérationnels sur les Installations Classées pour la Protection de l’Environnement. A ce titre, elle revient sur le nouveau régime d’enregistrement, ses obligations, mais aussi ses atouts. Autant de questions qu’elle détaillera lors de la formation « ICPE : piloter est suivre l’évolution de ses installations classées », organisée par Techniques de l’Ingénieur les 15-16 décembre prochains à Paris. L’occasion également pour elle de vous apprendre à vous repérer dans les dédales des sites Internet dédiés à l’information réglementaire.

Techniques de l’Ingénieur : Qu’est ce que le nouveau régime d’enregistrement ? Quels sont ses atouts ? En quoi est-il intéressant ?

Emilie Cherre : Le nouveau régime d’enregistrement a été introduit  dans le code de l’environnement en avril 2010. Entre autres modifications, il rehausse les seuils de l’autorisation pour certaines rubriques (voir le tableau ci-dessous illustrant l’évolution de la rubrique 1510).

Régime Anciens seuils Nouveaux seuils
 
Autorisation Volume des entrepôts supérieur ou égal à 50.000 m3 Volume des entrepôts supérieur ou égal à 300.000 m3
Enregistrement   50.000 m3 > volume des entrepôts > 300.000 m3
Déclaration avec contrôle périodique 5.000 m3 > volume des entrepôts > 50.000 m3 5.000 m3 > volume des entrepôts > 50.000 m3

La procédure d’enregistrement est une procédure intermédiaire entre la déclaration et l’autorisation. Elle s’applique à des installations dites « simples et standardisées ».

Les exploitants qui créent une nouvelle ICPE sous le régime de l’enregistrement, et les exploitants qui modifient leur ICPE jusqu’alors soumise au régime de l’autorisation et qui, par l’évolution des seuils, est désormais concernée par le régime de l’enregistrement, devront remettre des dossiers allégés. Les études d’impact et de dangers ne sont pas requises, une mise à disposition du public se substitue à l’enquête publique, et les exploitants ont connaissance des prescriptions générales standardisées applicables. Des guides récemment publiés sont mis à la disposition de l’exploitant pour l’aider à justifier, en amont de la mise en exploitation de son ICPE, du respect de ces prescriptions.  L’acceptation du dossier d’enregistrement par l’administration ne donnera pas lieu à un arrêté préfectoral personnalisé mais à un arrêté type.

Un des objectifs de l’ouverture de ce nouveau régime est la réduction du délai d’instruction des dossiers. Avec l’enregistrement, une accélération des délais d’instruction est prévue dans la mesure où elle ne devrait durer que 4 à 5 mois.

Comment savoir si le régime dont relève ses installations a évolué ?

L’évolution de la situation administrative de votre site peut provenir des modifications de l’exploitation de votre site, mais aussi de la nomenclature. Tout au long de l’année l’exploitant doit donc surveiller les évolutions de ses activités, produits, installations…, mais aussi repérer et analyser l’évolution de la nomenclature. Cette année, cette dernière a été modifiée de nombreuses fois, notamment pour ouvrir au régime de l’enregistrement certaines rubriques (ex. 1434, 1530, 2662, 2663, etc.), pour créer de nouvelles rubriques (ex. 1511, 1532, 1435 et dans le secteur des déchets), ou encore pour supprimer des rubriques.

Comment maintenir son site en conformité ?

Quel que soit son régime, une ICPE est soumise à un ensemble de prescriptions que l’exploitant se doit de satisfaire. Pour cela, l’exploitant doit avoir une parfaite connaissance des textes qui lui sont applicables (l’arrêté préfectoral en particulier pour les installations à autorisation, et les arrêtés types pour les installations à déclaration ou enregistrement), mais aussi tous les autres textes du droit de l’environnement dans le domaine des ICPE (bruit, eau souterraines, etc.), des déchets, de l’air (chaudières, gaz à effet de serre, etc.).

Propos recueillis par Gautier Bernard et Anne-Laure Béranger

A immense décharge industrielle, gigantesque chantier d’assainissement

Jusqu’à la fin des années 50, la chimie bâloise éliminait ses déchets directement dans le Rhin dont la couleur variait au gré des substances déversées. Lorsqu’elle a pris conscience que ces pratiques finiraient par empoisonner les cours d’eau, elle se mit à la recherche de sites d’entreposage. Si, à la fin des années 50, elle  jette son dévolu sur Bonfol, dans le Jura suisse, c’est en raison de la proximité avec Bâle d’une part et de la nature du sous-sol de la région d’autre part.

L’argile de Bonfol est réputée imperméable et permet, croit-on à l’époque, un entreposage sûr et durable des déchets chimiques. Les arrivages de déchets débutent en 1961 et se terminent en 1976.  Au total 114.000 t de colorants, pesticides, solvants et autres métaux lourds seront entreposés dans cette ancienne carrière et recouverts d’une dizaine de mètres de terre mais les ennuis débuteront assez rapidement.

Si la cuvette argileuse de la décharge offre en effet une bonne imperméabilité, ce n’est pas le cas du couvercle et les infiltrations d’eau finiront par la faire déborder. C’est le premier problème que la chimie bâloise s’emploiera à résoudre tout au long des années 80 avec notamment l’aménagement d’un système de drainage et la mise en service d’une station d’épuration des eaux.

Eviter toute émanation toxique

Par la suite, le doute s’instaure quant à l’imperméabilité de la décharge si bien que finalement son assainissement total et définitif s’impose. S’appuyant sur le renforcement de la législation environnementale, le Canton du Jura ordonne donc à la chimie bâloise en janvier 2000 d’assainir sa décharge. Un consortium, le BCI, regroupant les principales entreprises chimiques bâloises (Ciba, Clariant, Novartis, Roche,…) est alors mis en place : il assume leur responsabilité commune en matière de sécurité de la décharge industrielle de Bonfol. Les entreprises membres de la BCI ont créé la bci Betriebs-AG qui a été chargée de la planification et de la mise en œuvre des travaux d’assainissement qui dureront 4 ans.

Afin d’assainir la glaisière qui a servi de décharge industrielle, un gigantesque chantier a démarré à Bonfol,  Avant d’excaver les déchets toxiques du sol pour les incinérer, 14 ha ont été déboisés et 110.000 m3 de terre déplacés pour préparer le terrain à la construction (la reforestation du site est prévue en 2015) puis la surface de la décharge a été recouverte d’une halle colossale de 18.000 m2,  soutenue par neuf arcs en acier, totalement hermétique pour éviter toute émanation toxique (la décharge qui sera ainsi placée en « zone noire », c’est-à-dire sans présence humaine à l’exception des personnes équipées d’une combinaison). 

Des ponts roulants bi-poutre suspendu spécialement construits par Stephan SA, distributeur intégrateur de matériels du français Verlinde et équipés de palans Verlinde Eurobloc VCTS, sont utilisés pour excaver et transporter les déchets vers des wagonnets de convoyage. Un grappin de 3m3 de capacité saisit les déchets, se déplace de manière semi-automatique jusqu’à une zone de chargement où les déchets sont déposés dans un wagonnet.

Ces derniers sont ensuite vidés dans des bunkers de réception pour la préparation de façon à rendre le matériel stable et sûr en vue de son transport. Les déchets sont alors conditionnés  dans des containers de 10 m3 spécialement conçus et  étanches aux odeurs, qui sont acheminés par train dans des usines d’incinération de déchets spéciaux en Allemagne et en Belgique. « Les ponts roulants, de 35 m de portée, de 45 m de longueur et d’une capacité de 16 t, sont commandés à distance par liaison radio depuis une salle de contrôle protégée et sécurisée, à l’extérieur de la halle d’excavation. Ainsi, aucun personnel ne se trouve dans ou autour de l’endroit d’excavation» explique Anton Aeby, chef de projet et chargé de la sécurité à la bci Betriebs-AG.

 

Systèmes embarqués : un déploiement tout azimut

Elle est l’autre informatique. Celle que l’on ne voit pas. Pourtant, en moins de 20 ans, les systèmes embarqués se sont imposés comme un des segments les plus dynamiques du secteur de l’électronique en volume et en valeur. Aujourd’hui, selon le livre blanc du Syntec informatique paru début 2010, les systèmes embarqués consomment à eux seuls, 98 % des puces électroniques fabriquées dans le monde. Et la crise n’a rien changé à la situation. En France et dans le monde, cette industrie continue de progresser, certes, plus lentement, mais son ascension est inexorable. Comment et pourquoi ? Le point en chiffres.

Près de 100 milliards de dollars dans le monde

En 1998, le cabinet BCC Research évaluait le marché mondial des systèmes embarqués à 32 milliards de dollars et estimait qu’il atteindrait 67 milliards de dollars en 2004. Finalement, il s’est développé moins rapidement atteignant en 2004 45,8 milliards de dollars. Mais par la suite, les chiffres s’emballent. Alors que le BCC Research tablait sur 88,1 milliards de dollars en 2009, ce marché frise les 92 milliards de dollars en 2008, affichant une croissance annuelle moyenne de 19 % sur 4 ans. Un dynamisme que le cabinet d’études a tout de même pondéré pour les quelques années à venir afin de tenir compte du ralentissement de certains secteurs moteurs tels que l’automobile. Fin 2013, celui-ci table en effet sur un volume d’affaires de 112,5 milliards de dollars, soit  une croissance annuelle moyenne, entre 2008 et 2013, de 4,1 %.  L’Idate, quant à lui, est plus confiant dans la conjoncture, puisqu’il estime que le marché mondial des systèmes embarqués représentera, à l’horizon de 2015, 230 milliards de dollars.

Evolution du marché mondial des systèmes embarqués

Un marché encore dominé par le matériel

Côté structuration, même si le logiciel prend une place de plus en plus importante, assurant de plus en plus des fonctions traditionnellement prises en charge par le matériel, le marché des systèmes embarqués reste tiré par le hardware. En 2008, le matériel a en effet contribué pour 89,8 milliards de dollars au volume d’affaires de ce segment et devrait atteindre 109,6 milliards en 2013, soit une croissance annuelle moyenne de 4,1 %. Les logiciels embarqués, quant à eux, ont généré 2,2 milliards de dollars en 2008 et devraient atteindre les 2,9 milliards en 2013, soit une croissance annuelle moyenne de 5,6 %.

Structuration du marché mondial des systèmes embarqués

4 milliards d’euros pour la France

En France, la dynamique est similaire. En 2006, selon le  livre blanc du Syntec informatique, l’industrie des systèmes embarqués a affiché un volume d’affaires de 4,05 milliards d’euros, dont 750 millions pour les éditeurs de logiciels et 3,3 milliards d’euros pour les sociétés de services (SSII et conseil en technologie), pour une croissance de 13 % par rapport à l’année précédente. Une vitalité qui a perduré en 2007 et 2008 (+13 % par an), avant de s’essouffler, crise oblige, en 2009 avec un rythme de croissance annuel de 5 %. Aujourd’hui, ce secteur emploie quelques 220.000 ingénieurs en France selon le Syntec et devrait créer 34.000 nouveaux postes d’ici 2011.

Une tendance que confirme le cabinet Pierre Audouin Consultant (PAC). Certes, le périmètre de leur analyse est plus restreint puisque leur étude ne porte que sur les services relatifs aux systèmes et logiciels embarqués, mais elle reflète assez bien les évolutions de ce marché. Comme pour l’ensemble du secteur des systèmes embarqués, 2009 aura été une année de vache maigre. Avec 885 millions d’euros, le chiffre d’affaires des acteurs de ce segment est en baisse de 7,1 % sur une année glissante. Mais 2010 s’annonce sous de meilleurs auspices. Avec une croissance de 4,3 % par rapport à 2009, le marché des services relatifs aux systèmes embarqués devrait atteindre 923 millions d’euros cette année, même si on est encore loin, contraction des budgets alloués au développement de nouveaux produits dans l’aérospatial et l’automobile oblige, des 953 millions d’euros engrangés en 2008.

Marché français des services des systèmes et logiciels embarqués
Malgré tout, le cabinet se montre optimiste pour les années à venir. Il table sur une croissance moyenne annuelle de 6,3 % par an pour les trois prochaines années, pour atteindre en 2013, 1,1 milliard d’euros de volume d’affaires.

Un développement tout azimut

Mais pourquoi un tel dynamisme ? Deux principaux facteurs y contribuent.

Le premier d’entre eux est l’élargissement du nombre de débouchés. Initialement, les systèmes embarqués ont été développés pour des applications temps réel critique et stratégique, comme le contrôle des fusées ou de satellites ; la production d’énergie ; le contrôle de vol ; les télécommunications… Mais aujourd’hui, ils sont enfouis dans la majeure partie des équipements du quotidien et concernent la quasi-totalité des secteurs d’activité, y compris les produits grand public. La liste de leurs débouchés est désormais longue. Parmi-ceux-ci figurent :

  • les transports : à savoir l’automobile, le ferroviaire, le naval, l’aéronautique ;
  • le spatial avec les sattellites ;
  • la défense pour le contrôle des trajectoires, les lanceurs ;
  • le secteur de la santé notamment dans les équipements de diagnostic médical et de soins, les pompes à insuline, la radiothérapie… ;
  • le secteur manufacturier : automatismes industriels, dispositifs de sécurité, assistance à la maintenance;
  • l’électronique grand public avec tous les appareils photographiques, la vidéo, les lecteurs DVD, les console de jeux, le gros électroménager, les jouets ;
  • les télécommunications notamment dans les téléphones mobiles, mais aussi pour les routeurs ;
  • l’agriculture ;
  • ou encore l’énergie.

Mais tous les acteurs de l’industrie des systèmes embarqués n’ont pas une activité transversale. Selon le Syntec, seuls 31 % d’entre eux travaillent pour l’ensemble des secteurs d’activité, les autres étant plus « spécialisés ». Leurs cinq principaux secteurs-clients sont  dans l’ordre :

  • l’aéronautique, le spatial et la défense (38 %) ;
  • l’automobile (31 %) ;
  • l’équipement médical (15 %) ;
  • l’industrie de la machine-outil/robotique (14 %) ;
  • et le commerce ainsi que la distribution (14 %).

Au delà, le dynamisme de cette industrie tient également au fait que les systèmes embarqués se trouvent au coeur des nouveaux défis de l’industrie. Parmi ceux-ci, citons la possibilité :

  • de réduire la consommation d’énergie (transport, domotique) ;
  • de piloter le fonctionnement des nouvelles sources d’énergie (éoliennes) ;
  • de réduire la pollution (transport) ;
  • d’augmenter la sécurité (vidéo surveillance, protection des personnes, sécurité des transports) ;
  • d’augmenter le confort et le bien-être des personnes (domotique, transport) ;
  • de développer de nouvelles technologies médicales ;
  • d’intégrer de nouvelles applications notamment dans les divertissements ;
  • d’interagir avec son environnement : Internet des objets, interfaces machine to machine.

Autant de nouveaux challenges qui, pour être relevés, nécessitent d’innover et pour les industries concernées, d’accroître leur budget de R&D. Et dans ce domaine, les prospectives sont plutôt optimistes. Selon l’Idate, les activités de recherche-développement en logiciel embarqué dans le monde devraient connaître une croissance de 130 % entre 2002 et 2015 (ce qui représentera alors 132 milliards d’euros de dépenses de R&D) sur six secteurs : l’aéronautique, l’automobile, les automatismes industriels, les télécommunications, les équipements de santé et l’électronique grand public.

Dans ce domaine, la palme revient d’ailleurs aux industriels de l’automobile. Alors qu’en 2002, 22 % de leurs dépenses de R&D, soit 17 milliards d’euros, étaient consacrés au logiciel embarqué, rapporte l’Idate, elles devraient s’élever à 35 % en 2015 pour atteindre 45 milliards d’euros. L’aéronautique vient ensuite, avec des dépenses de R&D dédiées au logiciel embarqué qui passeront de 10 milliards à 20 milliards, puis l’équipement médical (5 milliards en 2002, 28 milliards d’euros en 2015) et enfin l’équipement télécoms qui passera de plus de 12 milliards d’euros en 2002 à plus de 20 milliards d’euros en 2015.

Le marché des systèmes embarqués est donc loin de se tarir.

Par Anne-Laure Béranger

Un secteur jeune encore très fragmenté

Grands industriels, sociétés de services, éditeurs de logiciel spécialisés dans les systèmes embarqués, laboratoires de recherche… ils sont nombreux à intervenir sur ce secteur. D’après l’étude menée en 2007 pour le compte du comité embarqué du Syntec informatique par PAC et IDC, 7 catégories d’acteurs le constituent. On y retrouve :

  • des industriels (Airbus, Dassault, Legrand, Schneider, Alcatel, Renault-Nissan, PSA Peugeot-Citroën, Alstom…)
  • des équipementiers/systémiers (Valeo, Michelin, Bosch, Siemens, Thales, Safran, Alcatel-Lucent…)
  • des laboratoires de recherche (LAAS CNRS, INRIA, CEA, VERIMAG, ISEN, IETR…)
  • des clusters/pôles de compétitivité (System@tic, Aerospace Valley, Minalogic, Images et Réseaux, Solutions communicantes sécurisées, Mer Bretagne, Mov’eo, EMC2, IDforCAR, Lyon Urban Truck&Bus, Optitec, Pôle risques, Route des Lasers, S2E2, Véhicule du futur, TES, …)
  • des associations et réseaux d’excellence (Autosar, Artist2, Artemis qui sont deux réseaux européens…)
  • des sociétés de services (Altran, Sogeti, le groupe CS,…)
  • et des éditeurs de logiciels (Esterel Technologies, Dassault systèmes qui acheté Geensoft en juin 2010, Aonix, …)

De grands noms qui cachent toutefois, un tissu de prestataires français encore très fragmenté et très jeune. 42 % de ces entreprises, selon l’étude pilotée par le Syntec, ont été fondées récemment (en 1995). Ce sont, pour la plupart, des structures de petites tailles, qui appartiennent, dans 8 cas sur 10, à des personnes physiques plutôt qu’à des institutions financières. Des caractéristiques qui ne gênent en rien leur dynamisme puisque selon le Syntec, entre 2007 et 2011, ces entreprises devraient créer environ 34.000 emplois nouveaux, dont 19.000 au sein des éditeurs de logiciels et des sociétés de service et 15.000 chez les industriels.

Des acteurs fortement impliqués dans l’innovation…

Une vitalité poussée en grande partie par l’innovation. D’où le poids de la R&D dans le budget de cette industrie. Selon les estimations des différents cabinets, une entreprise sur trois participe à des projets avec les laboratoires de recherche. Et plus généralement, elles investissent entre 20 et 22 % de leurs revenus dans la R&D !

La capacité d’investissement des différents acteurs de ce segment dans l’innovation est donc un des enjeux majeurs de cette industrie pour les années à venir. C’est elle qui conditionnera le rôle qui joueront demain les entreprises françaises de cet écosystème sur le plan national, mais surtout international. Le gouvernement français ne s’y est d’ailleurs pas trompé. Les logiciels embarqués font partie des 9 priorités d’investissement identifiées par le gouvernement dans le cadre du grand emprunt, au même titre que les transports intelligents, les smart grids ou encore la nanoélectronique. Certes, cette aide aux projets prendra essentiellement la forme de prises de participation et de prêts financés par le Fonds pour la Société numérique. Mais dans une moindre mesure, des avances remboursables et des subventions, essentiellement en R&D, pourront être consenties.

L’Europe soutient elle aussi activement cet écosystème. Consciente de son caractère stratégique pour l’industrie européenne, la Commission européenne, les Etats membres et une association répondant au nom de Artemisa ont créé, en février 2008, ARTEMIS une Initiative Technologique Conjointe (JTI), devenue, depuis octobre 2009, une entreprise conjointe (JU). Autonome depuis cette date, elle regroupe des industriels de toutes tailles, ainsi que des universités et des instituts de recherche qui constituent un véritable réseau d’excellence encadrant et coordonnant un programme de recherches sur 10 ans via des appels à projet sur les systèmes embarqués. Une initiative dotée de 2,5 milliards d’euros co-financés par Artemis et les Etats membres (lire l’encadré).

… sans forte standardisation

Pourtant, bien que dynamique et soutenu par les pouvoirs publics et les industriels, cet écosystème demeure fragile. Jusqu’à récemment, les éditeurs et sociétés de services des systèmes embarqués étaient liés aux grandes industries pour lesquelles ils avaient développé compétences et solutions. Cette « verticalisation » sectorielle a empêché qu’existent – comme c’est le cas dans l’informatique de gestion – de très grands leaders multinationaux, souligne le rapport du Syntec.

Par ailleurs, fragmentés, jeunes, et avec une structure capitalistique essentiellement privée, la croissance des prestataires de ce secteur peut être chaotique en période de crise ou dans un contexte de mondialisation, faute de surface financière suffisante. Aujourd’hui, les donneurs d’ordres comme leurs prestataires ont pris conscience de l’intérêt de s’organiser différemment souligne le Syntec, en développant d’une part la standardisation à l’échelle internationale (européenne a minima) et en favorisant le décloisonnement multisectoriel.

Un Club des Grandes Entreprises de l’Embarqué (CG2E) a d’ailleurs été créé en 2008 en étroite collaboration avec le Comité Embarqué de Syntec informatique pour regrouper les grands industriels de l’embarqué et travailler activement à ce décloisonnement entre les secteurs industriels, notamment dans le domaine des standards. Il regroupe d’ores et déjà plusieurs dizaines de grands industriels de tous les secteurs applicatifs. Une dynamique qui est non seulement à l’oeuvre en France, mais aussi en Europe.

Par Anne-Laure Béranger

3e appel à projets pour Artemis

Artemis

Pour la troisième année consécutive, l’entreprise conjointe Artemis, dédiée aux systèmes embarqués, a lancé, début 2010, son appel à projets. Au total, la dotation s’élevait à plus de 200 millions d’euros, dont un financement public de 100 millions d’euros venant des 22 Etats membres participants et de la comission européenne, et d’au moins autant venant des industriels et des organismes de recherche. Clos depuis le 1er septembre 2010, il se focalisait cette année, sur des projets ayant un impact important sur notre vie quotidienne en matière d’utilisation de l’énergie, de sécurité et de santé. Le deuxième appel à projets, lancé en 2009, a généré 13 grands projets de R&D qui ont démarré au début de cette année, tandis que celui de l’année 2008 avait permis le lancement de 12 projets en janvier 2009.

Systèmes d’exploitation temps réel : les principes

D’abord marginal, devenu phénomène quasi explosif, l’utilisation de l’informatique dans la mise en oeuvre des systèmes automatisés a pris une place considérable ces deux dernières décennies dans le monde industriel et, également, dans les objets de la vie courante. Les domaines industriels d’application qui s’ouvrent ainsi à l’informatique « temps réel » peuvent être sommairement classés en trois groupes :

  • Les systèmes embarqués dans des équipements de haute technologie, et dont la sécurité est un souci majeur ;
  • Les systèmes embarqués produits en très grande quantité, et à intégrer dans des équipements classiques ;
  • Les systèmes à l’architecture matérielle ou logicielle dynamique.

La problématique du temps réel est apparue, quant à elle, au travers des techniques et outils qui ont été progressivement développés pour permettre la mise en oeuvre de ces applications. Or, ces outils subissent actuellement des évolutions très importantes en conception et architecture. Dans le même temps, de nouveaux champs d’application, originellement purement informatiques, s’ouvrent à ces techniques, comme le multimédia. Désormais, cette problématique est devenue passerelle entre l’automatique et l’informatique avec sa spécificité intrinsèque : le temps.

Cet article, écrit par Jean-Pierre Elloy et Yvon Trinquet présente d’abord la problématique de l’informatique temps réel et les approches possibles. Puis, il introduit la structure de l’exécutif et les politiques d’ordonnancement envisageables, ce qui conduit à présenter les services génériques que l’on peut rencontrer dans les produits industriels.

En savoir plus

Pour lire l’intégralité de l’article « Systèmes d’exploitation temps réel : principes » au format PDF, cliquez ici.
 
Les auteurs
 
Yvon Trinquet, Professeur à l’université de Nantes (IUT de Nantes), responsable de l’équipe « Systèmes Temps Réel » de l’Institut de recherche en communications et cybernétique de Nantes (IRCCyN).
 
Jean-Pierre Elloy, Professeur à l’Ecole Centrale de Nantes, responsable de la valorisation à l’Institut de recherche en communications et cybernétique de Nantes (IRCCyN).

« Les systèmes embarqués, une problématique importante pour l’industrie française »

Franck barbier a rejoint l’ANR en 2009. Spécialiste des systèmes embarqués, docteur en informatique spécialité génie logiciel, Franck Barbier a noué au cours de sa carrière des liens avec de grandes compagnies (Alcatel, Thales), ce qui lui permet aujourd’hui d’appréhender au mieux la nécessaire collaboration entre recherche publique et privée, surtout autour d’une thématique comme celle des systèmes embarqués.

Techniques de l’Ingénieur : Quand est-ce que l’ANR a-t-elle commencé à s’intéresser à la recherche sur les systèmes embarqués ?

Franck Barbier : Le thème « systèmes embarqués » a toujours été traité à l’ANR dès la création de l’agence. Il s’agit d’un héritage de ce que l’on appelait avant les réseaux technologiques. La recherche sur les systèmes embarqués a toujours été soutenue de manière importante car c’est une problématique très importante pour l’industrie française : en effet, les secteurs automobiles, ferroviaires et aéronautiques français, en particulier, reconnus pour leur compétence, étaient très demandeurs et ont toujours suivi de très près toutes les recherches menées sur les systèmes embarqués.

Parlez-nous des applications des systèmes embarqués et des technologies mises en œuvre ?

Les applications sont nombreuses : la téléphonie par exemple, avec des périphériques grands publics comme les smart phones qui comportent des systèmes embarqués non critiques. Il faut bien faire la distinction entre système embarqué critique et non critique. Les systèmes embarqués critiques, impliqués dans le fonctionnement de systèmes comme le système de freinage d’une voiture (ABS), le guidage de missiles, le pilote automatiques dans les avions, font l’objet de tests très nombreux et coûteux, car des vies humaines sont souvent en jeu. Les systèmes non critiques, eux, sont plutôt destinés aux loisirs, à l’assistance à la personne…

Y a-t-il partage des technologies selon le domaine d’application ?

Sur les systèmes critiques, un partage des technologies est nécessaire. Par exemple, le pôle de compétitivité Aeropace Valley, qui s’intéresse à l’industrie aéronautique, abrite maintenant des acteurs impliqués dans le ferroviaire et l’automobile, et tous ces secteurs utilisent les mêmes technologies. Que ce soit pour la partie électronique ou la partie logicielle, les technologies ayant pour but d’améliorer le niveau de robustesse de ces dispositifs sont les mêmes. Après, en termes de technologies, les grosses différences se font sur les systèmes embarqués d’agréments, non critiques, destinés à faciliter la vie des gens.

Un exemple ?

Si  on prend le cas des smart phones, les plates-formes d’exécution logicielle subissent des tests, mais qui ne vont pas être aussi poussés et nombreux que ceux effectués sur des systèmes critiques. Il s’agit là d’un problème de coût, puisque le seul moyen de s’assurer du bon fonctionnement de ces systèmes est faire un nombre de tests très important, qui se répercutent directement sur le prix de revient (les tests représentent parfois 60 % du prix de revient = phase de tests, de vérification et de certification).

Aujourd’hui, il semble que la problématique des coûts de revient intéresse beaucoup le recherche…

Prenons un exemple : aujourd’hui, du côté des logiciels, on a un langage de programmation comme Java, qui a été plutôt construit pour le monde de l’Internet. Il existe des versions de Java pour les systèmes embarqués, notamment les non critiques. Il existe aussi des versions Java pour les systèmes embarqués critiques. Ce langage là avait jusqu’à présent des mécanismes qui empêchaient de pouvoir certifier les programmes sur leur comportement. On a maintenant des normes de certification qui laissent la possibilité de l’utiliser. Pour revenir à l’aspect coût, ce langage là a une qualité : en effet, les programmeurs sont beaucoup plus productifs en utilisant Java.  Aujourd’hui, le fait que les normes de certification sur les problèmes d’allocation dynamique de mémoire, dans le domaine de l’aviation ou de l’automobile, soient plus souples, fait que le langage Java commence à gagner des parts de marché et on y gagne aussi sur les aspects coût puisqu’on fabrique la partie logiciel plus rapidement.

L’augmentation des puissances de calcul des systèmes embarqués est-elle également un enjeu pour la recherche ?

La puissance de calcul suit l’évolution des ordinateurs qu’on utilise au quotidien. Pour piloter des systèmes de plus en plus complexes, sophistiqués, on a besoin d’une puissance de calcul de plus en plus importante. On commence à parler des architectures matérielles multi cœurs, c’est-à-dire contenant plusieurs calculateurs travaillant sur la puce de base en parallèle. On retombe sur les problèmes de prix. Si on intègre plus de calculateurs sur une automobile, son prix de revient devient moins concurrentiel. Il faut arriver, en termes de services, à convaincre le client de payer pour ces systèmes. Le problème de cette puissance de calcul, c’est qu’on reste encore aujourd’hui dans une logique forte de système complet matériel ou logiciel qui coûte le moins cher possible. Etant donné que ces composants vont être vendus à des milliers d’exemplaires, le coût de revient doit être minimisé à tout prix

Quels sont actuellement les freins majeurs aujourd’hui pour la recherche ?

Aujourd’hui, le coût de revient de ces systèmes est le vrai problème si parallèlement ils montent en sophistication. Le coût de mise au point est souvent pharaonique. Le moindre système embarqué supplémentaire dans une voiture accroît le coût de celle-ci de manière significative. Aujourd’hui, sur une Volvo par exemple, on trouve une cinquantaine de calculateurs sur les voitures de milieu de gamme. Le problème devient alors de faire alors interopérer tous ces calculateurs dans une architecture matérielle/logicielle la plus standardisée possible pour maîtriser et les coûts et la qualité globale (sécurité absolue des dispositifs de la voiture).

C’est -à-dire ?

Les systèmes embarqués doivent pouvoir communiquer entre eux de manière rationnelle via des infrastructures idoines (intergiciels). L’interconnexion est une de nos problématiques actuelles. L’industrie française est en pointe dans ce domaine. Nous avons historiquement une grande compétence sur le sujet. L’ANR a vocation à faire perdurer cet avantage technologique.

Quel est le rôle principal de l’ANR sur la thématique « systèmes embarqués » ?

Sur les systèmes embarqués, la vocation de l’ANR est de faire collaborer public et privé. Sur la période 2005/2007, nous avons eu 21 projets sur les systèmes embarqués, avec une aide globale de 23,8 millions d’euros. Mais nous soutenons d’autres projets qui apportent une contribution indirecte à la recherche sur les systèmes embarqués, comme les recherches sur la sûreté de fonctionnement en général, qu’elle soit matérielle ou logicielle, la sécurité des systèmes d’information…

Y a-t-il une collaboration public/privé en termes de recherche sur les systèmes embarqués ?

La recherche publique/privée sur les systèmes embarqués fonctionne très bien aujourd’hui. Nous avons traité le sujet de la bonne façon, il y a très longtemps. C’est une thématique pour laquelle la R et D privée a toujours investi de façon conséquente. Il y a eu une mise en relation rapide entre les laboratoires publics et la recherche privée, sous l’initiative de l’Etat. Deux grands laboratoires français en sont le parfait exemple : le LAAS à Toulouse, qui collabore beaucoup avec l’industrie de l’aéronautique et de l’espace. Verimag à Grenoble, qui a obtenu l’équivalent du prix Nobel, dans le domaine des systèmes embarqués.

Est-ce que l’économie d’énergie est un axe de recherche prépondérant sur cette thématique ?

La tendance est à l’économie d’énergie : les TIC sont de gros consommateurs d’énergie. Les systèmes embarqués sont également un moyen d’optimiser la consommation d’énergie. Il y a donc cette contradiction à gérer, sachant que plus la puissance de calcul des systèmes augmente plus la consommation d’énergie est importante.

Parlez-nous du programme ARPEGE ?

C’est un programme qui a commencé en 2008, avec trois appels à projets annuels. Le dernier a eu lieu en 2010. ARPEGE a poursuivi toutes les initiatives de programmation de L’ANR qui avaient eu lieu de 2005 à 2007. La vraie vocation d’ARPEGE était de progresser au niveau de l’interconnexion de ces systèmes embarqués pour des grandes infrastructures de calcul (internet des objets en particulier).

« Le but est d’avoir une proximité entre le matériel et le logiciel »

Techniques de l’Ingénieur : Comment définiriez-vous un système embarqué ?

Yvon Kermarrec : Un système embarqué consiste en  une association de logiciels destinés à fonctionner,  bien souvent en autonomie, sur un environnement matériel bien particulier. L’enseignement des systèmes embarqués est assez difficile. On a très vite besoin de contextes applicatifs très précis pour motiver les étudiants. La caractéristique première des systèmes embarqués est qu’ils ont une proximité avec le matériel qui est très fort. Les applications informatiques classiques, qui tournent sur PC, déroulent des instructions et produisent des résultats. Dans le cas des systèmes embarqués, on a cette notion de capteur, c’est-à-dire que pour pouvoir fonctionner, le programme va avoir besoin de lire des capteurs, d’acquérir des données, puis d’effectuer des actions sur son environnement. A la différence des entrée/sorties que l’on trouve dans les programmes classiques, on va se retrouver avec des entrées/sorties sur du matériel très précis, très pointu, que l’on va devoir acquérir, avec dans certains cas des contraintes temps réel.

Quels sont les autres caractéristiques propres aux systèmes embarqués ?

Un des points fondamentaux est la durée de vie de ces systèmes, qui est souvent très importante. Par exemple, les systèmes embarqués dans les avions ont une durée de vie d’environ 40 ans. Quand Airbus livre du software pour des applications, il va être livré en milliers d’exemplaires, et les mises à jour sont toujours très compliquées.

Parlez-nous des systèmes embarqués critiques.

Souvent, ce sont des systèmes de contrôle (automobiles, avionique, spacial). Ces systèmes, souvent critiques, engendrent des coûts monstrueux en termes de détection d’erreurs. Il faut bien imaginer que si un de ces systèmes est défaillant sur un avion de ligne en vol par exemple, les dégâts humains et matériels sont immenses, mais tous les avions équipés de ce systèmes doivent également être immobilisés durant une durée indéterminée pour vérifier la source du disfonctionnement.

Qu’en est-il de la consommation d’énergie de ces systèmes ?

Les problèmes de consommation de ressources sont partie prenante dans les recherches menées actuellement. Quand vous envoyez quelque chose sur un satellite, le poids a un coût. Tout ce qui est temps d’exécution, taille mémoire, doit alors être optimisé au maximum. Aussi, ce sont des applications qui sont dans de nombreux cas complexes (guidage d’un missile par exemple), et on a besoin de techniques en termes de génie logiciel.

Quels langages utilisez-vous pour la programmation de ces logiciels ?

La première version d’Ada a été standardisée en 1983. Il y a eu deux nouvelles versions depuis. Le langage Ada  a été conçu  pour les systèmes embarqués. Par exemple, il va permettre de coder la représentation des nombres, des structures de données, ou encore de récupérer des interruptions matérielles. Ada a été développé pour répondre aux besoins du ministère américain de la défense (US DoD). Mais son application à la problématique des systèmes embarqués était dans le cahier des charges, avec des avancés réelles en termes de temps réel et de génie logiciel.

Quel est l’avantage du langage ADA ?

J’ai travaillé auparavant sur un système de contrôle aérien pour le Canada et le compilateur Ada GNAT. J’ai donc pu à ces occasions expérimenter Ada des 2 côtés : de l’utilisateur pour les applications complexes et critiques comme le contrôle aérien et une équipe technique de 150 Personnes; et du côté compilateur, avec la mise en œuvre des différents traits du langage Ada  Pour moi, l’avantage principal du langage est sa très grande richesse et précision au niveau sémantique. Pour Ada, rien n’est implicite : tout doit être explicité par le programmeur et de ce fait, on ne laisse pas le compilateur choisir la meilleure solution pour une configuration donnée. Le programmeur doit donc être conscient des conséquences de tous ses choix et décisions. Et ceci est naturellement important pour les systèmes embarqués dans un contexte de contrôle.

Ensuite ?

Reprenons les problématiques de conversion : la plupart du temps, les programmeurs vont prendre des flottants ou des nombres réels, qui sont en fait des approximations. En Ada, il est possible de fixer la précision des calculs et de connaitre celle du résultat : il n’y a rien d’implicite et ceci assure la portabilité en particulier.

Quels sont les autres langages existant ?

Un autre langage de description de l’architecture, AADL, est très prometteur. C’est un standard proposé par la SAE (Society of Automotive Engineers) et qui propose un langage pour la description des  aspects architecture matérielle  et logicielle. Il y a de ce fait une proximité entre le logiciel et le matériel et la possibilité de procéder à des vérifications comme l’utilisation de la mémoire, le temps de calcul, le respect des échéances pour le temps réel (en utilisant des outils ad’hoc).  Leur site (http://www.aadl.info/) précise le contexte d’utilisations et d’applications d’AADL dans de nombreux domaines.

Pourquoi est-il important d’avoir le plus d’informations possibles sur l’architecture des systèmes ?

Le coût d’une erreur détectée en amont est très faible. Au niveau opérationnel, une erreur devient catastrophique. L’idée de ces langages est donc d’apporter le maximum d’informations sur l’architecture du système que l’on est en train de bâtir, et sur l’environnement hardware sur lequel il va tourner, pour mener à bien ensuite toute une phase d’analyses. … et de détecter ainsi au plus tôt toute erreur ou imprécision.

Systèmes embarqués : gérer la criticité

Un système critique est un système dont une panne peut avoir des conséquences dramatiques, tels des morts ou des blessés graves, des dommages matériels importants, ou des conséquences graves pour l’environnement. Par opposé, un système non critique va correspondre aux applications dédiées aux loisirs (les jeux vidéos par exemple). Ainsi, sont par exemple critiques les logiciels intervenant dans :

  • les systèmes de transport : pilotage des avions, des trains, logiciels embarqués automobiles ;
  • la production d’énergie : contrôle des centrales nucléaires ;
  • la santé : chaînes de production de médicaments, appareil médicaux (à rayonnement ou contrôle de dosages) ;
  • le système financier : paiement électronique ;
  • les applications militaires.

En fait, de part la diffusion inexorable et généralisée des technologies logicielles et donc de l’impact plus massif d’un défaut quelconque, la notion de criticité tend à se diffuser même s’il s’agit plus souvent d’un risque de désorganisation sur le plan économique, social ou financier.

Bien évaluer le niveau de criticité

Il existe différents niveaux de criticité d’un système, suivant l’impact possible des dysfonctionnements. On apprécie ainsi différemment, par exemple, un dysfonctionnement provoquant des pertes coûteuses, mais sans mort d’homme (cas des missions spatiales non habitées) et un dysfonctionnement provoquant des morts dans le grand public (cas des vols commerciaux). De même, on apprécie différemment des dysfonctionnements faisant courir un danger de mort ou de blessure à des humains, ou des dysfonctionnement augmentant la charge de travail et les risques d’erreur de pilotage des opérateurs humains.

Prenons l’exemple de l’aviation. En aviation, la norme DO-178B sépare les logiciels avioniques en 5 catégories :

  • niveau A : un dysfonctionnement du logiciel provoquerait ou contribuerait à une condition de perte catastrophique de l’appareil ;
  • niveau B : un dysfonctionnement du logiciel provoquerait ou contribuerait à une condition dangereuse ou un dysfonctionnement sévère et majeur de l’appareil ;
  • niveau C : un dysfonctionnement du logiciel provoquerait ou contribuerait à un dysfonctionnement majeur de l’appareil ;
  • niveau D : un dysfonctionnement du logiciel provoquerait ou contribuerait à un dysfonctionnement mineur de l’appareil ;
  • niveau E : aucun impact sur le fonctionnement de l’appareil ou la charge de travail du pilote.

La criticité du système définit un niveau d’exigence par rapport à la tolérance aux pannes. Elle aura des conséquences sur l’évaluation des niveaux d’assurance pour la sécurité.

Un autre aspect de la criticité s’applique aux logiciels : un logiciel critique est un logiciel dont le mauvais fonctionnement aurait un impact important sur la sécurité ou la vie des personnes, des entreprises ou des biens. L’ingénierie logicielle pour les systèmes critiques est particulièrement difficile, dès lors que les systèmes sont complexes, mais l’industrie aéronautique, ou plus généralement l’industrie du transport de passagers, a réussi à définir des méthodes pour réaliser des logiciels critiques. Des méthodes formelles peuvent servir à améliorer la qualité du logiciel des systèmes critiques. Le coût de réalisation d’un logiciel de « système critique » est beaucoup plus élevé que celui d’un logiciel ordinaire.

Des contraintes particulières de développement

Les précautions à prendre dans le développement d’un logiciel critique sont généralement fixées par une norme, et dépendent du domaine d’application et surtout de la criticité du logiciel. Généralement, on trouve des impératifs :

  • de documentation : tous les composants doivent être documentés, notamment dans l’interface qu’ils présentent aux autres composants ;
  • de traçabilité : le système doit répondre à chaque spécification, soit dans sa mise en œuvre, soit dans des spécifications intermédiaires (auquel il faudra aussi répondre) ; on doit donc avoir une chaîne complète de traçabilité entre les spécifications fonctionnelles et la mise en œuvre du système ;
  • de limitation des pratiques dangereuses : certaines techniques de programmations, sources possibles de problèmes, sont interdites, ou du moins leur usage doit être justifié par des raisons impératives (ex: allocation dynamique de mémoire, procédures récursives) ;
  • de test : on devra essayer le logiciel dans un grand nombre de configurations, qui couvrent tous les points et un maximum des chemins de fonctionnement du programme ;
  • d’utilisation d’outils de développement et de vérification eux-mêmes sûrs.

Les systèmes les plus critiques sont généralement soumis à des autorités de certification, qui vérifient que les impératifs prévus par la norme ont été remplis.
L’usage de méthodes formelles pourra, à l’avenir, être encouragé, voire imposé.
 

Systèmes embarqués : un défi économique dans les mains de la recherche

Un Système Embarqué intègre des logiciels et des matériels conjointement et spécifiquement conçus pour assurer des fonctionnalités souvent critiques.Plutôt que des systèmes universels effectuant plusieurs tâches, les systèmes embarqués sont étudiés pour effectuer des tâches précises. Certains doivent répondre à des contraintes de temps réel pour des raisons de fiabilité et de rentabilité. D’autres ayant peu de contraintes au niveau performances permettent de simplifier le système et de réduire les couts de fabrication.

Les Systèmes Embarqués sont aussi d’une importance stratégique pour l’économie, étant un facteur d’innovation et de différentiation : nouvelles fonctionnalités et nouveaux services dans les produits existants, nouveaux produits et services, avec comme principale valeur ajoutée les logiciels embarqués.

«Construire des systèmes de fonctionnalité et qualité déterminée et garantie, à coût acceptable, est un défi technologique et scientifique majeur, qui recouvre plusieurs aspects. D’abord, l’aspect technique. Au niveau technique, la conception conjointe permet de diminuer les coûts. Ensuite, l’optimisation du marché entre coût et qualité au niveau économique, et la combinaison des compétences en logiciel, réseaux entre autres rationalise d’autant plus les coûts », précise Joseph Sifakis, directeur de recherche au CNRS.

Ces défis pour la recherche, et pour rendre économiquement l’ajout de systèmes embarqués dans des équipements diverses, touchent des domains d’applications extrêmemant diverses :

  • transport : Automobile, Aéronautique (avionique) ;
  • astronautique : fusée, satellite artificiel, sonde spatiale, etc ;
  • militaire : missile ;
  • télécommunication : Set-top box, téléphonie, routeur, pare-feu, serveur de temps, téléphone portable, etc ;
  • électroménager : télévision, four à micro-ondes ;
  • impression : imprimante multifonctions, photocopieur, etc ;
  • informatique : disque dur, Lecteur de disquette, etc ;
  • multimédia : console de jeux vidéo, assistant personnel ;
  • guichet automatique bancaire (GAB) ;
  • équipement médical ;
  • automate programmable industriel, contrôle-commande ;
  • jeux : consoles ;
  • métrologie.

Le grand défi de l’intégration

Construire des systèmes complexes par intégration de composants hétérogènes est un défi très complexe à relever : les mécanismes de communication, la vitesse de fonctionnement, la granularité des calculs et la variété des médias sont autant de composants dont l’association doit être pensée puis matérialiser. Le but, pour la recherche, à terme, est de créer un modèle unifié supportant l’intégration hétérogène.

Aussi, L’effort en termes de validation augmente exponentiellement avec le nombre de composants intégrés. « Il s’agit donc, à termes, de remplacer les méthodes de validation a posteriori par des méthodes de validation incrémentale », ajoute Joseph Sifakis, directeur de recherche au CNRS. L’enjeu actuel consiste donc à développer des outils théoriques et techniques pour la validation incrémentale.

La problématique des systèmes d’exploitation

Les systèmes d’exploitation sont souvent beaucoup plus complexes que nécessaire, peu fiables, et contiennent souvent des fonctionnalités cachées. De plus, ils sont difficiles à gérer et à utiliser de façon efficace. Les chercheurs veulent aller vers des OS plus légers, dédiés à un domaine d’application précis.
A cette fin, les architectures logicielles tendent à être de plus en plus minimalistes, reconfigurables, adaptatives

Enfin, les applications controle/commande sont d’une importance stratégique, leur conception et implantation soulèvent des problèmes difficiles :

  • Intégration d’aspects multi-disciplinaires, modélisation et Vérification des Systèmes Hybrides ;
  • Combinaison de contrôle/commande continu et discret – prise en compte des événements discrets dans les techniques de discrétisation ;
  • Autres difficultés dues à la répartition et à la tolérance aux fautes (influence des retards de communication, décalage entre horloges, échantillonnage apériodique).

Tous ces défis constituent la problématique actuelle de la recherche,et les clefs vers l’utilisation massive et à grande échelle des systèmes embarqués, aussi bien pour des applications confinées que grand public.

.
 

« Vers des capteurs autonomes au niveau énergétique »

Techniques de l’ingénieur : Qu’est-ce qui caractéristique un système embarqué critiques ?

Olivier Sentieys : Il y a beaucoup de définitions différentes en ce qui concerne les systèmes embarqués. En ce qui concerne les systèmes critiques, ce sont des gros contrôleurs qui vont prendre des décisions en fonction d’événements, ce que l’on appelle des systèmes réactifs. Cela exige une contrainte extrêmement forte sur les résultats d’exécution.IRISA

Et les systèmes embarqués non critiques ?

On a pas de contrainte aussi forte en ce qui concerne la réactivité et la sûreté du système pour les systèmes embarqués non critiques. On va plutôt avoir des contraintes en termes de performances, de consommation d’énergie par exemple. Ainsi, on peut s’appuyer sur des plates-formes plus compliquées. Maintenant, dans un smart phone, on a une puces presque pour chaque application (radio, internet, encodage vidéo, carte graphique). On utilise beaucoup de logiciels sous des contraintes d’énergie fortes.

Quelles sont les contraintes au niveau de la consommation d’énergie ?

Les puces ont tendance à consommer de l’énergie quand elles fonctionnent, mais elles en consomment également lorsqu’elles ne sont pas en activité, par déperdition des transistors. La minimisation de l’activité dans le circuit, la répartition de l’activité dans le circuit, doivent être contrôlés. On s’appuie de plus en plus sur des puces qui ont plusieurs coeurs de processeurs pour économiser de l’énergie. On va avoir plusieurs processeurs dans une même puce électronique, on va donc avoir une complexité de fonctionnement accrue, avec des contraintes supplémentaires en termes d’énergie. La recherche va en tout cas dans le sens d’une puissance de calcul de plus en plus grande avec une consommation énergétique de plus en plus faible. On travaille aussi sur des capteurs consommant tellement peu d’énergie qu’ils pourraient être autonome au niveau énergétique. Il y a déjà des débouchés commerciaux au niveau de la domotique. En ce qui nous concerne, nous voulons travailler avec des capteurs consommant encore moins d’énergie.

Existe t-il d’autres pistes pour réaliser des économies d’énergie ?

Par exemple, quand on allume son ordinateur, on va utiliser une énergie relativement importante pour des actions souvent basiques (regarder ses mails, écrire un document…). Au final, le gaspillage d’énergie est colossal. Et l’exemple de l’ordinateur s’étend à beaucoup d’autres objets du quotidien (tout ce qui est jeux vidéos par exemples). Actuellement, même si les puces et les systèmes intègrent de le gestion de l’énergie,celle ci n’est pas assez intelligente pour n’utiliser que les quelques millivolts nécessaires pour certaines applications. La solution à ce genre de problèmes c’est d’avoir au sein du processeur plusieurs systèmes qui vont s’éteindre et s’allumer en fonction de ce que l’on a à faire.

Quels sont les freins à cette recherche de puissances de calculs toujours plus importants ?

Avec les nouvelles technologies, on est de moins en moins sûr que les puces ne tombent pas en panne. Si on prend une voiture, il y a des calculateurs partout. S’il tombe en panne, on ne peut plus régler le rétroviseur, il faut le changer. On va donc vers ce qu’on appelle la reconfiguration, c’est à dire avoir plus de calculateurs, qui pourraient accomplir plus de fonction. Ceci permettrait de reconfigurer le système, et limiter les réparations. Les industriels regardent ça de plus en plus. Les applications intelligentes permettant la réduction de la consommation d’énergie sont nombreuses (les smart grid). Dans cette optique il serait vraiment intéressant de travailler avec des capteurs autonomes au niveau énergétique.

Diagnostic filaire : détection, localisation et caractérisation de défauts dans des réseaux filaires complexes

Les câbles électriques sont vecteurs de l’alimentation et de l’information pour les systèmes communicants. Ils sont soumis aux mêmes contraintes et peuvent aussi être affectés par des défauts (court-circuit, rupture, corrosion et usure, etc.). En cas de panne du système, il peut être intéressant de vérifier l’état physique du réseau d’interconnexion filaire avant de changer de coûteux appareils.

Des systèmes de diagnostic filaire permettraient d’énormes gains de temps et d’argent dans de nombreux domaines tels les transports, l’énergie, le bâtiment et les infrastructures, les télécommunications.

Ecrit par Fabrice Auzanneau, l’article « Diagnostic filaire : détection, localisation et caractérisation de défauts dans des réseaux filaires complexes » publié dans la collection Recherche et Innovation des Techniques de l’Ingénieur, vise à présenter un état de l’art des méthodes et outils pour le diagnostic des réseaux filaires de topologie complexe, leurs avantages, leurs performances mais aussi leurs limites.

En savoir plus

Pour lire l’intégralité de l’article « Diagnostic filaire : détection, localisation et caractérisation dans des réseaux filaires complexes » au format PDF, cliquez ici.
Auteur
Fabrice Auzanneau, Chef du laboratoire de fiabilisation des systèmes embarqués au CEA LIST.

La Compagnie du Vent mise sur les pratiques Agiles

Pour faire face à sa croissance et assurer une meilleure gestion de son environnement informatique en perpétuelle évolution, La Compagnie du Vent (groupe GDF/Suez), pionnier français de l’énergie éolienne, qui exploite en France 16 parcs éoliens d’une puissance totale de près de 192 MW, a choisi la mise en œuvre de pratiques Agiles avec l’aide du cabinet de conseil en gouvernance et architecture des Systèmes d’information Neoxia. Cette solution alternative innovante répond aux contraintes : temps, coût, qualité. Elle permet à l’équipe de développement informatique de s’organiser plus efficacement et de donner plus de visibilité sur son travail quotidien à son management. 

Pour mémoire, l’Agilité est une approche plus pragmatique que les méthodes traditionnelles et relève d’un travail de collaboration proactive impliquant toutes les forces vives de l’entreprise, des utilisateurs aux développeurs. Cette démarche nécessite la mise en place d’une équipe projet dédiée qui vise la satisfaction réelle du besoin du client et non les termes d’un contrat de développement.

L’objectif de la mission : mettre en place un processus innovant et industriel plus performant pour capitaliser sur le déploiement d’un procédé qui répond aux enjeux opérationnels et identifie les points de vigilance à solutionner. Pour La Compagnie du Vent, la mission de Neoxia s’est traduite par une sensibilisation des équipes sur Scrum et les pratiques Agiles, le coaching en interne pour permettre à l’équipe d’adapter son organisation à la démarche Scrum, l’appréhension des premières étapes de la démarche et le suivi dans l’adoption des bonnes pratiques. 

Depuis la mi-mai, date de démarrage de la mission, Neoxia a piloté l’évolution de ce projet avec une équipe spécifique constituée d’un « product owner« , et de deux développeurs – dont les premiers bénéfices se sont vite fait sentir. « Nous devions développer une application de prédiction de production de nos parcs éoliens. Déçus par une expérience au forfait, nous nous sommes tournés vers les démarches Agiles et Neoxia nous a aidés à les appréhender. Ces méthodes nous permettent d’être plus proches de nos clients et d’avoir une organisation plus fluide. Outre les bénéfices économiques, l’Agilité offre une maîtrise et une visibilité sur l’évolution des applications à mettre en place. Enfin, elle rassure nos utilisateurs qui voient le produit se construire selon leurs besoins », précise Grégoire de Jabrun, responsable du Service Informatique de La Compagnie du Vent. 

L’objectif de la mission est de fournir aux équipes de La Compagnie du Vent les moyens d’évoluer en autonomie selon une démarche évolutive permettant une montée en compétences dans la réalisation de l’application pilote. Ce processus industriel et opérationnel, plus performant, donne une vision immédiate, afin de s’adapter et de répondre aux problématiques techniques rencontrées au fur et à mesure de l’implémentation.

« Le principal enjeu de cette mission était de permettre à l’équipe de La Compagnie du Vent de démarrer le développement d’une application de prédiction de production des éoliennes au plus tôt. Après une phase d’analyse de l’organisation interne et de formation théorique, nous avons permis à l’équipe de se constituer et de s’organiser, et à chacun d’appréhender son nouveau rôle. Nous sommes ensuite très rapidement rentrés dans le vif du sujet, en mettant en œuvre les premières étapes de Scrum. Aujourd’hui, nous assurons un suivi pour permettre à l’équipe de ne pas dévier des bonnes pratiques », explique Jérôme Avoustin, Consultant en charge du projet chez Neoxia. 

Concrètement, cela s’est traduit par la prise en main de Scrum, la démarche Agile la plus populaire, conçue pour améliorer la productivité auparavant paralysée par des méthodologies plus lourdes. Cette démarche très opérationnelle fournit à La Compagnie du Vent une réactivité immédiate. Neoxia a ensuite effectué un plan d’intervention avec un calendrier interactif hebdomadaire. Cet échange en temp réel offre ainsi un bilan immédiat et répond aux attentes des utilisateurs finaux. 

Par Marc Chabreuil

Le nid d’abeilles révolutionne la pierre naturelle et le béton

En combinant ses âmes de panneaux sandwichs aux matériaux traditionnellement utilisés dans le secteur du bâtiment tels que la pierre naturelle (marbre, granit, gré…) ou le béton, Nidaplast composites, le concepteur du nid d’abeilles extrudé en polypropylène, ouvre de nouvelles perspectives aux architectes, aux designers et aux décorateurs d’intérieurs. Ce nouveau procédé qui permet en effet de travailler avec une tranche de matière première fine comme une peau, en épaisseur très faible, économise la matière première et donc d’allonge la durée de vie des carrières, mais aussi de facilite le travail de la structure sandwich en lui apportant une plus grande légèreté.

« Cette combinaison composite permet aux architectes de répondre aux exigences haut de gamme de leur client à coût réduit. Les matériaux nobles gardent leur apparence et leur esthétisme tout en étant moins chers, plus légers, et moins fragiles », explique Claire Ducreux, chargée de Marketing et de communication de Nidaplast.

De plus, l’utilisation de l’âme Nidaplast dans les panneaux sandwichs améliore la résistance de la pierre naturelle. Cette combinaison se retrouve dans la réalisation de structures portantes et autoportantes telles que les planchers, les planchers sur plots ou les marches d’escaliers. Une fine peau de marbre de 5 mm encollée à une âme Nidaplast de 28mm peut ainsi supporter des efforts et des déformations jusqu’à 50 fois supérieurs à un panneau de marbre classique de 20mm.

Légers et résistants, ces panneaux peuvent également être appliqués verticalement pour les cloisons et façades ou être utilisés pour le mobilier d’intérieur. La combinaison d’une âme Nidaplast et d’une peau de pierre ou de béton permet de travailler et de déplacer plus aisément des matériaux habituellement très lourds et  offre de nombreuses possibilités (table, chaise, …) aussi bien dans la mise en forme, que dans la mise en valeur des fines tranches de pierre naturelle.

Nidaplast composites propose une large gamme d’âmes structurelles en nid d’abeilles adaptées à chaque projet ou utilisation en fonction des exigences techniques et mécaniques :

  • une âme pour panneau sandwich composée de nid d’abeilles, d’un film plastique et d’un non tissé en polyester qui est utilisable en sous couche acoustique imputrescible, en tant qu’absorbeur de chocs et rehausseur de niveau ;
  • une grille thermoplastique renforcée de verre qui permet de rigidifier l’âme structurelle en nid d’abeilles, qui allège et renforce la pierre naturelle soit en parement vertical soit en mobilier d’intérieur. Selon l’importance des sollicitations, une gamme de 3 niveaux de densité de la grille thermoplastique renforcée verre est disponible ;
  • une fine couche de fibre de verre et une résine préalablement combinée à l’âme nid d’abeilles qui permet une grande résistance de la structure sandwich (nidaplast + pierre naturelle) en milieu humide et corrosif ;
  • avec une fine peau d’acier galvanisé, qui renforce la pierre naturelle pour répondre à des sollicitations importantes avec une meilleure résistance au feu.
     

Datadock, le centre de données le plus écologique d’Europe

Les travaux de construction du centre de données Datadock de l’opérateur PlusServer AG, à Strasbourg,  ont débuté en 2009 et la mise en service au cours de l’été 2010. Ce site qui représente un investissement de 17 millions d’euros, peut accueillir 50.000 serveurs sur une surface de 4.200 m².  Particulièrement bien situé, à environ à 300 m de la frontière franco-allemande, il est situé au centre de l’Europe, sur l’’itinéraire principal des câbles européens en fibre optique. Avec une structure entièrement redondante MPLS et une capacité totale de 100 Gb, cet élément central relie le centre de données d’un coté aux réseaux de Francfort et, de l’autre, aux réseaux redondants vers Paris et Bruxelles. Ainsi, toutes les données sont transmises avec une performance optimale et une disponibilité sur Internet à tout moment.

Le réseau IP PlusServer global est défini par les systèmes autonomes (AS) 34088 et 8972 et basé sur un réseau de transmission optique, qui permet une capacité de transmission de technologie de pointe de plusieurs milliers de Gigabits par seconde. La connexion aux principaux sites IX (Internet Exchange) en Europe, en Asie et en Amérique permet à PlusServer de réaliser avec ses partenaires des peerings publics avec tous les principaux transporteurs IP, FAI et fournisseurs de contenu. Il existe également de nombreux points de peering privés.

Dès la phase de conception du Datadock, l’accent a été mis sur l’efficacité énergétique afin de protéger l’environnement et de diminuer les coûts de fonctionnement. La situation du bâtiment dans une des zones les plus riches en eaux souterraines d’Europe a influencé le choix de son emplacement. En effet, ces eaux donnent à l’opérateur la possibilité d’intégrer un système de refroidissement par puits innovant et écologique. De cette manière, la consommation d’énergie de Datadock a pu être maintenue à un niveau si faible qu’il a été  désigné comme le centre de données le plus écologique d’Europe.

Alors que, normalement, plus de 60 % de l’énergie sont être utilisés pour le fonctionnement du système informatique (serveur, stockage …), en plus de l’infrastructure du centre de données (en particulier le refroidissement), Datadock ne consomme que 21 % d’énergie, soit une économie de 66 %, ce qui représente plus de 25 millions de kWh d’énergie économisés par an lors d’une utilisation totale, ou presque 24 millions de kg d’émissions de CO2 en moins (l’absorption de CO2 de 119.000 arbres par an). L’association professionnelle allemande sur Internet « eco » a d’ailleurs attesté de la qualité écologique du Datadock en lui attribuant le eco Award 2010 comme meilleur centre de données alors que le Datacenter Star Audit lui attribuait la meilleure note possible, à savoir cinq étoiles.

L’air froid arrive dans les salles des  serveurs via des dalles perforées

Avec un excellent indice PUE (Power Usage Efficiency) de 1,21, Datadock est le centre de données ayant la plus faible consommation d’énergie d’Europe. Rappelons que l’indice PUE est établi afin d’évaluer le besoin en énergie global d’un centre de données à travers le besoin en énergie de l’équipement informatique (serveur, stockage, réseau, etc.). Un indice PUE de 1,0 signifie que l’ensemble de l’énergie utilisée dans le centre de données est dédiée à l’informatique. Chez Datadock, avec une valeur de 1,21, seulement 21% de l’énergie consommée lors du fonctionnement du centre de données est utilisé pour l’informatique, l’énergie moyenne utilisée dans les centres de données allemands étant de 60 %  (PUE 1,62), ce qui est une valeur plutôt satisfaisante en comparaison avec les autres pays. Cet indice PUE exceptionnel est notamment atteint grâce à l’utilisation de la géothermie pour le refroidissement qui représente la majeure partie de la consommation énergétique du fonctionnement d’un centre de données. Grâce au recours à des ressources en eaux souterraines de la région (il s’agit de l’une des régions les plus riches en eaux souterraines d’Europe) et du fait que ces eaux (12° C) n’ont pas besoin d’être refroidies, une grande quantité d’énergie est économisée.

Les eaux souterraines sont prélevées du sol, puis filtrées afin d’éviter les dépôts dans les conduits et finalement pompées dans le centre de données. Par le biais d’échangeurs de chaleur, elles sont utilisées dans le circuit de refroidissement qui alimente à son tour le système de climatisation en froid pour ensuite générer de l’air froid. L’air froid arrive dans les salles des  serveurs par le biais de dalles perforées dans ce que l’on appelle les galeries « froides ». De là, il est aspiré par la face avant des serveurs par le biais de leur système de ventilation interne. La face arrière des serveurs évacue seulement l’air chaud dans les galeries « chaudes ». Il est ensuite reconduit dans le circuit de refroidissement. Un logement du rack sert à guider la circulation de l’air vers les composants refroidis. Ainsi, la capacité de refroidissement nécessaire et donc la consommation énergétique sont minimisées. De plus, seuls les composants à faible consommation d’énergie les plus récents sont utilisés dans le centre de données, par exemple les transformateurs, les installations ASO et les climatiseurs. Ainsi, le système de climatisation de précision refroidit des grandes salles en consommant 60 % d’énergie en moins rapport aux systèmes de climatisation à compression classiques, et le système ASI utilisé présente le meilleur degré d’efficacité du marché (, jusqu’à 96 %). 

Un système collecteur d’énergie supprime les batteries des capteurs sans fil

Les avancées récentes dans les microcontrôleurs à ultra faible consommation ont permis de réaliser des circuits qui présentent des niveaux d’intégration sans précédent pour la puissance nécessaire à leur fonctionnement. Ce sont des systèmes sur une puce avec des schémas d’économie d’énergie volontaristes, comme une coupure de l’alimentation des fonctions non utilisées. En fait, il faut si peu de puissance pour faire fonctionner ces circuits que beaucoup de capteurs sont sans fil car ils peuvent facilement fonctionner sur piles. Malheureusement, il faut remplacer régulièrement ces batteries, ce qui implique une maintenance coûteuse et indésirable. Une solution d’alimentation sans fil plus efficace est de collecter l’énergie ambiante dans l’environnement local du capteur.

Les sources d’énergie ambiante comprennent la lumière, les différences de températures, les vibrations, les émissions de signaux RF, ou n’importe quelle source qui peut produire une charge électrique dans un capteur. Par exemple, des petites cellules photovoltaïques alimentent depuis des années les appareils de poche et peuvent produire des centaines de mW par cm2 en exposition directe au soleil et des centaines de µW par cm2 en lumière indirecte. Des modules à effet Peltier (Seebeck) convertissent l’énergie thermique en électricité lorsqu’un gradient de température est présent. Les sources d’énergie thermique vont de la chaleur du corps humain, qui peut produire des dizaines de µW/cm2 à celle de la surface du conduit de cheminée de chauffage qui peut produire des dizaines de mW par cm2. Les composants piézoélectriques produisent de l’électricité soit par compression, soit par flexion de l’élément. Les composants piézo peuvent générer des centaines de µW/cm2 selon leur taille et construction. La collecte de l’énergie RF est effectuée avec une antenne et peut produire des centaines de pW/cm2.

La réussite de la conception d’un système de capteur sans fil totalement auto alimenté nécessite des microcontrôleurs économisant l’énergie et des capteurs qui consomment une énergie minimale dans des environnements de faible énergie. Maintenant que tous les deux sont facilement disponibles, le chaînon manquant est le circuit de conversion d’énergie à haut rendement pouvant convertir la sortie du capteur en une tension utilisable. Un système de collecte d’énergie type comprend le capteur source d’énergie, un élément de stockage de l’énergie et le moyen de convertir cette énergie stockée en une tension régulée utilisable. Il peut aussi y avoir besoin d’un réseau redresseur de tension entre le capteur d’énergie et l’élément de stockage d’énergie pour éviter le retour de l’énergie vers le capteur ou pour redresser un signal alternatif dans le cas d’un capteur piézoélectrique.

Le circuit  LTC3588-1 de Linear constitue une solution complète de collecte d’énergie optimisée pour des sources de haute impédance comme des capteurs piézoélectriques.Il réunit toutes les fonctions essentielles de gestion de l’alimentation. Il comporte un redresseur double alternance en pont à faible perte et un convertisseur abaisseur synchrone à haut rendement, qui transfère l’énergie d’un composant de stockage d’entrée vers une sortie à tension régulée pouvant accepter des charges jusqu’à 100 mA.

Parmi les exemples d’applications possibles du circuit  LTC3588-1, citons :

  • la collecte d’énergie piézoélectrique : un système piézoélectrique T220-A4—503X qui, une fois placé dans un flux d’air, peut produire une puissance de 100 µW sous 3,3 V avec  une déflexion de l’élément piézoélectrique de 0,5cm à une fréquence de 50Hz ;
     
  • la collecte d’énergie à effet Peltier : dans le cas d’un système de collecte d’énergie qui utilise un module à effet Peltier de Tellurex Corporation, un différentiel de température produit une tension de sortie permettant une charge de sortie de 300 mW ;
     
  • la collecte d’énergie à partir du champ électromagnétique produit par des tubes fluorescents standards : pour réaliser un système qui collecte l’énergie des champs électriques qui entourent des tubes fluorescents haute tension, 2 plaques de cuivre de 30 x 60 cm sont placées à 15 cm d’un éclairage fluorescent de 60 x 120 cm. Les plaques de cuivre collectent par capacité 200 µW des champs électriques avoisinants. Cette énergie est convertie par le LTC3588-1 en tension de sortie régulée. 

Par Jim Drew, Senior Applications Engineer chez Linear 

RFID : la sécurité en questions

La RFID cristallise aujourd’hui bien des craintes. Mais de quoi parle-t-on exactement ? En effet, il est devenu très difficile de comprendre ce que sont les « technologies RFID ».

Il existe une véritable jungle de termes rassemblés dans des notions vagues et à la mode (« buzzwords« ) comme L’Internet des Objets [1]. Dans l’article « Introduction à la sécurité RFID » [2], Michel Chochois introduit la technologie RFID (Radio Frequency IDentification) classique telle qu’utilisée, entre autres, dans la grande distribution dominée par l’offre GS1/EPCglobal [3]. Mais on peut y ajouter des processeurs miniaturisés, des capteurs (température mouvement, pression, humidité..) et des systèmes de localisation qui rendent ces objets « intelligents » et potentiellement présents partout. On imagine alors un monde où l’Internet serait composé d’objets virtuels (Web services, Second Life…), d’ordinateurs (serveurs, PC fixes, portables, téléphones …), d’objets physiques identifiés de manière unique, porteurs d’informations (traçabilité) et connectés à travers l’Internet des choses. Est-ce le monde que Georges Orwell avait prévu pour 1984 (avec le fameux « Big Brother vous regarde ») ? « 1984 » est d’ailleurs inscrit sur le logo « SPYCHIPS » des anti-RFID CASPIAN [5].

On parle de « RWA », (Real World Awareness) permettant de faire connaître notre monde physique à l’Internet pour créer le monde mixte. On parle de M2M, les machines parlant aux machines sans intervention de l’Homme. Quand l’homme interagit avec son environnement à travers des systèmes « conscients », on parle d’AmI « Intelligence Ambiante » [6]. Quand les équipements industriels en milieux difficiles passent au sans-fil il s’agit de « Wireless Factory »…

C’est sûrement ainsi que la RFID, qui suscite déjà de nombreuses craintes, risque de créer encore plus de peur lorsqu’elle est étendue à l’Internet des Choses. L’amalgame avec d’autres technologies augmente la peur et les risques de dérives. Et de fait, les technologies RFID focalisent les peurs apparaissant lors de l’introduction de nouvelles technologies. Ce sujet de société a été identifié par la Commission européenne (CE) et fait l’objet de nombreuses initiatives sur la technologie RFID et l’Internet des Choses.

Quelles craintes et quelles menaces ?

De fait, il est légitime de se demander si le marché de la RFID ne décolle pas à cause d’un manque de sécurité « dès la conception » ou de mécanismes et dispositions additionnels augmentant la sécurité ? En effet, comme l’explique Michel Chochois, il existe des failles intrinsèques à la technologie RFID (absence d’authentification, cryptage insuffisant, destruction aisée). Celle-ci a d’ailleurs été introduite dans le passeport numérique [7] sans être suffisamment sûre. Cette technologie subit en plus des attaques « traditionnelles » de sécurité (comme celle du type « man in the middle »). L’article finit en décrivant qu’il serait possible de se doter par exemple d’un système du type « RFIDGuardian » [8] pouvant être potentiellement installé dans nos téléphones portables en jouant le rôle de « FireWall » RFID. C’est une solution élégante mais complexe et coûteuse. Mais peut-on offrir mieux ?

Conséquence, des groupes anti-RFID actifs, comme par exemple à l’extrême « CASPIAN » aux Etats-Unis, veulent bannir cette technologie. La RFID aurait-elle, dans sa conception, des défauts de sécurité originels ? Va-t-elle souffrir, comme avec toutes nos technologies de l’information, d’une utilisation abusive, hors la loi, qu’il faut combattre en renforçant les dispositions réglementaires (régulation et application des lois nationales et Européennes), l’information et la prévention ?

Les actions mises en place en Europe

Concernant le projet de remplacement des codes barre par des étiquettes électroniques (RFID) dans nos magasins d’autres acteurs, comme Peter Hustinx le contrôleur européen à la protection des données (CEPD) [10], sont en faveur d’une désactivation par défaut des tags RFID après le point de vente des produits. La Commission européenne, elle, utilise la réglementation (mandats, communications, recommandations) et supporte prudemment l’adoption de la technologie RFID. Enfin, la recherche et l’innovation pourraient améliorer la situation afin de rendre l’utilisation de la RFID systématiquement conforme à la réglementation en vigueur « dès la conception ».

Dans l’article « Sécurisation et fiabilisation de la RFID » [11], j’ai décris les efforts réalisés en Europe pour concevoir dès l’origine (et améliorer) les applications RFID afin de respecter la sécurité et la vie privée. Le Réseau Thématique Européen RFID [12] a été choisi par la CE avec 25 partenaires et a démarré le 1er mars 2009 pour 3 ans. Couplé au nouveau Mandat RFID M/436 [13], à la communication sur la Sécurité de l’Internet des Objets qui a été publiée le 18 juin 2009 et aux résultats des projets de recherche du programme cadre 7 (PCRD 7 ou FP7), on devrait voir la situation nettement s’améliorer (lire le communiqué de la Commission européenne).

Vers quoi se dirige-t-on ?

Pour des raisons de compétitivité internationale, la technologie RFID va sûrement continuer à se déployer en Europe avec des disparités nationales. Il est possible d’améliorer la situation, mais cela doit se faire sans risquer de nuire au développement de notre Société de l’Information basée sur une économie numérique viable. Comme pour la biométrie, on dit que le marché de la RFID ne décolle pas à cause de la peur liée aux problèmes de sécurité et de protection de la vie privée. Mais s’il existait une « killer application » utilisant les technologies RFID que tout le monde voudrait acheter, alors les soucis de protection de la vie privée passeraient-ils au second plan comme avec GSM, GPS, Internet, la vidéosurveillance, les cartes bancaires… ? Mais quoi qu’il en soit, le choix conscient de l’utilisation des RFID conformément à la réglementation et son contrôle doit être offert aux utilisateurs en pleine connaissance de causes.

P.G
 

Notes

[1] Internet des Choses, “Internet Of Things” et RFID
[2] Lettre Sécurité des systèmes d’information n°20, nov-déc 2008, « Introduction à la sécurité de RFID » Michael Chochois
[3] http://www.epcglobalinc.org/
[5] CASPIAN http://www.spychips.com/ « Consumers Against Supermarket Privacy Invasion and Numbering »
[6] Intelligence Ambiante
[7] Le passeport entrouvert détectable : www.flexilis.com/download/RFIDPassportTechnicalAnalysis.pdf 
[8] RFIDGuardian, http://www.rfidguardian.org/
[10] Le Contrôleur européen à la protection des données (CEPD) www.libertysecurity.org/article1791.html
[11] Lettre Sécurité des systèmes d’information n°20, nov-déc 2008, « Sécurisation et fiabilisation de la RFID » Patrick Guillemin
[12] Réseau Thématique Européen RFID
[13] EC Mandate M/436 on « Data protection, privacy and information security aspects of RFID » www.etsi.org/WebSite/AboutETSI/RoleinEurope/ECMandates.aspx

Vers des systèmes de test entièrement définis par logiciel

L’instrumentation définie par logiciel, ou instrumentation virtuelle, s’appuie sur une architecture modulaire qui offre un niveau élevé de reconfigurabilité. Les instruments définis par logiciel sont constitués de matériels d’acquisition/génération modulaires dont les fonctionnalités sont caractérisées via un logiciel défini par l’utilisateur s’exécutant sur un processeur multi-cœur hôte.

Ce modèle de base convient parfaitement à la plupart des applications de test automatisé utilisées à l’heure actuelle, mais les nouvelles technologies et méthodologies de test qui pointent à l’horizon font naître le besoin d’étendre la reconfigurabilité au matériel pour atteindre les performances requises. Le test d’un récepteur RF moderne en est un exemple. En effet, codage/décodage, modulation/démodulation, groupage/dégroupage et d’autres tâches à forte concentration de données sont susceptibles de devoir se produire dans un cycle d’horloge du matériel sous test (DUT). Dans ces cas de figure, l’architecture définie par logiciel doit être suffisamment souple pour intégrer du matériel programmable par l’utilisateur – le plus souvent un FPGA (Field-Programmable Gate Array) – pour introduire l’intelligence nécessaire à l’intérieur de l’instrument. Les instruments programmables par l’utilisateur créent une architecture dans laquelle les données peuvent être manipulées en temps réel sur le FPGA et/ou traitées de manière centrale par le processeur hôte.

En effet, les toutes dernières avancées en R&D concernent tout particulièrement, outre les capacités de mesures RF et de précision, l’exploitation des FPGA et des processeurs multi-cœurs, affirment les ingénieurs de National Instruments. « La possibilité de personnaliser le matériel de mesure lui-même représente une nouvelle grande avancée vers un système de test entièrement défini par logiciel. Dans dix ans, nous nous demanderons comment nous avons pu programmer efficacement des systèmes de test sans cette capacité », affirme Mike Santori, Business and Technology Fellow, NI dans le document « Perspectives du test automatisé » qui présente les atouts et les futurs développements des FPGA.

Les FPGA sont totalement reconfigurables

Les FPGA sont une technologie fondamentale d’une importance majeure car ils allient le meilleur des ASIC et des systèmes basés processeurs. Au niveau le plus élevé, les FPGA sont des circuits en silicium reprogrammables. À l’aide de blocs logiques préconstruits et de ressources de routage programmables, les ingénieurs peuvent configurer ces circuits pour mettre en œuvre des fonctionnalités matérielles personnalisées. Ils peuvent développer des tâches de traitement numérique par logiciel et les compiler sous forme de fichier de configuration ou de flux de bits qui programme les composants FPGA. En outre, les FPGA sont totalement reconfigurables et peuvent adopter instantanément une nouvelle « personnalité », lorsqu’on les recompile avec une nouvelle configuration de circuit.

Programmables par l’utilisateur, les FPGA offrent également une vitesse d’exécution cadencée par matériel, ainsi qu’un déterminisme et une fiabilité élevés. Ils sont véritablement parallèles de sorte que des opérations de traitement différentes ne se trouvent pas en concurrence pour l’utilisation des ressources. Chaque tâche de traitement indépendante a sa propre section dédiée sur le circuit, et peut donc s’exécuter en toute autonomie sans être influencée par les autres blocs logiques. En conséquence de quoi, le fait d’ajouter davantage de traitement n’affecte en rien les performances d’une autre partie de l’application.

De nouveaux outils de conception modifient les règles de la programmation sur FPGA

Alors que l’on trouve des FPGA à l’intérieur des instruments depuis plus de dix ans, les ingénieurs de test y ont rarement eu accès pour y embarquer leurs propres algorithmes. Pour être utiles dans le cadre d’une instrumentation définie par logiciel, les FPGA doivent pouvoir être reprogrammés de manière logicielle par l’ingénieur. En d’autres termes, ils doivent être utilisés pour étendre la programmabilité logicielle au matériel lui-même. Dans le passé, la technologie FPGA n’était accessible qu’aux ingénieurs avec une grande expérience des logiciels de conception de matériel numérique (par exemple, des langages de description du matériel comme Verilog ou VHDL) qui utilisent une syntaxe de bas niveau pour décrire le comportement du matériel. Or, la plupart des ingénieurs ne maîtrisent pas ces outils. Toutefois, l’essor des outils de conception de haut niveau est en train de modifier les règles de la programmation sur FPGA, avec de nouvelles technologies permettant de convertir des diagrammes graphiques ou même du code C en circuits matériels numériques. Ces outils systèmes capables d’abstraire les détails de la programmation sur FPGA peuvent combler cette lacune.

De toute évidence, il y a des avantages à effectuer différents types de traitement sur un processeur hôte au lieu d’un FPGA. Par exemple, un FPGA convient généralement à l’analyse en ligne comme de simples décimations sur des E/S point à point, tandis qu’une modulation complexe peut atteindre de meilleures performances en s’exécutant sur un processeur multicœur en raison du grand nombre de calculs en virgule flottante nécessaires. La solution idéale pour le développement d’un système de test défini par logiciel est un seul et même environnement de conception graphique de systèmes permettant de segmenter rapidement le traitement sur l’hôte ou sur un FPGA pour voir lequel des deux offre les meilleures performances.

L’instrumentation à base de FPGA : un véritable potentiel pour de nombreux secteurs

Cette nouvelle architecture définie par logiciel permet de faire face aux problèmes de certaines applications qu’il est impossible de résoudre en suivant les méthodes traditionnelles, comme c’est le cas avec l’exemple précédent qui nécessite une prise de décision temps réel par l’hôte pour tester correctement le matériel. En revanche, les ingénieurs peuvent entièrement déployer l’intelligence dans le FPGA embarqué sur l’instrument pour des informations de type réussite/échec. C’est souvent le seul moyen d’offrir le niveau de cadencement et déterminisme requis par le matériel sous test. Pour illustrer ce type de matériels, citons les tags RFID, la mémoire, les microcontrôleurs et les unités de commande électroniques (ECU). Pour certaines applications, les ingénieurs assurent la communication via un protocole, avec ou sans fil, qui nécessite une couche significative de codage et décodage avant de prendre une décision.

Les instruments reconfigurables vont continuer de s’étendre à davantage d’applications courantes à mesure que les ingénieurs de test continuent de rechercher des façons créatives pour réduire les temps de test et les coûts du système. Prenons, par exemple, un numériseur qui intègre un FPGA en ligne avec un convertisseur analogique/numérique. Un ingénieur peut déployer des fonctions vers le FPGA telles que le filtrage, la détection de pics, les transformées de Fourier rapides ou le déclenchement numérique. Les données ne sont pas toutes créées d’égale manière, mais un numériseur basé FPGA peut prendre des décisions rapides concernant celles qui n’ont aucune valeur et peuvent être supprimées et celles qui présentent un intérêt. En fin de compte, cela peut réduire les temps de mesure de manière substantielle. Les ingénieurs de test dans l’industrie de la défense et de l’aérospatiale ont été les pionniers de l’adoption de l’instrumentation à base de FPGA au travers de leurs initiatives relatives aux instruments synthétiques, mais cette technologie présente également un véritable potentiel pour les applications dans les secteurs des télécommunications, de l’automobile, des dispositifs médicaux et de l’électronique grand public. 

Par Marc Chabreuil

Ingénieurs et scientifiques : quels enjeux ?

Face à la mondialisation et au dérèglement économique, la science et la technologie restent des points solides d’ancrage. Mais piloter sa carrière dans cet environnement complexe n’est pas toujours aisé.

Placé sous le haut patronage du ministère de l’Economie, de l’Industrie et de l’Emploi, ce colloque baptisé « Ingénieurs et Scientifiques : quels enjeux ? », vise à faire prendre conscience, aux ingénieurs en début de carrière et aux élèves ingénieurs en cours d’études, de deux réalités :

  • Qu’une expérience à l’international est un levier incontournable pour toute évolution professionnelle, grâce au fait de côtoyer d’autres façons de penser et d’autres manières d’agir, d’en faire l’apprentissage et de pouvoir enrichir son expérience par cette confrontation.
     
  • Que la reprise ou la création d’entreprise représente une alternative d’excellence, avec ses challenges, ses risques, mais aussi sa richesse et ses perspectives de réalisation.

A l’aide de témoignages de professionnels et de directeurs d’écoles, avec le retour d’expériences vécues sur le terrain ainsi que de nombreux échanges entre intervenants et participants, ce colloque souhaite proposer aux jeunes ingénieurs et scientifiques une approche qui les aide à prendre conscience des enjeux et à y réagir, ainsi qu’un mode d’emploi qui leur permette d’élaborer le parcours personnel et professionnel le mieux adapté à leurs compétences dans cet environnement divers et complexe.

Dans cette perspective, ce colloque sera organisé autour de deux tables rondes :

  • L’international : passeport pour la carrière d’ingénieur
  • La création d’entreprise : une affaire d’ingénieurs

Date et lieu

Le mercredi 27 octobre 2010, de 13h30 à 18h30, à Bercy (Centre Pierre Mendès France), 139 rue de Bercy 75012 Paris

Informations

Manifestation gratuite, mais inscription obligatoire en ligne sur le site cnisf.org, rubrique Agenda, Manifestations.

Pour télécharger le programme, cliquez-ici.

Le siège social d’ETDE, un concentré d’innovations au service du bâtiment durable

Début 2011, les 600 collaborateurs du siège social d’ETDE, filiale Energie et Services de Bouygues Construction, découvriront leur nouveau lieu de travail à Montigny-le-Bretonneux (78) : un bâtiment de 8 niveaux flambant neuf de 11.813  m2. Baptisé « Australia », il affiche des performances énergétiques peu communes : il  consommera en effet 2 fois moins d’énergie primaire qu’un bâtiment basse consommation et 4 fois moins qu’un bâtiment respectant la RT 2005 : sa consommation conventionnelle  annuelle ne s’élèvera qu’à 35 kWh d’énergie primaire par m2. Il s’agira de l’un des tous premiers bâtiments tertiaires à obtenir le Label BBC Effinergie et il sera également certifié NF Bâtiment-Démarche HQE. Pour parvenir à ces résultats, ETDE a mis en œuvre les innovations techniques les plus abouties du Groupe sur le plan de la construction durable, constituant ainsi une vitrine de l’expertise d’ETDE en matière de construction durable.

Une enveloppe double peau

Bouygues Bâtiment Ile-de-France a enveloppé Australia d’une double peau sur les façades Est et Sud, les plus exposées au soleil afin de limiter les apports solaires et l’échauffement du bâtiment. Différents modules de panneaux de résille métallique perforée sont accrochés à une structure métallique unique sur les façades. Ils agissent comme un filtre empêchant les rayons du soleil de passer. De plus, ils  permettent, d’un point de vue architectural, de rendre la double peau légère et moins homogène. Le positionnement de ces modules sur les façades et l’angle d’inclinaison des panneaux ont été calculés en fonction du Facteur Lumière Jour (FLJ) pour laisser passer la lumière naturelle sur les plateaux et répondre aux exigences de confort visuel du profil HQE (80 % des locaux concernés dans la zone d’études bénéficient d’un FLJ supérieur à 1,5 %).

Une isolation maximale

Australia dont l’isolation extérieure est améliorée de 21 % par rapport à la Réglementation Thermique 2005, est dit « étanche à l’air » (tout en permettant la bonne ventilation du bâtiment, les menuiseries, en aluminium, et fenêtres ne laissent passer aucune fuite d’air).

Distribution de chaud et froid par poutre à induction

ETDE a équipé les faux plafonds de poutres froides à induction pour distribuer l’air chaud ou froid sur les plateaux où travaillent  les collaborateurs. Par un système d’ouvertures de vannes, le débit d’eau chaude ou froide est maîtrisé pour obtenir la température ambiante désirée. Dans cette poutre, de l’eau chaude ou froide refroidit l’air, filtrée par une centrale de traitement d’air équipée de roues de récupération d’énergie qui permettent un transfert d’énergie entre l’air extrait et l’air neuf hygiénique. Le rendement du transfert d’énergie est de 80 %. Un échangeur à roue permet de récupérer 80 % de l’énergie rejetée à l’extérieur.

Free cooling ou night cooling

ETDE a développé ce système qui utilise la température de l’air extérieur pour rafraichir l’air à l’intérieur du bâtiment  afin que, la nuit, l’air frais extérieur soit soufflé à l’intérieur pour le rafraîchir. Il transite par la centrale de traitement d’air, utilisée le jour pour alimenter le bâtiment en air neuf. L’air frais est stocké la nuit grâce à l’inertie du bâtiment, qui permet de le tempérer naturellement et gratuitement le jour.

Un éclairage peu énergivore

L’éclairage est ainsi assuré par des luminaires à haute performance photométrique et haut rendement (classe 0,74B), avec des tubes T5 Basse Consommation. La puissance lumineuse s’adapte automatiquement en fonction de l’occupation des locaux et de la luminosité naturelle en respectant une puissance maximum de 5W/m2 dans les zones bureaux, pour un niveau moyen d’éclairage proche de 400 lux sur les plans de travail. Les paliers des ascenseurs sont, quant à eux, éclairés grâce à des luminaires à LED permettant des économies d’énergie de l’ordre de 2 500 kKWh par an avec une durée de vie multipliée par 3.

344m2 de panneaux photovoltaïques

Installés en toiture, de 211 panneaux photovoltaïques fournissent une puissance totale de 51,691 kWh. L’énergie produite est injectée dans le réseau public de distribution d’électricité. La production annuelle attendue est de 43.237 kWh la première année.

Des panneaux solaires thermiques

En toiture, 195 m2 de panneaux solaires thermiques, de type sous vide, permettent de climatiser en partie le bâtiment. Beaucoup moins énergivore qu’un groupe froid classique, un groupe froid à absorption de 75 kW produit de l’eau glacée grâce à l’énergie de l’eau chaude produite par les panneaux solaires. Cette eau chaude est stockée dans un ballon (de 10.000 m3 utiles) pour la climatisation, la production d’eau chaude sanitaire et le chauffage du bâtiment. 

Un chauffage au bois

Pour obtenir un bilan CO2 équilibré et limiter les gaz à effet de serre, deux chaudières de 220 kW, alimentées en granulés de bois, produisent l’eau chaude sanitaire, et prétraitent l’air neuf provenant des entrales de traitement d’air. En moyenne, pendant la période hivernale, la consommation des équipements est estimée à 2,9 m3. L’été, ces chaudières peuvent agir en complément des panneaux solaires thermiques pour l’apport énergétique destiné au groupe froid à absorption.

Priorité à la fibre optique

L’infrastructure réseau Ecoflex’IT, une innovation imaginée par le bureau d’étude Ingetel-BET  et déployée par la filiale d’ETDE, Exprimm’iT, utilise un réseau de câblage simplifié, avec 90 % des câbles en cuivre supprimés remplacés par des anneaux optiques. La diminution conséquente des composants génère moins de chaleur et diminue la consommation énergétique. Plus léger, moins coûteux, et souple d’utilisation, Ecoflex’IT est aussi beaucoup moins énergivore : jusqu’à -40 % d’énergie consommée par port switché selon les configurations.

Pilotage du bâtiment

Australia est l’un des premiers bâtiments français à faire l’objet d’un contrat de performance énergétique engageant sur un périmètre de consommation étendu. Avec Hypervision, une innovation d’Exprimm, filiale Facility management d’ETDE, la maîtrise de la consommation d’énergie est suivie au travers de l’exploitation globale du bâtiment, tant au quotidien que sur le long terme. Hypervision utilise des capteurs de température, d’humidité, des compteurs de consommation d’électricité, de gaz ou d’eau permettant d’analyser l’évolution de la consommation énergétique. Les dérives éventuelles sont immédiatement identifiées et analysées pour mettre en application des mesures correctives adaptées.

Par Marc Chabreuil

 

Apprécier les risques en sécurité de l’information avec la norme ISO 27005

La gestion des risques a parfois été le parent pauvre de la sécurité de l’information. De nombreux organismes appliquent des mesures de sécurité pour respecter un catalogue de mesures, pour être conforme à un référentiel, ou pour faire comme les autres. Ils ne savent pas nécessairement en quoi ces dispositifs de sécurité réduisent des risques. L’avènement de la norme ISO 27001 qui permet d’organiser sereinement sa sécurité des systèmes  d’information sous forme d’un système de management de la sécurité de  l’information (SMSI), impose une approche par la gestion des risques.

L’obligation de la réalisation d’une appréciation des risques est une  caractéristique fondamentale de l’ISO 27001 en opposition avec les approches conformité comme SoX ou PCI-DSS. La norme ISO 27001 précise en un peu plus d’une page ce que doit obligatoirement comporter une gestion des risques en sécurité de l’information. C’était un peu léger et la norme ISO 27005 est venue combler ce manque avec détail, tout en en allant plus loin, car elle s’applique non seulement aux SMSI mais à tout type de situation, de manière autonome, comme par exemple la gestion des risques sur un système embarqué.

La norme ISO 27005 est un guide définissant une méthode d’appréciation des risques en sécurité de l’information. Elle a fait l’objet d’un consensus international et elle permet une meilleure compréhension mutuelle à travers le monde. Elle apporte une nouveauté fondamentale par rapports aux méthodes  qui l’ont précédée comme EBIOS ou Mehari : la gestion des risques dans la durée, dans le temps. Il ne s’agit plus de gérer les risques en y  travaillant dur quelques semaines, puis en recommençant son travail quelques années plus tard, mais de gérer les risques en sécurité de l’information au quotidien. Ce changement majeur est imposé par l’approche continue de l’ISO 27001, mais il représente le principal changement par rapport aux méthodes antérieures. L’ISO 27005 est également la première méthode qui impose à la direction  générale d’être parfaitement informée, et lui impose de prendre ses responsabilités en toute connaissance de cause, ce qui clarifie les responsabilités et facilite les arbitrages budgétaires. 

L’ouvrage « Gestion des risques en sécurité de l’information, mise en oeuvre de la norme ISO 27005 », premier livre sur ce sujet,  constitue une aide indispensable à la compréhension et l’application de la méthode ISO 27005. Comme beaucoup de normes, elle est très structurée mais peu didactique. Comment inventorier et valoriser des actifs ? Comment identifier des menaces, des vulnérabilités, des scénarios d’incidents,  des conséquences ? Comment estimer et évaluer des niveaux de risque ? Quels risques doivent être réduits ou transférés ? Comment donner à la direction  générale de quoi faire son arbitrage budgétaire ?

Au travers d’un schéma de toutes les activités décrites dans la norme, le livre détaille chaque étape, avec des exemples et des scénarios d’incidents réels qui reflètent le savoir-faire de l’auteur, Anne Lupfer qui est entrée chez HSC (Hervé Schauer Consultants) avec une expérience de gestion des risques dans l’assurance. Ingénieur diplômée de l’ECE, elle a créé la formation à la gestion des risques  en sécurité chez HSC et a été une des premières à mettre en œuvre  concrètement la méthode ISO 27005 en clientèle. Son expérience sur le terrain et ses échanges avec les  stagiaires a également permis de préparer à la certification ISO 27005 Risk Manager.

Cet ouvrage est destiné à tous les responsables sécurité (RSSI) et leurs équipes, et les personnes impliquées dans la mise en oeuvre ou  l’audit d’un SMSI. C’est également un livre utile aux DSI, responsables  et chefs de projet informatique, et les personnes devant analyser les risques informatiques ou gérer des risques informatiques et en sécurité de l’information dans leur projet. L’ISO 27005 demande à ce que le gestionnaire  de risque en sécurité de l’information s’aligne sur les risques opérationnels  ou industriels. Aussi l’ouvrage est profitable aux gestionnaires de risques désirant approfondir le volet sécurité de l’information. Enfin il sera une aide précieuse à tous ceux qui souhaitent obtenir la certification individuelle « ISO 27005 Risk Manager ».  

Ephesia, un laboratoire sur puce à base de « microfluidique »

Détecter les cellules tumorales isolées dans le sang (on parle alors de cellules tumorales circulantes ou CTC) ou dans les ganglions lymphatiques ou la moelle osseuse (on parle alors de cellules tumorales disséminées ou CTD) peut s’apparenter à rechercher une aiguille dans une botte de foin car quelques cellules (voire même une seule !) peuvent conduire à une métastase, mais elles sont environnées par des millions de cellules normales. Heureusement, ces cellules possèdent certaines caractéristiques, par exemple des protéines à leur surface, qui les différencient des cellules saines environnantes. Elles peuvent ainsi être « attrapées » avec des anticorps spécifiques agissant comme des crochets. Reste à mettre au point un système pour accomplir cette recherche en routine et en toute fiabilité.

Dans le cadre du PIC (Programme Incitatif et Coopératif) sur la maladie micrométastatique à l’Institut Curie, l’équipe de Jean-Louis Viovy (unité « Physicochimie Curie » Institut Curie/CNRS/UPMC) en collaboration avec le Nikon Imaging Centre@Institut Curie-CNRS, Fluigent, une société fondée en novembre 2005 par Jean-Louis Viovy, directeur du Laboratoire Physicochimie de l’Institut Curie et Dominique Stoppa-Lyonnet, chef du Service de génétique oncologique de l’institut, et des cliniciens de l’Institut Curie et de l’Institut Gustave-Roussy, a développé un « tamis à cellules » pour capturer et étudier les cellules tumorales, de façon automatisée et avec une grande spécificité.

Nommé Ephesia, ce « laboratoire sur puce » à base de « microfluidique », tout comme les circuits intégrés en électronique, regroupe sur un support très réduit une multitude de processus automatisés et complexes. « Les laboratoires sur puce sont en plein essor en biologie et en médecine car ils sont plus rapides, plus précis et moins chers que les systèmes existants » ajoute le Pr Jean-Yves Pierga, oncologue médical à l’Institut Curie, professeur à l’Université Paris-Descartes et co-responsable du PIC.

Eviter des actes chirurgicaux lourds

« Dans notre système, le « tamis à cellules » est constitué d’un réseau de colonnes formées de microbilles magnétiques portant des anticorps dirigés contre des protéines de surface des cellules tumorales,  en  l’occurrence la molécule CD19 » explique Jean-Louis Viovy. Cet anticorps capture les lymphocytes B qui peuvent être à l’origine de plusieurs types de lymphomes en cas de mutations anormales dans leur génome. « Les microbilles magnétiques forment des canaux micro fluidiques dont les dimensions sont de l’ordre du micromètre, soit plus fin qu’un cheveu. Quelques microlitres d’échantillon nous suffisent; ils peuvent être prélevés avec une micro-aiguille sous anesthésie locale, ce qui permet aux médecins d’éviter un acte chirurgical plus lourd », précise-t-il.

Ce système a été comparé « en aveugle » aux méthodes conventionnelles sur divers échantillons provenant de patients atteints de leucémie : on a obtenu 100 % de concordance sur le diagnostic, à partir d’un nombre de cellules dix à cent fois plus faible. Une fois capturés par les microbilles, les lymphocytes B peuvent être observés par des microscopes haute résolution pour déterminer à quelle sous catégorie de leucémie ils correspondent et choisir le meilleur traitement.

« Ephesia est plus qu’un détecteur de cellules ; ce laboratoire sur puce permet d’étudier individuellement les cellules isolées de façon plus approfondie qu’auparavant » ajoute Jean-Louis Viovy. En effet, les cellules capturées peuvent être mises en culture pour étudier leur pouvoir de division, leur réponse à un médicament ou leur génome. L’identification des caractéristiques propres à ces cellules permettra de découvrir leurs points faibles vis -à-vis des traitements existants et de développer les nouvelles approches de « médecine personnalisée », dans lesquelles chaque patient est traité par un médicament ciblé sur les caractéristiques moléculaires de sa propre tumeur. Enfin à plus long terme, cette technique devrait permettre de découvrir des cibles encore inconnues, pour élaborer des médicaments nouveaux.

Les chercheurs et médecins de l’Institut Curie travaillent actuellement sur un système de nouvelle génération pour détecter, cette fois-ci, des cellules tumorales dans le sang.
 

Les hiéroglyphes du 3ème millénaire sur un disque de saphir

Créée en 2009 suite à un essaimage du CEA/Léti, la société Arnano détient une licence exclusive pour le disque de saphir synthétique. Cette technologie développée par Alain Rey, Président d’Arnano, et basée sur les procédés de la microélectronique développés depuis plus de 40 ans au CEA/Léti, permet de graver des documents sur des plaques de 1,5 mm d’épaisseur. Grâce à un gravage microscopique, Arnano reproduit les images des documents avec des moyens à haute résolution pour assurer une qualité optimale des textes et des photos sur une surface réduite. Un simple microscope ou tout système optique grossissant suffit ensuite pour lire les documents gravés en caractères de 10 microns de hauteur, soit 2 ou 3 fois moins qu’un cheveu.

« Les technologies numériques rencontrent des difficultés pour un archivage pérenne du fait de la courte durée de vie des supports comme les CD, DVD, bandes magnétiques,… et de l’évolution constante des systèmes informatiques qui rendent rapidement les données illisibles. C’est pourquoi de nombreuses organisations utilisent encore des « supports analogiques » comme les microfiches et microfilms d’une durée de vie de plusieurs dizaines d’années. Extrêmement robuste du fait de son caractère minéral et avec une durée de vie allant jusqu’à 2.000 ans, le saphir vient donc aujourd’hui révolutionner la conservation de documents en offrant un support inaltérable pour traverser les siècles » précise Philippe Fosse, Directeur d’Arnano.

Le disque de saphir offre  en effet une durée de stockage estimé à plus de 2.000 années grâce à la robustesse inégalée des matériaux (saphir et métal réfractaire) et à la technologie utilisée (résistance aux facteurs biologiques, chimiques et physiques, à l’abrasion, au feu et aux inondations ainsi qu’aux rayonnements UV, électromagnétiques…). D’une capacité de stockage allant jusqu’à 39.000 pages au format A4 restituable en 75 dpi sur un disque de 20 cm de diamètre, soit 20 fois plus qu’une microfiche ou l’équivalent d’un CD, il offre une reproduction exacte du document original en très haute définition et un accès aux informations permanent grâce à un stockage des informations sans codage et à une lecture via des moyens optiques simples, indépendants des technologies informatiques. De plus, pouvant facilement être  à stocké dans un coffre fort) sans conditions environnementales particulières (température, humidité, lumière…),  Il stocke des données infalsifiables et non modifiables qui permettent d’apporter une preuve juridique ou de constituer un témoignage historique.

Le disque de saphir répond particulièrement à des applications d’archivage ou de sauvegarde de données définitives et stratégiques, d’images de documents du patrimoine, de plans, de brevets ou dossiers dans des secteurs tels l’industrie (plans, dossiers techniques, brevets…), les bibliothèques (ouvrages anciens), les collectivités (registres, patrimoine culturel et intellectuel), le génie civil (plans de centrales nucléaires, barrages hydrauliques, centres d’enfouissement de déchets…), les musées (images d’oeuvres originales, manuscrits…), la justice (arrêtés,…), la chimie et la pharmacie (dossiers AMM, brevets…) 

« Afin de nous concentrer sur notre métier, nous avons choisi de confier la commercialisation de notre disque de saphir à Everial qui dispose d’une forte expertise du marché et des problématiques d’archivage physique et numérique. Ce partenariat nous permettra de bénéficier d’un formidable vecteur de commercialisation que nous ne pourrions avoir seuls, en tant que start-up. Avec Everial, notre objectif est d’atteindre rapidement une vingtaine de disques commercialisés et de passer ensuite à 100 disques par an pour arriver à une autonomie industrielle », ajoute Alain Rey.

Concrètement, Everial assure la collecte des documents auprès des organisations clientes (numériques, papiers, objets) et la capture des données qu’elle fournit à Arnano. Cette dernière réalise ensuite l’organisation des données, leur gravage sur le disque de saphir et le conditionnement, avant de remettre le disque au client ou à Everial qui en assure, le cas échéant, la conservation dans ses salles haute sécurité. 

Comment contrôler et sécuriser 100 équipements municipaux sans aucun câblage

Afin de contrôler et sécuriser l’accès de ses locaux techniques, de ses salles municipales et de tous ses équipements, la ville du Puy-en-Velay, préfecture de la Haute Loire, était en quête d’une solution complète de verrouillage électronique permettant la sécurisation de l’ensemble des services techniques et le contrôle d’accès des différents bâtiments de la ville avec près de 600 agents employés et comprenant plus de 200 associations de tous types (sportives, culturelles, caritatives, …). Dans un premier temps l’objectif du projet était, d’une part, de pouvoir gérer tous les plannings liés à tous les équipements et espaces municipaux de la ville (salles municipales, espaces publiques, maisons de quartier, …) et, d’autre part, concernant particulièrement le Service des sports, de pouvoir maîtriser la gestion de tous les contrôles d’accès pour les locaux et les équipements sportifs de la collectivité.

« Nous possédions initialement un logiciel de base de gestion du planning et des équipements (logiciel Planitec/Horanet), mais il se trouvait malgré tout, limité dans son développement, explique Didier Galland, responsable du Service Informatique et des Nouvelles Technologies de l’Information et de la Communication de la ville du Puy-en-Velay qui a eu la charge du pilotage du projet et de sa mise en place. Nous avons donc opté pour la mise en place et l’intégration de la solution de Locken qui offrait beaucoup plus de possibilités évolutives, nous permettant ainsi d’élargir nos perspectives de contrôle d’accès, par secteur, par exemple concernant la partie événementielle des animations de la ville (sportives, culturelles, artistiques, …), et la gestion de planning et d’utilisation de tous les équipements utilisés et de l’ensemble des bâtiments correspondants. »

Le dispositif

Sans aucune installation de câblage, quel que soit l’endroit ou l’on se trouve, la solution proposée par la société française Locken permet de recevoir le droit d’accès à la porte que l’on aurait besoin d’ouvrir, grâce au téléchargement de ses droits directement par le biais de son téléphone portable vers sa clé. Le technicien de maintenance souhaitant accéder à des locaux non prévus dans sa tournée, le garde de sécurité répondant à une urgence…, n’ont plus besoin de partir avec tous les trousseaux de clés possibles. Il leur suffit qu’ils demandent les droits d’accès des portes qu’ils souhaitent ouvrir, ces droits envoyés pouvant être des droits à une seule ouverture, à 5 minutes ou à plusieurs années.

La solution de sécurisation sans câblage de Locken est basée sur l’utilisation, en lieu et place des cylindres mécaniques en place, d’un cylindre équipé d’une puce et d’un code électronique encrypté (tous les cylindres installés sont programmés à la pose et enregistrent la trace des 1.100 derniers évènements). Et comme l’énergie est fournie par la clé, le cylindre ne possède pas de batterie ce qui supprime tout besoin de maintenance. Par conception sans variure mécanique, il est incrochetable, inviolable et résiste tant aux décharges électriques et magnétiques qu’à la torsion. La duplication des clés est en outre impossible. La clé de Locken ouvre jusqu’à 3.300 cylindres différents mais sa capacité est illimitée pour les administrateurs du système. Portes blindées, portails, caissons, cadenas, serrures à batteuse, … sont ainsi accessibles via une seule clé, supprimant les trousseaux et les organigrammes complexes et coûteux à gérer.  Alimentée par une pile lithium, la clé permet plus de 5.000 contacts, soit plus d’un an d’autonomie. Grâce à cette batterie, la clé peut en outre communiquer via un ordinateur ou un téléphone mobile avec le serveur du système. En cas de perte de la clé, pas de serrure à changer ni d’intervention coûteuse sur site, il suffit simplement de supprimer les droits d’accès correspondant pour la rendre inutilisable.

La clé Locken Mobile reçoit sous forme de message crypté via un téléphone portable ou un distributeur d’accès, les droits d’accès des portes à ouvrir. Quand la clé est insérée dans le cylindre Locken et à la condition que celle-ci présente le bon droit à la bonne heure, le cylindre se déverrouille. L’opérateur n’a plus alors qu’à tourner sa clé dans le cylindre…. comme au bon vieux temps. Cette information sera enregistrée à la fois dans la clé et dans le cylindre assurant ainsi la sécurité et la traçabilité

A partir de n’importe quel ordinateur connecté à Internet, il suffit d’insérer dans le port USB le Distributeur d’Accès Réseau Infra rouge (DARIR) et de se connecter au serveur du système pour récupérer par infra rouge les droits d’accès de sa clé. Il s’agit d’une interface de programmation à distance des clés Locken Mobile via une connexion réseau ou une connexion Internet. Il est destiné à une actualisation individualisée de la clé en complément des distributeurs d’accès Réseaux qui sont destinés à fournir un point d’actualisation communautaire. Directement géré par l’application LockenConnect connectée à la base de données du logiciel LockenWeb-Control, cet équipement permet ainsi un contrôle centralisé du système déployé sur toute une zone géographique et pour tout type de profil d’utilisateur de clés Locken Mobile.

A la demande de Didier Galland, et afin de parfaire sa solution de contrôle d’accès, Locken a développé et réalisé une interface spécifique complètement adaptée au logiciel de base Agora d’Aventi Technologies utilisé par la ville. Ainsi le système a permis d’appliquer directement la possibilité de récupération permanente et directe, en toute transparence, du planning quotidien des équipements et tous les droits d’accès correspondants pour une reventilation des droits adaptés au quotidien, par heure, par jour, par lieu, …, par équipement et par bâtiment.

Ayant pour objectif d’être opérationnel pour le dernier semestre 2010, avec une planification informatique adaptée, le projet Locken sera effectif en septembre prochain avec l’application sur deux sites pilotes sélectionnés par la ville, pour l’un, concernant une salle municipale (salle de Taulhac), et pour l’autre concernant un complexe sportif (stade Charles Massot), pour atteindre progressivement d’ici fin 2010 plus de 60 installations effectives avec 45 en salles municipales et 20 en équipements sportifs. L’objectif final est d’atteindre plus de 100 installations dans la seule ville du Puy-en-Velay. 

La France est-elle toujours dans la course aux nanos ?

Les nanotechnologies apparaissent de plus en plus comme une véritable source d’innovation sur les marchés industriels. Longtemps cantonnées dans les laboratoires de recherche, les nanotechnologies arrivent aujourd’hui sur les marchés d’applications. Jusqu’à présent, la France a toujours su jouer les premiers rôles sur l’échiquier international dans ce domaine grâce à des laboratoires de recherche de premier rang. Mais aujourd’hui où « transfert technologique » est le maître mot, saura-t-elle prendre ce premier virage décisif dans la course à l’industrialisation des nanotechnologies ?

La France, et plus largement l’Europe, ont su très tôt identifier les potentiels d’innovation associés aux nanotechnologies. A tel point qu’à la fin des années 1990, les investissements publics européens dans le domaine des nanotechnologies étaient plus importants que les financements américains. Depuis, les Etats-Unis ont repris la tête au niveau des investissements publics. Malgré tout, l’Europe se maintient au 2e rang et, au sein de l’Europe, la France occupe une solide seconde place derrière l’Allemagne. Ces efforts soutenus de la France se sont traduits par de belles réussites : leadership mondial dans la production et la valorisation des nanotubes de carbone, création d’un important centre de compétences dans le domaine de la nanoélectronique, et un savoir-faire reconnu en développement de solutions « nano » en sciences de la vie (nouveaux traitements anticancéreux, systèmes de délivrance…).

La France des nanotechnologies, ce sont aujourd’hui près de 220 laboratoires et plus de 4.000 chercheurs impliqués dans de nombreuses infrastructures, allant des pôles de compétitivité (Minalogic) à des plates-formes d’intégration (Nano-Innov) en passant par des centrales technologiques réparties sur l’ensemble du territoire. Par ailleurs, avec 0,8% de ses investissements de R&D dédiés aux nanotechnologies (contre 0,4% pour les Etats-Unis), et un positionnement entre la 4e et la 5e place des pays qui publient le plus, la France fait toujours partie des pays de tête ces 10 dernières années.

Une révolution industrielle se met en place au niveau mondial

Cependant, les règles du jeu sont en train de changer. « Sur les 5 dernières années, le nombre de produits incorporant des nanomatériaux a connu une croissance de près de 400%. Même s’il est vrai qu’on est encore loin des innovations de rupture, la tendance est belle et bien amorcée. Dans cette démarche de développements industriels, la force de la R&D académique seule ne suffit plus. On entre dans une phase de transition où les acteurs leaders de demain sont en train de se créer. Malheureusement, les industriels français et européens sont encore frileux », déclare Vincent Pessey, responsable Pôle Nanotechnologies Alcimed.  En effet, la part des capitaux privés en soutien des financements publics est de l’ordre de 30 % en Europe alors qu’elle est de l’ordre de 55 % aux Etats-Unis.

Deux autres indicateurs soulignent l’écart qui se creuse entre les Etats-Unis et l’Europe : le nombre de brevets déposés et le nombre de sociétés créées dans le domaine des nanotechnologies. La France occupe la 5e place des pays déposant des brevets dans le domaine des nanotechnologies (soit moins de 5 % des brevets déposés). Cette 5e place cache un véritable retard dans la mesure où la France se retrouve loin derrière les Etats-Unis, le Japon et l’Allemagne qui à eux trois représentent plus de 75 % des brevets déposés dans ce domaine. Le constat est identique au niveau du nombre de sociétés créées : moins de 50 en France, plus d’une centaine en Allemagne et plusieurs centaines aux Etats-Unis. Ce constat est inquiétant dans la mesure où ces indicateurs sont une traduction de l’implication des industriels dans le domaine des nanotechnologies. Et dans ce cadre, la France n’est plus un pays de référence.

Une absence de filières industrielles et  un manque de coordination

« Ce retard pris dans les premières étapes du développement industriel pourrait fortement s’accentuer à l’avenir dans la mesure où la France manque aujourd’hui cruellement de filières industrielles dédiées aux  nanotechnologies, capables d’assurer le transfert et la diffusion de ces technologies complexes dans le tissu industriel national. Dans les prochaines années, tout l’enjeu va se situer dans la capacité qu’auront nos PME à s’approprier ces nouvelles technologies », poursuit Vincent Pessey.

Les nanotechnologies restent encore trop souvent dans les laboratoires avec peu de moyens efficaces pour les diffuser. Certes, de grands groupes français sont leaders sur leurs secteurs d’application et ils tirent déjà des bénéfices des nanotechnologies (Michelin, Rhodia, Arkema, Essilor, Saint-Gobain…). Mais le potentiel n’est pas uniquement là. Il se situe essentiellement au niveau des PME qui peuvent voir dans les nanotechnologies un moyen de se différencier et de conserver une compétitivité sur le plan international. Les nanotechnologies restent bien souvent inexploitées parce que les PME ont réellement du mal à identifier les soutiens technologiques nécessaires pour les maîtriser.

Il existe cependant une véritable volonté au niveau français pour continuer à jouer un rôle dans le domaine des nanotechnologies. Les annonces de soutien à cette nouvelle filière se multiplient (Grand Emprunt, SNRI …) . Les premiers retours devraient se faire sentir d’ici 12 à 18 mois. Ces actions sont capitales. Il est en effet important de mettre en place et de favoriser de nouveaux chemins de diffusion. « Au niveau international, la course est lancée. Les pays qui ont choisi de miser sur les nanotechnologies sont de plus en plus nombreux, que se soient les pays leaders historiquement ou bien les acteurs des zones émergentes. Plus proches de nous, des pays comme l’Allemagne ont très tôt misé sur des réseaux de compétences associant laboratoires de R&D, entreprises et PME, tout en favorisant les échanges avec la société civile. Aujourd’hui, la recherche est effectuée à 70 % par les entreprises et de nombreuses PME allemandes commencent à tirer des bénéfices de ces technologies.

« Tout l’enjeu aujourd’hui est de poursuivre ces efforts tout en s’attachant à coordonner les politiques de développement afin de créer de véritables synergies et ainsi éviter que notre politique soit une collection de démarches ponctuelles », conclut Vincent Pessey.
 

Par Alcimed

Des réactions chimiques aujourd’hui inenvisageables seront possibles demain

Quelques molécules organiques sont par nature instables. C’est le cas du cyclobutadiène pour lequel les chimistes théoriciens prédisent une ultra-réactivité surprenante qui se vérifie expérimentalement. Une fois le cyclobutadiène synthétisé, il se combine instantanément avec lui-même (dimérisation) ou avec d’autres molécules proches. Constitué de 4 atomes de carbone et de 4 atomes d’hydrogène, les théories prédisent une structure carrée ou rectangulaire : chaque carbone, positionné à un sommet du carré, est lié à un atome d’hydrogène.

Depuis les années 60, plusieurs équipes de chercheurs ont réussi à stabiliser suffisamment longtemps cette molécule dans des matrices d’argon à très basse température pour mesurer les spectres de vibration. Ensuite, plusieurs stratégies utilisant par exemple des ions métalliques interagissant avec la molécule ont augmenté son temps de vie de quelques millisecondes à plusieurs heures.

Donald J. Cram, prix Nobel de chimie en 1987 (avec J.-M. Lehn et Ch. J. Pedersen), stabilise le cyclobutadiène in-situ dans un conteneur moléculaire où il ne peut ni réagir avec lui-même, ni être en contact avec d’autres molécules réactives. Les spectres de Résonance Magnétique Nucléaire donnant des indications sur la structure sont alors enregistrés. Hélas, le caractère trop désordonné des conteneurs moléculaires empêche la détermination directe de la structure cristallographique du cyclobutadiène par diffraction des rayons.

Des chercheurs de l’équipe « Nanosystèmes Supramoléculaires Adaptatifs » de l’Institut Européen des Membranes (CNRS / Université de Montpellier II / Ecole Nationale Supérieure de Chimie de Montpellier), conduits par Mihail Barboiu  ont choisi l’auto-organisation supramoléculaire pour construire de nouvelles architectures synthétiques cristallines, de structures et de dimensions adaptées au piégeage du cyclobutadiène, ne perturbant pas l’analyse aux rayons X. Les structures carrée et rectangulaire de cette molécule particulièrement instable ont ainsi pour la première fois été révélées par les rayons X.

Grâce à cette méthode, on peut maintenant envisager de stabiliser d’autres molécules très instables en choisissant la matrice adaptée. On pourra alors contrôler la réactivité de ces molécules rendant possibles d’autres réactions chimiques actuellement inenvisageables. 

Une nouvelle méthode améliore la qualité des réparations des rails

Le roulement des roues sur le rail génère des contraintes élevées au niveau de la zone de contact rail-roue, ce qui entraîne inévitablement des altérations du matériau en surface. Des défauts tels que les « squats » ou les empreintes de patinage se rencontrent même sur les réseaux les plus modernes et les mieux entretenus, sachant qu’un réseau présente en moyenne, et par an, un défaut de ce type tous les deux kilomètres. Or la réparation de la section incriminée par couponnage est une procédure coûteuse (une réparation ou un remplacement par couponnage peut atteindre plusieurs milliers d’euros) et pas forcément souhaitable étant donné qu’elle introduit deux nouvelles discontinuités sur le rail sous la forme de deux soudures aluminothermiques qui réduisent à néant les avantages d’un rail laminé à chaud en grande longueur (pouvant mesurer jusqu’à 120 m) en terme de régularité de roulement. L’alternative généralement utilisée pour la réparation de ce genre de défauts est le soudage à l’arc. Mais cette technique pourtant très répandue dans de nombreuses industries présente un certain nombre d’inconvénients : la qualité de la réalisation dépend fortement du savoir-faire du soudeur, elle prend beaucoup de temps et génère souvent des défauts internes tels que des porosités qui peuvent s’aggraver avec la fatigue du matériau, voire provoquer la rupture du rail s’ils ne sont pas détectés à temps.

Une réparation en 4 étapes

La société Corus Rail a développé et breveté un nouveau procédé semi-automatique et est en train de fabriquer un équipement pilote qui permettra de réaliser des démonstrations sur voie. D’ores er déjà, plusieurs réseaux européens, dont la France et le Royaume-Uni, se sont montrés intéressés compte tenu de la rentabilité et de la fiabilité de cette nouvelle procédure qui repose sur les éléments techniques suivants :

  • le passage d’une température de préchauffage traditionnelle de 350 °C à seulement 80 °C permet une exécution plus rapide des réparations, une réduction de la profondeur de la zone thermiquement affectée et produit une microstructure beaucoup plus homogène et reproductible ;
  • la standardisation de la procédure d’élimination de la zone défectueuse par un fraisage automatisé présente l’avantage de la reproductibilité et ne dépend plus de l’appréciation parfois subjective d’un opérateur ;
  • le recours à un procédé de soudage à l’arc semi-automatique et programmé avec fil fourré permet de contrôler les températures de soudage et de calculer à l’avance la durée de l’opération.

La surface de roulement soudée avec cette nouvelle technique est de meilleure qualité car la zone réparée est très résistante à la fatigue et présente une résistance à l’usure identique à celle de rails de nuance R260 standard du fait de la régularité de sa dureté et de sa microstructure sur l’ensemble de la zone soudée.

La nouvelle technique de Corus comporte 4 étapes :

  • 1ère étape : la partie défectueuse est d’abord extraite à l’aide d’une fraiseuse trois axes mobile qui se fixe sur le côté du rail. Cette technique permet une découpe régulière qui constitue en soi une amélioration importante par rapport à la découpe à la meuleuse manuelle ou au chalumeau qui l’une comme l’autre produisent des cavités et des finitions de surface irrégulières qui ne permettent pas un soudage automatique programmé ;
     
  • 2ème étape : la zone adjacente et la cavité sont préchauffées à l’aide d’un brûleur traditionnel. Pour les rails de nuance 260, la température de préchauffage requise se situe entre 60 et 80 °C. Cette température permet d’obtenir une microstructure maîtrisée de la zone affectée thermiquement (ZAT) : l’utilisation d’une stratégie de rechargement avec des mouvements rectangulaires pour l’application des cordons de soudure garantit que la microstructure de la ZAT sera constituée d’une perlite fine ne comportant aucune trace de martensite qui fragilise le matériau. Si cette température est adaptée à la grande majorité des aciers à rail à forte teneur en carbone utilisés aujourd’hui, elle devra néanmoins être modulée pour les aciers présentant des caractéristiques de transformation différentes, par exemple les aciers bainitiques sans carbure à faible teneur en carbone ;
     
  • 3ème étape : soudage à l’arc utilisant une soudeuse semi-automatique, un consommable de soudage TN3-0 homologué par Network Rail (Royaume-Uni) et une série de paramètres de soudage standards. Le positionnement de la dernière couche (supérieure) est une opération très importante pour éviter de créer une nouvelle zone affectée thermiquement. La majeure partie de cette couche sacrificielle est ensuite rectifiée à la meule ;
     
  • 4ème étape : rétablissement du  profil transversal et longitudinal du rail en rectifiant la zone de réparation à l’aide d’une meuleuse de rails traditionnelle.

Des millions de cycles sans défaillance

Une étude comparative de la technique SAEE  (soudage à l’arc avec électrode enrobée) existante et du nouveau procédé a été réalisée en effectuant, dans les deux cas, une série de relevés de profils temps / températures à l’aide de thermocouples intégrés dans le rail. Les résultats de cette étude permettent de tirer différentes conclusions importantes confirmant la robustesse du nouveau procédé sur le plan métallurgique :

  • malgré la faiblesse des températures de préchauffage utilisées (seulement 80 °C), la température de la ZAT après l’application de chaque cordon de soudure est supérieure à 200°C, ce qui évite toute transformation martensitique (la température d’apparition de la martensite est de 160 °C pour les rails de nuance 260) ;
     
  • la nouvelle technique garantit des vitesses de refroidissement à peu près identiques à celles observées avec le procédé SAEE traditionnel pour toutes les passes de dépôt à l’exception de la première. La vitesse de refroidissement la plus élevée (5,2 °C/s après l’application du premier cordon de soudure) est également égale à la moitié de la vitesse critique de transformation martensitique de la nuance 260 ;
     
  • une interface de soudure sans fissures est garantie. Elle présente une microstructure à 100 % perlitique et exempte de toute trace de martensite ou de bainite ;
     
  • un profil de dureté indique que la résistance à l’usure du dépôt de soudure bainitique sera comparable à celle du rail de nuance 260 initial et évitera tout creusement longitudinal du rail ;
     
  • la soudure a été soumise à un test de fatigue à la flexion par application d’une contrainte 3 fois supérieure à celles produites en conditions d’exploitation. Elle a ainsi supporté 5 millions de cycles sans aucune défaillance, puis 4,3 millions de cycles supplémentaires par application cyclique d’une contrainte 8 fois supérieures à celles supportées en conditions d’exploitation.

Par Marc Chabreuil

 

Le Canton du Jura sécurise sa flotte de PC portables

Canton de Suisse francophone réunissant plus de 70.000 habitants et ayant le statut de République au sein de la Confédération Suisse, le Canton du Jura qui doit prendre en charge les intérêts de la population sur son territoire, est donc conduit à travailler sur des données sensibles qu’il est indispensable de protéger. Il est le garant de l’intégrité des informations dont il dispose (informations administratives, données sur les administrés, vie privée..).

Falsification de documents administratifs, récupération d’informations confidentielles ou simple nuisance, les motifs d’attaque sont nombreux et peuvent avoir des incidences importantes pour le Canton du Jura.

Dans ce contexte, dès 2007, la DSI du Canton a souhaité repenser et moderniser sa sécurité informatique. Après avoir défini un certain nombre de pistes de travail, elle a positionné la sécurité des postes de travail comme stratégique et incontournable. Justifiant d’un parc de PC étendu de plus de 1.800 postes, fixes et mobiles, il est indispensable de protéger les données qu’ils contiennent, notamment celles des PC portables, plus vulnérables lorsqu’ils se connectent à des réseaux publics peu protégés.

Après avoir étudié les différentes solutions du marché, la solution StormShield de l’éditeur SkyRecon a été sélectionnée en juillet 2009. Une maquette est alors mise en place, puis un plan de déploiement progressif. Le périmètre du projet porte dans un premier temps sur le parc de PC portables et quelques postes de travail fixes, l’objectif étant de sécuriser les PC portables en dehors des réseaux du Canton.

Empêcher toutes intrusions

Le choix de StormShield s’explique par sa capacité à répondre aux problématiques suivantes :

  • Possibilité d’interdire et de bloquer l’installation de certains logiciels : favorisant les intrusions et le détournement d’informations critiques d’une organisation, l’installation et l’utilisation d’applications de façon incontrôlée peuvent mettre en péril la sécurité du système d’information. Les PC portables doivent donc rester dans leur configuration d’origine. StormShield permet à l’administrateur de verrouiller le système de manière centralisée. On notera également que, grâce à cette solution logicielle, la DSI du Canton peut avoir une vue globale des logiciels installés sur les postes et accéder à des alertes en temps réel ;
     
  • Protection réseau : l’outil permet aux utilisateurs de se prémunir des problématiques inhérentes à l’utilisation de réseaux externes filaires et Wi-Fi, à savoir le vol de données. 
     
  • De plus, la DSI souhaite, au travers de StormShield, imposer à ses collaborateurs l’utilisation du VPN (Virtual Private Network ou réseau privé virtuel) de l’entreprise lors de leurs connexions externes, notamment en Wi-Fi.

Que ce soit au niveau de l’administrateur ou au niveau des utilisateurs finaux, l’utilisation de StormShield est intuitive. Il suffit à l’administrateur de lancer un exécutable, de définir ses règles de sécurité, puis de généraliser le déploiement. L’utilisateur reçoit alors un lien sur lequel il lui suffit de cliquer pour activer StormShield. Par ailleurs, en cas de besoin, la DSI  peut rendre la main à l’utilisateur. Ainsi, un collaborateur peut désactiver, sur demande, l’outil pour un temps donné afin d’exécuter un programme externe. La DSI lui envoie alors un mot de passe qu’il utilise pour désactiver temporairement StormShield. 

Au travers d’un tel dispositif, le Canton du Jura peut donc se prémunir des différents risques liés à l’usage des PC portables des collaborateurs en dehors du réseau du Canton. Les informations sensibles embarquées sur les PC sont protégées sans freiner l’accès des utilisateurs aux applications et aux données professionnelles qu’ils contiennent et donc sans entraver leur productivité.

Bruno Kerouanton, Chef du groupe Sécurité du Canton du Jura : « Nous sommes très satisfaits de la solution StormShield qui est une brique stratégique de notre politique de sécurité. Après l’avoir déployée avec succès sur nos 300 postes mobiles, nous envisageons de généraliser l’usage de la solution sur les postes fixes et donc d’utiliser les nombreuses autres fonctionnalités intégrées en standard dans l’application. »
 

Par Marc Chabreuil