Caméra thermique de surveillance FLIR Série PT

L’utilisateur peut choisir une version dotée d’un microbolomètre non refroidi, à l’oxyde de vanadium, qui produit d’excellentes images de 640 × 480 pixels. Les utilisateurs qui n’ont pas besoin de cette grande qualité d’image peuvent choisir une version avec 320 × 240 pixels. Il existe aussi des modèles avec détecteur de 160 × 120 pixels. Avec plus de pixels, l’utilisateur peut voir plus de détails et détecter un plus grand nombre d’objets plus petits. Grâce à leur logiciel perfectionné, les caméras produisent une excellente image sans nécessiter de réglages de la part de l’utilisateur. Les images thermiques sont de grande qualité quelles que soient les conditions nocturnes ou diurnes.

La série PT comporte un mécanisme de précision pour son orientation selon deux axes. Il permet à l’utilisateur de tourner la caméra sur 360° en continu, et de l’incliner de +90° à –90°. Cela améliore considérablement la perception de la situation. Le système d’orientation possède 128 positions prédéfinies. C’est l’idéal si vous voulez scruter une zone de manière continue.

La série PT peut être raccordée à un système radar par un intégrateur. Si le radar détecte un objet, elle s’oriente automatiquement dans la direction indiquée et produit une image permettant de comprendre instantanément la signification de l’écho radar.

Toutes les versions sont équipées d’une caméra visible / haute sensibilité à longue portée. Les sorties vidéo des caméras thermique et visible / haute sensibilité sont disponibles simultanément. La caméra pour lumière visible possède un zoom optique 36×.

La série PT fournit des images très contrastées, grâce à une optimisation effectuée par le logiciel de traitement des images vidéo. La fonction Digital Detail Enhancement produit des images thermiques claires et bien contrastées quelles que soient les conditions atmosphériques.

Dotée d’un objectif de 100 mm, la PT-606 est conçue pour des applications de sécurité et de surveillance à moyenne portée. Elle possède un champ de vision de 6°. Elle vous permet de détecter une cible de taille humaine à plus de 2.4 km.

Dotée d’une optique « athermique », la série PT est capable de conserver la focalisation quelle que soit la température ambiante. L’utilisateur n’a besoin de faire aucun réglage.

La série PT est extrêmement robuste. Ses organes sont bien protégés contre l’eau et la poussière, avec un indice de protection IP66.

Les modules interchangeables de la caméra permettent un remplacement rapide de ses capteurs et de ses optiques, ou sa transformation en un modèle supérieur. Vous n’avez pas besoin de renvoyer votre caméra à l’usine pour améliorer sa qualité d’image ou sa portée. Vous pouvez le faire facilement vous-même, sur le terrain.

La série PT peut être intégrée à tout réseau TCP/IP existant, et être commandée par ordinateur. Aucun câble supplémentaire n’est nécessaire. Dans cette configuration, vous pouvez surveiller toute l’activité par le réseau, même à des milliers de kilomètres de distance.

Il suffit de connecter la série PT à un panneau de commande à distance, via le connecteur RS-232ou RS-422 Les commandes Pelco D ou Bosch sont utilisées pour les fonctions courantes. Un câble vidéo peut lui raccorder n’importe quel écran multifonction acceptant le format vidéo composite.

Il existe plusieurs canaux pour le flux de vidéo numérique, aux formats H.264, MPEG-4 et M-JPEG. Il est possible d’obtenir simultanément une sortie vidéo composite et numérique.

Chaque caméra série PT est livrée avec la version monocapteur du logiciel Sensor Manager de FLIR. Ce logiciel intuitif permet aux utilisateurs de gérer et de commander une caméra série PT dans un réseau TCP/IP.

Demande d’informations

Achetez une FLIR T640 ou T620 et bénéficiez d’un cadeau

 

Choisissez un des articles suivants :
 
FLIR i7 : compacte, robuste et légère
Pour vos inspections thermiques qui ne nécessitent pas les performances de la FLIR  T640 / FLIR T620
Gardez-la toujours dans votre boîte à outils
Prêtez la à un collègue pour les inspections rapides
 
Deux batteries supplémentaires chargeur inclus
Jusqu’à 5 h d’autonomie en plus pour vos inspections sur le terrain
Optimisez la durée de vie de vos batteries en réduisant leurs cycles de charge
 
iPad 3 (32 Go, portable, noir)
Transférez les images de votre FLIR T640 / FLIR T620 vers votre iPad, sans fil
Analysez les images thermiques directement sur votre iPad
Générez des rapports complets
Partagez et transférez les informations avec vos collègues, vos clients par email
Obtenez un avis, un conseil complémentaire
 
Validité
Cette offre est valable pour toutes les caméras thermiques FLIR T640 / FLIR T620 enregistrées entre le 1 janvier 2013 et le 30 juin 2013.
Cette offre est valable uniquement dans les pays de l’UE.
 
Comment recevoir l’article choisi ?
Enregistrez votre FLIR T640 / FLIR T620 dans le cadre du programme de garantie étendue. À réception de votre enregistrement, nous vous envoyons votre cadeau.
 
Où effectuer l’enregistrement ?
Enregistrez votre FLIR T640 / FLIR T620 sur www.flir.com
 
FLIR T640 / FLIR T620
Les caméras FLIR série T600 fournissent des images de qualité supérieure de 640 × 480 pixels, sur lesquelles les plus petits détails sont visibles. Elles sont extrêmement flexibles et répondent
à tous les besoins. Selon le modèle, elles sont dotées de fonctionnalités importantes telles que l’annotation sur l’écran et le Wi-Fi. La FLIR T640 comporte aussi la MSX (imagerie dynamique
multispectrale). Cette fonction novatrice fournit de très belles images thermiques, extrêmement détaillées.
 

L’imagerie thermique et le London Eye

Le London Eye se dresse sur la rive sud de la Tamise, près du pont de Westminster. Pendant 30 minutes et grâce à cette roue géante de 135 mètres, jusqu’à 800 visiteurs jouissent simultanément d’une vue exceptionnelle sur Londres.

 

Aussi fréquenté que l’une des sept merveilles du monde

Le London Eye a reçu son 30 millionième passager le jeudi 5 juin 2008. Ce chiffre le place parmi certaines des attractions les plus célèbres du monde, avec une fréquentation comparable à celle d’une des sept merveilles du monde. Il a remporté 75 récompenses dans le domaine du design, de l’ingénierie, du service à la clientèle et des services touristiques.

 

 

La sécurité est une priorité

Depuis l’ouverture du London Eye et déjà pendant sa construction, les mesures de sécurité sont extrêmement sévères. Son unique propriétaire, le groupe Merlin Entertainments, possède 51 attractions dans 12 pays. Aujourd’hui comme hier, il prend la sécurité très au sérieux.

 

 

Un site sûr de nuit comme de jour

«Notre travail est de garantir la sécurité du London Eye, de jour comme de nuit», déclare M. Eric Dench, chef de la sécurité. «Si quelque chose d’inhabituel se produit, nous voulons le savoir immédiatement. L’équipe de sécurité veille sur le site en permanence. Dans le local de surveillance, elle observe les images provenant de plusieurs caméras installées sur le périmètre de l’attraction. Nous disposons aussi d’un système d’analyse vidéo.»

 

 

L’imagerie thermique renforce le réseau de sécurité

«Bien que parfois invisibles du public, les mesures de sécurité sont toujours extrêmement sévères. Mais nous sommes constamment à la recherche de nouveaux moyens plus perfectionnés de renforcer encore notre réseau de sécurité» précise M. Dench. «Pour nous, les caméras thermiques sont aujourd’hui un nouvel outil.»

 

Les caméras thermiques produisent des images détaillées dans l’obscurité totale. Elles ne nécessitent aucune source de lumière pour fonctionner. Elles opèrent de nuit, mais aussi parfaitement dans la journée. Comme elles voient à travers la brume, la pluie, la fumée et dans de nombreuses autres circonstances défavorables, elles nous permettent de surveiller le site en continu, quelles que soient les conditions environnementales.

 

Le cœur des caméras thermiques installées au London Eye est le modèle Photon de FLIR Systems. Doté d’un détecteur à l’oxyde de vanadium de 320 x 240 pixels, il produit une belle image thermique sur laquelle les plus petits détails sont visibles. De plus, ce détecteur étant non refroidi, le Photon se passe de maintenance. C’est un avantage important lorsque les caméras sont installées dans des zones difficiles à atteindre.

 

 

Coopération étroite entre l’imagerie thermique et l’analyse vidéo

Les images produites par les caméras thermiques ne sont pas uniquement observées par l’équipe de sécurité. Pour éliminer les erreurs humaines, elles sont combinées à l’analyse vidéo. Pour détecter les intrusions de manière fiable, un système doit distinguer l’activité habituelle des évènements inhabituels requérant l’appréciation des opérateurs. C’est le logiciel installé par Ipsotec qui effectue ce travail sur les images thermiques fournies par FLIR Systems.

 

«Grâce à l’imagerie thermique, le London Eye a encore gagné en sécurité. Les visiteurs de cette grande attraction peuvent être certains que tout est en place pour leur apporter un moment exceptionnel, en toute sécurité» conclut M. Dench.

L’UE enregistre désormais les importations solaires en provenance de Chine

Bruxelles, le 05 mars 2013 – La Commission européenne lance la procédure d’enregistrement sur les importations de produits solaires en provenance de Chine dans le cadre d’éventuels droits anti-dumping et droits compensateurs. Les importateurs de panneaux solaires, de cellules solaires et de wafers solaires devront désormais indiquer à la douane si les produits ont été importés de Chine ou s’ils ont principalement été produits en Chine. Des droits de douane peuvent être exigés de l’importateur sur de tels produits importés avec effet rétroactif.

Les enquêtes anti-dumping et antisubventions actuellement mises en œuvre par Bruxelles sont le fruit d’une plainte commerciale déposée par les fabricants européens de produits solaires, représentés par EU ProSun. Depuis septembre 2012, la Commission européenne enquête sur les fabricants chinois de produits solaires et rendra une décision préliminaire sur les mesures anti-dumping au début du mois de juin. Si les droits de douane sont effectivement introduits, ceux-ci peuvent être exigés avec effet rétroactif sur 90 jours, donc à partir de mars 2013.

« Le dumping est la source de tous les maux dans le secteur solaire en Europe », explique Milan Nitzschke, président de EU ProSun. « La violation quotidienne du droit commercial entraîne la suppression de milliers d’emplois dans l’industrie en Europe. Si nous laissons la Chine se construire un monopole de cette manière dans le secteur solaire, les répercussions ne seraient pas seulement fatales pour l’industrie européenne du solaire, mais aussi pour les fournisseurs, les fabricants de matériaux et pour de milliers d’installateurs. Car au final, le monopole ne conduit pas à une baisse des prix mais au contraire à une hausse de ceux-ci. »

Depuis 2012, les Etats-Unis imposent des droits anti-dumping sur les produits solaires en provenance de la Chine. Parce que la rétroactivité a été également appliquée outre-Atlantique, cela a conduit immédiatement à une réduction des importations de produits, reconnus comme ayant recours à des pratiques de dumping, en provenance de la Chine depuis mars 2012. Malgré tout, le marché du solaire américain a connu une croissance en 2012, le nombre de nouvelles installations a massivement augmenté et les prix moyens de vente ont baissé suite aux progrès techniques. 

« Il s’agit là d’un résultat positif pour l’industrie et pour les consommateurs aux Etats-Unis », a déclaré Milan Nitzschke. Toutes les allégations des acteurs chinois supposant que l’introduction de droits anti-dumping conduirait à des suppressions d’emplois ont ainsi pu être écartées. Milan  Nitzschke : « Le nombre d’emplois dans le secteur solaire aux Etats-Unis a augmenté depuis l’introduction de ces droits. La concurrence loyale est en tout cas préférable à l’économie planifiée de l’Etat. »

Publié par Iris Trahin

 

La mission d’EU ProSun

EU ProSun est une initiative commune d’entreprises solaires européennes. Sa mission consiste à promouvoir la production d’énergie durable en utilisant la technologie solaire. Afin de limiter considérablement les émissions de CO2, l’UE a défini des objectifs climatiques précis pour 2020 qui constituera une étape importante dans l’abandon des technologies à risque, telles que l’énergie nucléaire. EU ProSun estime que les systèmes d’énergie photovoltaïque peuvent devenir un pilier essentiel de la révolution énergétique en Europe.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Découvrez les formations Techniques de l’Ingénieur :

La transition énergétique ne doit pas oublier les plus pauvres

1,5 milliards de personnes n’ont pas accès à l’électricité, principalement en Asie et Afrique. Pour bien comprendre la situation, quelques chiffres sont à rappeler. « La capacité installée de toute l’Afrique, aujourd’hui, pour un milliard d’habitant, équivaut à celle de l’Allemagne pour 82 millions d’habitants ; la consommation annuelle d’électricité du continent africain est à peine supérieure pour tout un continent à celle de la France », rappelle Delphine Batho, Ministre de l’Ecologie, du Développement durable et de l’Energie. De plus, les inégalités sur le territoire sont grandes. « 43 % de l’électricité qui est produite sur le continent africain l’est par le seul pays de l’Afrique du Sud », précise-t-elle.

Histoire d’accroître encore un peu plus les inégalités, le coût de production de l’électricité y est près de deux fois supérieure au coût européen, du fait du recours au thermique pétrolier et à de nombreux groupes électrogènes de substitution. Cette production est dommageable pour le développement économique du continent et l’équilibre environnemental. La baisse des coûts des énergies renouvelables en Europe pourrait être l’occasion de développer les pays en développement, notamment à travers des transferts de technologies.

L’électricité, un rôle à part

L’électricité joue un rôle à part dans le développement. C’est un facteur de progrès, car elle constitue une rupture qui change en profondeur les modes de vie. Elle touche à tous les secteurs du développement : développement économique, accès à l’eau, à l’information et à l’éducation. Elle permet également la conservation des aliments et engendre de grands progrès sanitaires.

Il suffit de très peu d’électricité pour faire la différence. En effet, il n’y a pas de proportionnalité entre la capacité d’électricité dont on dispose et le développement. « Il y a un décollage très important des implicateurs de développement dès qu’on dispose d’un petit bout d’électricité », affirme Jean-Pierre Cerdan, secrétaire général d’Electriciens sans frontières. « L’énergie constitue une condition fondamentale du développement social et économique. Sans énergie, pas de lumière dans les maisons, les centres de santé, dans les écoles », ajoute Hervé Gouyet.

Il existe plusieurs modèles de développement de l’électricité. Les schémas traditionnels qui reposent sur de grandes centrales et infrastructures ne répondent pas au problème d’accès des villages isolés africains ou asiatiques à la « fée électricité »1. Leur développement ne peut être assuré que par des énergies renouvelables décentralisées.

1La fée électricité est le titre d’un documentaire de 52 min réalisé par Pascal Signolet. Il a suivi les équipes d’Electriciens sans frontières dans un petit village isolé du nord du Laos et s’est intéressé aux changements sociaux apportés par l’électricité dans le village. C’est également le nom d’une peinture de Raoul Dufy datant de 1937.

L’électricité amène la sécurité

Sans électricité, de grands problèmes d’insécurité se font sentir. Les femmes doivent accoucher à la bougie, les viols sont monnaie courante. Le cas d’Haïti et des nombreux camps de réfugiés qui ont suivi le séisme meurtrier ont été très révélateurs. « Dès qu’on met de la lumière, il n’y a plus de viols, il n’y a plus d’assassinats », révèle Jean-Pierre Cerdan. À la place, « une vie sociale peut de nouveau s’organiser », précise-t-il. La lumière est d’autant plus importante que les camps de réfugiés peuvent s’installer dans la durée. En Haïti, au moins 300 000 personnes vivent encore dans des camps montés en janvier 2010…

Pour noircir encore le tableau, les scénarios des Nations Unies prévoient sur un accroissement continu de la population des bidonvilles d’ici 2030. « L’intégration des populations va moins vite que l’extension des bidonvilles », note Pierre Radanne, expert des politiques énergétiques de lutte face au changement climatique. Dès lors, la démographie doit être contrôlée. « L’éducation des filles et l’accès à l’électricité est la condition de la maîtrise de la démographie », affirme-t-il.

Pour avoir un accès universel à l’énergie en 2030, la Banque Mondiale estime qu’il faudrait des investissements de 48 milliards par an jusqu’en 2030. Cela ne représente que 3 % des investissements liés à l’énergie. Pourtant, aujourd’hui, tous les investissements confondus s’élèvent à 9 milliards par an…

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Comprendre les certificats d’économie d’énergie

Pour imposer les économies d’énergie, les pouvoirs publics ont imposé à certaines entreprises (énergéticiens, vendeurs de carburant, réseaux de chaleur, etc.) de mener des actions en faveur de l’efficacité énergétique.

Au sens légal, ces entreprises sont des « obligés ». Leurs objectifs sont calculés en fonction de leur volume de vente : plus ils vendent d’énergie, plus ils doivent générer d’économies d’énergie. C’est ainsi que chacun d’entre eux s’est vu définir un objectif d’économies d’énergie, à matérialiser sous forme de Certificats d’Économie d’Énergie (CEE).

Les entreprises disposent de 3 ans pour atteindre leurs objectifs, sous peine de lourdes pénalités. Pour l’ensemble des entreprises, cela représenterait plus de 6 milliards d’euros sur 3 ans en cas de non respect des objectifs.

Pour ne pas payer cette pénalité libératoire les entreprises peuvent, soit racheter des certificats sur le marché, soit générer leurs propres certificats en réalisant des actions de réduction de consommation d’énergie. Celles-ci peuvent se faire auprès de leurs clients ou, plus généralement, auprès de tous les consommateurs d’énergie.

Un dispositif qui s’affirme

Sur la première de période, de 2006 à 2009, un objectif de 54 TWh Cumac (TWhc) avait été fixé. Il a été dépassé de 120%. S’en est suivi une période de transition et la seconde période a commencé en 2011. Elle se finira fin 2013. L’objectif était de 345 TWhc. Fin février 2013, ces objectifs sont déjà atteints.

En France, la décision gouvernementale concernant les objectifs de la troisième période est attendue dans les prochaines semaines. Pour amplifier la dynamique, l’objectif devrait être nettement renforcé. 

Depuis le vote de la Directive Européenne sur l’Efficacité Énergétique en octobre 2012, les pays membres ont l’obligation de mettre en place des systèmes analogues au dispositif des CEE. Ceux-ci doivent favoriser les économies d’énergie en vue d’atteindre les objectifs européens de réduction de la consommation énergétique de 20% d’ici 2020 par rapport aux niveaux de 1990.

La France ayant mis en place les CEE il y a déjà plus de 7 ans, elle pourrait jouer, pour une fois, un rôle moteur dans le développement de dispositifs similaires à l’étranger.

Le dispositif fonctionne-t-il réellement ?

D’après un sondage TNS-SOFRES sur les bénéficiaires de la prime éco-énergie d’Auchan (donnant droit à des CEE à Petrovex du Groupe Auchan), le montant moyen de la prime accordée aux clients est de 424 €. Elle est consacrée avant tout aux travaux de chauffage (68%) et d’isolation de combles et de toitures (27%).

Pour 62% des bénéficiaires, l’aide financière d’Auchan a été le seul apport financier. 22% ont, en plus, eu recours à un crédit d’impôt développement durable et 15% à un éco prêt. 38% des personnes interrogées déclarent effectivement avoir réalisé des économies d’énergies. Pour 61% des sondés, il est toutefois trop tôt pour se prononcer. Enfin, 1% des sondés estime ne pas avoir fait d’économies.

Le dispositif des CEE est soumis à de nombreuses critiques dans le cadre du débat national sur la transition énergétique. Elles portent sur son manque de transparence, les lourdeurs administratives et l’absence de vérification de son efficacité.

Les économies d’énergies sont calculées de façon théorique, aucune mesure réelle n’est enregistrée suite aux travaux effectués.

Si les CEE permettent une aide pour de menus travaux, ils ne pourront pas, à eux seuls, financer en l’état la rénovation énergétique de logements entiers. Une rénovation globale coûterait en moyenne entre 20 et 30 000 €. Les acteurs de l’énergie invitent donc à faire une évaluation contradictoire de ces CEE.

 

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Caméras thermiques portables pour la lutte contre les incendies.

 

Les pompiers ont énormément à gagner avec les caméras thermiques. Non seulement elles produisent d’excellentes images dans l’obscurité complète, mais elles permettent de voir au travers de la fumée. Cela aide les pompiers à trouver les victimes dans les locaux enfumés. Une caméra thermique les aide à trouver leur chemin dans les lieux qui s’emplissent de fumée, et aussi dans les zones où le feu est éteint, mais où la fumée n’est pas encore dissipée.

Grâce à la fonction de mesure de la température, ils peuvent savoir s’il y a le feu derrière un mur. Cette information leur permet d’éviter les dangereuses explosions de fumée.

Une caméra thermique indique aussi les zones incendiées encore brûlantes. Elles doivent être arrosées encore pour éviter une reprise de l’incendie.

Une caméra thermique peut contribuer à sauver la vie des pompiers et des personnes prises dans l’incendie. Elle peut aussi être utilisée dans les missions de sauvetage et d’importance vitale, dans lesquelles les pompiers sont souvent impliqués.

FLIR série K FLIR commercialise plus de caméras thermiques que tout autre fabricant. Grâce aux économies d’échelle, FLIR Systems peut vendre la FLIR série K à un prix extrêmement avantageux. Une caméra thermique FLIR série K peut équiper chaque camion de pompier. La série K est conçue pour des conditions d’utilisation difficiles. Elle résiste à une chute de 2 mètres sur un sol en béton, elle est étanche à l’eau (indice de protection IP67) et fonctionne jusqu’à +85 °C.

Plusieurs versions disponibles Toutes les versions de la FLIR série K comportent un détecteur microbolomètre non refroidi, ne nécessitant aucune maintenance. La FLIR K50 produit des images de 320 × 240 pixels. Si cette résolution n’est pas nécessaire, l’utilisateur peut choisir la FLIR K40 dont les images thermiques comptent 240 x 180 pixels. Les deux versions possèdent un grand et lumineux écran de 4 pouces. Différents modes de couleur font de la FLIR série K l’instrument idéal pour toutes les missions des pompiers. Facile d’emploi, même avec des gants. Une interface simple et intuitive permet de se concentrer sur la mission. La FLIR série K est commandée par seulement trois gros boutons sur sa face supérieure. C’est l’idéal pour les pompiers qui portent des gants. Des images thermiques peuvent être enregistrées dans la FLIR série K, et ultérieurement utilisées dans des rapports simples décrivant ce qu’il s’est passé.

Demande d’informations

Transport : une nouvelle norme européenne pour lutter contre les émissions de gaz à effets de serre

Elaborée par et pour les professionnels, la norme NF EN 16258 « Méthodologie pour la calcul et la déclaration de la consommation d’énergie et des émissions de gaz à effet de serre (GES) et des prestations de transport (passagers et fret) » – vient en appui à la réglementation nationale, qui entrera  en vigueur au cours de l’année 2013 et contribue à atteindre les objectifs fixés par l’Union Européenne. 

Pour quels acteurs du transport ?

Pour transporter des personnes ou des marchandises, tous les professionnels sont concernés. Train, RER, voiture, avion, camion, bateau, péniche… tous les modes  de transport consomment de l’énergie et émettent des gaz à effet de serre. Pour aider ces acteurs du transport à calculer et à agir sur leur consommation en énergie,  leur impact environnemental et informer leurs clients, cette nouvelle norme fournit une méthode européenne commune de reporting et de calcul, applicable à toutes les prestations.

Une norme qui s’inscrit dans un engagement européen global

L’Union Européenne a pris des engagements en faveur de la lutte contre le changement climatique. Les pays membres ont des objectifs ambitieux à atteindre d’ici 2020 : réduction de 20% des émissions de gaz à effet de serre, amélioration de 20% de l’efficacité énergétique et part de 20% d’énergies renouvelables dans la consommation d’énergie de l’UE. La France a pris aussi certaines mesures dont la réduction de 20% des émissions de GES* du secteur des transports d’ici 2020. 

La norme européenne NF EN 16258, qui demeure d’application volontaire, aidera les professionnels du transport à respecter l’obligation introduite dans l’article L. 1431-3 du code des transports, tout en l’adaptant à ses exigences. Une nouvelle réglementation, applicable dès le 1er octobre 2013, oblige les transporteurs à informer leurs clients sur la quantité de dioxyde de carbone (CO2) émise à l’occasion d’une prestation de transport de personnes, de marchandises ou de déménagement.

Accéder à la norme NF EN 16258

Les grands acteurs français qui se sont impliqués pour élaborer la norme 

ADEME, Bolloré Logistics, CERTU, CFT, Comité des armateurs fluviaux (CAF), Comité National Routier (CNR), DGAC, DGITM, Fédération Nationale des Transports Routiers (FNTR), Gefco, Géodis, IFSTTAR, Stef, SNCF, RATP, TLF, UPS, Veolia Transdev, etc.

 

Qu’est-ce qu’une norme ?

Etablie par un organisme reconnu, une norme est un document de référence qui fournit des caractéristiques et des règles pour les activités ou leurs résultats. Consensus entre l’ensemble des parties prenantes d’un secteur, elle est d’application volontaire dans 98% des cas. Les normes permettent d’harmoniser les pratiques et de définir un niveau de qualité et de sécurité, notamment des produits ou services.

 

 

 

 
 
 
 
 
 
 
 
 
 

Publié par Iris Trahin  

 
 
 

Dashlane : pourquoi l’affaire d’Evernote n’est pas un banal piratage de plus

Evernote n’est pas un cas isolé. Pour mémoire, les sites du New York Times, Tumblr, Yahoo, Facebook, Twitter, Sony, Google, LinkedIn, Hotmail et même le site de la NASA se sont fait pirater une partie des mots de passe – de quelques centaines ou quelques milliers, voire  plusieurs millions – de leurs utilisateurs.

Sauf que dans le cas d’Evernote, c’est 50 millions de mots de passe qui ne sont plus fiables ! C’est une première dans l’histoire du web. Et c’est aussi une limite qui vient d’être franchie. 

Evernote a dû envoyer 50 millions d’emails ce week-end. Certains des utilisateurs n’ont toujours pas reçu cet email. Evernote est confronté à la limite technique des emails – cela prend du temps d’en evoyer 50 millions d’emails. Pendant ce temps, les mots de passe de leurs utilisateurs ne sont plus fiables et ils ne le savent pas. Quand on sait que la grande majorité des utilisateurs utilisent un mot de passe « simple » pour plusieurs services, cela représente un vrai danger. 

Les mesures de réactions et d’information classique sont désormais inefficaces sur des phénomènes d’une telle ampleur. 

Mais que faire alors ? 

Le temps où l’on pouvait gérer ses mots de passe manuellement est révolu. 

Cette tendance oblige dorénavant  les internautes à  gérer leurs mots de passe et à les changer rapidement.  Gérer ses mots de passe signifie définir un mot de passe différent et complexe pour chaque service, ce qui est quasiment impossible sans utiliser des solutions logicielles, sauf à prendre un temps considérable à gérer cela manuellement. 

Là encore, pour éviter de se faire piéger, de plus en plus d’internautes devront recourir à des services tiers pour être prévenus quasiment en temps réel. 66% des utilisateurs de Dashlane qui avaient un compte sur Evernote ont changé leur mot passe immédiatement après notre alerte diffusée quelques minutes après la connaissance de l’attaque. Et 50% d’entre eux ont fait cela avant samedi minuit, tandis que le mail d’Evernote n’a toujours pas été reçu par tous les utilisateurs. 

Emmanuel Schalit, CEO de Dashlane

 
Découvrez les formations Techniques de l’Ingénieur :
 

Rapport d’étude 2013 sur les tendances en matière de systèmes embarqués

National Instruments annonce la publication de l’édition 2013 de son rapport sur les systèmes embarqués, qui détaille les prévisions de la société concernant l’évolution du marché. Ce rapport vise à aider les ingénieurs et les scientifiques impliqués dans divers domaines d’applications , comme l’énergie et la biologie, le contrôle industriel et les transports, et qui évoluent dans un contexte économique et technologique en perpétuel changement.

Grâce aux éclaircissements apportés par cette étude, les ingénieurs et les responsables vont être mieux préparés au développement et à la maintenance de systèmes embarqués innovants.

Disponible en anglais, ce document est actuellement en cours de traduction en français.

Il présente les tendances majeures suivantes :

  • les architectures hétérogènes reconfigurables : l’augmentation de la vitesse des cœurs du processeur ne suffit plus. Les concepteurs de systèmes embarqués doivent combiner des éléments de traitement hétérogènes pour satisfaire les besoins de leurs applications.
  • la révolution de l’énergie numérique : les technologies numériques sont en train de révolutionner la façon dont nous manipulons, déplaçons, contrôlons et stockons l’énergie.
  • la démocratisation de la conception de systèmes embarqués : bon nombre d’équipes de conception préfèrent désormais aux grandes équipes spécialisées de petits groupes chargés de concrétiser leur expertise métier en innovation.
  • la rentabilité économique globale : de plus en plus de sociétés adoptent une approche complète qui considère non seulement l’analyse des bénéfices mais aussi des facteurs comme la souplesse et le risque.
  • la vision embarquée : la technologie initialement utilisée dans les matériels vendus en gros volume est au cœur d’une nouvelle génération de systèmes embarqués intelligents.

Téléchargez gratuitement le rapport d’étude 2013 sur les systèmes embarqués

Publié par Pierre Thouverez

Les 50 scientifiques les plus sexy !

Ce top 50 des personnalités scientifiques les plus sexy repose sur des critères totalement subjectifs d’esthétiques et de popularité.

Un peu de légèreté n’a jamais fait de mal, et casser les codes de l’univers très fermé de la science non plus.

Autre intérêt, ce classement redonne un peu d’humanité à la sacro-sainte science, rappelant qu’un scientifique est un être humain comme les autres, loin du cliché du savant fou caché derrières ses lunettes et ses éprouvettes, dans un obscur laboratoire servant à des expériences mystérieuses.

Gageons que le sex-appeal indéniable de ces personnalités rendra la science un peu plus populaire et plus accessible.

Ce classement présente donc 50 personnalités, leur photo bien sûr, mais aussi leur domaine de compétence, leur laboratoire, leurs travaux, mais révèle aussi des informations sur leur vie privée comme leurs loisirs, leurs passions ou encore une anecdote amusante sur leur personnalité.

Parmi les heureux sélectionnés, on retrouve tout de même deux français.

En cinquième position, Jean-Baptiste Michel, un mathématicien trentenaire, diplômé de Polytechnique et d’Harvard spécialisé dans l’analyse et le traitement de données.

Sur le podium, cocorico !, Carl Schoonover prend la médaille de bronze. Chercheur en neuroscience, il s’intéresse plus particulièrement au traitement de l’information liée au sens du toucher. Il est aussi le fondateur de NeuWrite, un groupement collaboratif de scientifiques et d’écrivains.

Le scientifique élu le plus sexy est Bobak Ferdowski, scientifique à la NASA. Il a été très exposé médiatiquement à l’occasion de l’atterrissage du robot Curiosity sur Mars. Preuve de son succès, son compte twitter compte 50 000 followers !

 

Découvrez ces 50 scientifiques les plus sexy ici : www.businessinsider.com/50-sexy-scientists

 

Par Audrey Loubens, journaliste scientifique

La fin de l’éclairage nocturne des bâtiments est promulguée

Dès le 1er juillet 2013, les éclairages intérieurs des locaux et bureaux devront être éteints une heure après le départ des employés. Les éclairages extérieurs des bâtiments seront obligatoirement éteints entre 1h et 7h du matin. Pour les éclairages des vitrines de commerce ou d’exposition, l’arrêté est moins incisif. Ils seront éteints au plus tard à 1h du matin, ou une heure après la fin d’occupation locaux si celle-ci intervient plus tard.

Pour l’allumage, l’arrêté précise que « Les éclairages des vitrines de magasins de commerce ou d’exposition peuvent être allumés à partir de 7 heures ou une heure avant le début de l’activité si celle-ci s’exerce plus tôt » et « Les illuminations des façades des bâtiments ne peuvent être allumées avant le coucher du soleil ».

Toutefois, pour les façades et les vitrines, le texte prévoit la possibilité pour le préfet d’accorder des dérogations pour la veille des jours fériés, la période des illuminations de Noël, lors d’évènements exceptionnels à caractère local, ou dans des lieux présentant un intérêt touristique exceptionnel.

Estimées à 2 TWh par an par l’ADEME, les économies d’énergie attendues par cette mesure équivalent à la consommation électrique annuelle d’environ 750 000 ménages. Elles s’accompagneront d’une baisse des émissions de COde 250 000 tonnes.

Est-ce suffisant ?

Réagissant à cet arrêté, le Syndicat des entreprises de génie électrique et climatique (SERCE) rappelle l’importance de développer les systèmes de « détection de présence, gradation de l’éclairage, programmation des niveaux de luminosité permettent d’adapter l’éclairage intérieur en tenant compte de l’activité tout en répondant aux exigences de performance énergétique, de confort visuel et de santé au travail » dans un communiqué en date du 1er février.

Pour réduire les consommations d’énergie, des systèmes intelligents permettent de piloter l’allumage de jour comme de nuit. Ces systèmes permettraient d’éteindre automatiquement la lumière lorsque les employés laissent, par exemple, la lumière allumée dans leur bureau en partant. De même, il est possible d’abaisser la lumière quand la luminosité naturelle est suffisante. « Cette extinction pilotée, permet de générer des économies d’énergie dix fois supérieures à une simple extinction la nuit », précise le SERCE. « Ces dispositifs permettent d’économiser de 50% à 70% de la consommation d’énergie et sont amortis entre 3 et 5 ans », précise-t-il.

La rénovation des bâtiments est l’occasion idéale pour installer de façon massive ces dispositifs et réaliser des économies d’énergie conséquentes. Le SERCE exhorte le gouvernement à incorporer ces aspects dans le futur décret sur la rénovation des bâtiments tertiaires qui doit être soumis prochainement à consultation.

Par Matthieu Combe, journaliste scientifique

 

A découvrir dans les bases documentaires :

Au-delà de 20km de Fukushima : pas d’augmentation du risque de cancer ?

Greenpeace a immédiatement contesté l’étude de l’Organisation Mondiale de la Santé (OMS), d’après laquelle il n’y aurait pas de hausse du risque de cancer dès que l’on est éloigné de plus de 20 km de la centrale.

Intitulé « Évaluation des risques pour la santé de l’accident nucléaire survenu après le grand tremblement de terre et le tsunami qui ont touché l’est du Japon en 2011 (sur la base d’une estimation préliminaire des doses), il s’agit du premier rapport de l’OMS qui étudie les conséquences sur la santé de l’homme du drame de Fukushima. Et celui-ci se veut particulièrement rassurant puisqu’il stipule que « Les risques sont faibles pour la population en général au Japon et à l’extérieur du Japon. Pour cette dernière, aucune augmentation observable des taux de cancer n’est prévue par rapport aux taux de référence.» Soit.

L’OMS note cependant une augmentation des risques de cancer pour « certaines catégories de la population de la préfecture de Fukushima » et préconise une surveillance à long terme.

Au plus proche de la centrale, les femmes et les enfants de moins de un an à l’époque du drame voient leur risque de cancer majoré de 4%. Plus précisément, les risques de cancer du sein augmentent de 6%, ceux de leucémie de 7%. En revanche, le risque de développer un cancer de la thyroïde explose de 70% pour passer à 1.25% contre 0.75% normalement. Les personnes vivant dans la deuxième zone la plus contaminée voient aussi une augmentation du risque de développer un cancer, bien que « les risques estimés sont inférieurs de moitié environ à ceux de la zone aux doses les plus élevées. »

Les plus touchés sont les ouvriers venus travailler sur la centrale au moment de l’accident. Ceux-ci ont été les plus exposés aux radiations et voient leur risque de cancer grimper de 20%.

Le rapport précise aussi que « les doses de rayonnement de la centrale nucléaire endommagée ne devraient pas augmenter l’incidence des fausses couches, des mortinaissances et des autres problèmes de santé physique et mentale susceptibles de toucher les nourrissons nés après l’accident. », autrement dit on ne devrait pas voir exploser les cas d’infertilité ni les naissances d’êtres difformes comme des vaches à deux têtes.

A ce jour, la société Tepco en charge de l’exploitation de la centrale n’a toujours pas communiqué les niveaux de radiations auxquels ont été soumis les travailleurs. Ce rapport s’appuie donc sur des estimations des doses émises. Plusieurs experts scientifiques indépendants des domaines de la modélisation des risques radiologiques, de l’épidémiologie, de la dosimétrie, des effets des rayonnements et de la santé publique ont participé à sa rédaction.

Pour Greenpeace, ces conclusions sous-estiment l’impact de la deuxième plus grave catastrophe nucléaire après Tchernobyl. De leurs côtés les autorités japonaises contestent l’étude jugeant le risque bien moindre : « Ces calculs ont été basés sur l’hypothèse que les gens ont continué de vivre dans cette zone et de manger de la nourriture interdite. Mais ce n’est pas le cas », justifie un responsable du ministère de l’Environnement à l’AFP.

Mais tout le monde s’accorde sur le fait que la zone de 20km autour de Fukushima sera inhabitable pendant encore plusieurs dizaines d’années et que les produits agricoles issus de cette région sont contaminés. Un rapport pas si rassurant que ça finalement.

Par Audrey Loubens, journaliste scientifique

Séminaire en ligne : Découvrez PTC Mathcad, logiciel de calculs techniques.

 

Dans le monde de l’industrie, les cycles se réduisent et sont si courts qu’il est impossible d’effectuer les calculs techniques à la main ou à l’aide d’un tableur.

Consacrez une heure de votre temps et découvrez comment créer des feuilles de calculs lisibles et réutilisables.

 

Participez à un séminaire en ligne en direct et en français et venez découvrir comment le logiciel de calcul PTC Mathcad vous aide à dépasser les limites des tableurs :

 

– Consacrez-vous davantage à l’ingénierie qu’à la résolution des problèmes et à la documentation

– Capturez vos calculs à des fins de réutilisation, vérification de conception et collaboration

– Visualisez et analysez rapidement vos conceptionsà l’aide de tracés 2D/3D, de tableaux et de graphiques, dans un seul et même document.

 

  Deux possibilités pour participer à ce séminaire PTC Creo en ligne et en direct avec les experts produits PTC :   

 – Mercredi 27 mars de 13h30 à 14h30 : s’inscrire au séminaire en ligne.

 – Jeudi 28 mars de 11h00 à 12h00 : s’inscrire au séminaire en ligne.

Une ville européenne réussit l’autosuffisance énergétique

Alors que toutes les nations cherchent activement à réduire leur consommation d’énergie, que les scientifiques de tous les continents planchent sur les énergies alternatives pour surmonter la disparition du pétrole, et que chaque particulier s’attache à faire baisser son budget énergie, il y en a qui ont déjà trouvé la solution !

En effet, il existe en Autriche un village, Gussing, qui a su se déjouer  de la dépendance énergétique.

Son arme ? Une immense forêt de 133 000 hectares dont des milliers d’arbres sont prélevés chaque année et amenés à l’abattoir pour être réduits en copeaux. Les arbres étant replantés d’année en année pour pérenniser le système. Ceux-ci alimentent les centrales à bois construites exprès pour cela par la municipalité. Plus précisément,  pour les besoins en chaleur et électricité, la ville dispose d’une centrale de production de biogaz à partir de maïs, de trèfle et d’herbe, et d’une centrale de gazéification du bois. Une troisième centrale de biodiesel permet la production de biocarburant à partir d’huile de colza.

L’arsenal de Gussing ne se limite pas aux trois centrales puisque la ville a investi dans des installations solaires thermiques et photovoltaïques.  Cette chaine de production est tellement efficace qu’elle suffit à couvrir les besoins de la ville et plus encore : la moitié de l’énergie produite est exportée !

C’est en 1992 que Peter Vadasz, le maire de Gussing, a l’idée géniale d’exploiter la ressource naturelle de sa ville et de valoriser la biomasse comme matière première de centrales à bois. « Beaucoup nous disaient que cela ne fonctionnerait pas. Mais nous avons répondu : nous allons quand même essayer. » rappelle avec détermination Peter Vadasz. Et bien lui en a pris puisqu’aujourd’hui sa ville est la première au monde à être totalement indépendante sur le plan énergétique. Une prouesse dont nos dirigeants et décideurs pourraient s’inspirer. Car les bienfaits ne sont pas qu’écologiques. Le volet économique est lui aussi très satisfaisant, du fait des économies liées à l’absence d’importation d’énergie bien sûr mais aussi grâce aux emplois créés, plus d’un millier pour Gussing. De plus, ces entreprises sont tout autant des sources de revenus, qui ont permis au maire de refaire à neuf tout le centre-ville.

Un modèle d’autosuffisance dont l’efficacité dépasse les attentes les plus exigeantes, en dépit d’une mise en œuvre simplissime : planter des arbres et monter des centrales à bois.

Par Audrey Loubens, journaliste scientifique

Publication du décret sur la double valorisation de la méthanisation

« Le nouveau dispositif permet aux producteurs de biogaz de valoriser simultanément leur production sous forme d’électricité et sous forme de biométhane injecté dans les réseaux de gaz naturel, en leur accordant le double bénéfice des dispositifs de soutien existants pour la production d’électricité à partir de biogaz (tarif d’obligation d’achat) et pour la production de biométhane injecté (tarif d’achat garanti).

Jusqu’à présent, les producteurs de biogaz devaient choisir une forme de valorisation et le dispositif financier de soutien associé », indique le communiqué publié par le Ministère de l’Écologie, du Développement durable et de l’Énergie.

Grâce à ce nouveau cadre tarifaire, les professionnels de la filière vont pouvoir investir dans de nouveaux projets, optimisés sur le plan énergétique et économique. Néanmoins, les acteurs du secteur regrettent que ce dispositif ne s’applique pas aux installations existantes.

Si ces mesures constituent une avancée importante pour le développement de cette filière énergétique, de nombreux obstacles, principalement réglementaires et financiers, subsistent. Pour les lever, le groupe de travail Biogaz du Comité d’Orientation Stratégique des Eco-Industries (COSEI), piloté par le Syndicat des énergies renouvelables, a adressé ce matin-même les conclusions de ses travaux qui visent à faire émerger une véritable filière industrielle française en facilitant le développement d’un marché national.

« Les propositions, contenues dans ce rapport, ont également vocation à alimenter le Plan national biogaz annoncé lors de la Conférence environnementale et qui devrait être présenté prochainement par le Gouvernement », explique Jean-Louis BAL, Président du Syndicat des énergies renouvelables et du Groupe de travail Energies renouvelables du COSEI.

Publié par Pierre THOUVEREZ

Les formations Techniques de l’Ingénieur :

Vers des circuits imprimés en 3D grâce à des connexions biologiques

Les physiciens et biologistes du CEA ont en effet réussi à fabriquer  des connexions à base de filament d’actine capables de s’auto-assembler en hauteur.

L’actine est une protéine qui constitue le squelette des cellules vivantes et en régule la forme. Les filaments d’actine ont l’habitude d’interagir entre eux pour former de nouvelles structures comme des feuillets, des tresses ou encore des piliers. Le processus de création de ces structures à la géométrie bien particulière a été dompté par une équipe du Laboratoire de Physiologie Cellulaire Végétale du CEA. Ils ont réussi à contrôler le processus d’auto-assemblage en 3D en le confinant entre deux plaques de verre. Plus précisément, les plaques ont été positionnées à 30 microns de distance l’une de l’autre. Une solution à base de monomères d’actine a été injectée entre les deux surfaces. Des microstructures avaient été dessinées au préalable avec un faisceau laser sur les plaques de verre, de façon à permettre la polymérisation des monomères d’actines.

Les scientifiques ont alors pu assister à l’auto-assemblage de piliers d’actine partant des surfaces jusqu’à se rejoindre, maîtrisant ainsi la forme et la taille de ces colonnes. Pour aller plus loin, ils ont voulu créer des formes plus complexes, et ont ainsi réussi à faire pousser des piliers, toujours à partir d’une surface mais guidés à l’intérieur de cylindres creux. Très « corporate », les chercheurs du CEA ont même fabriqué un réseau d’actine suivant la forme des lettres C, E et A, formant ainsi le logo CEA. 

Rappelons que l’objectif n’est pas de faire dans l’esthétique mais dans la microélectronique. Le but avoué est de proposer des structures capables de relier entre eux les composants de circuits imprimés (CI), sans se limiter à de la 2D. Si la microélectronique veut continuer à suivre la loi de Moore, il va falloir trouver des solutions pour densifier encore plus les CI alors que la taille de certains éléments atteint déjà la petitesse de l’atome.

Il devient difficile de faire plus petit, d’où une alternative de faire des CI en 3D, à condition de pouvoir relier les éléments entre eux dans la hauteur. Ces piliers d’actines sont une réponse prometteuse, d’autant qu’il suffit de les métalliser avec des particules d’or pour laisser passer le courant entre les deux surfaces.

Ces travaux sont parus dans la revue Nature Materials en février 2013.

Par Audrey Loubens, journaliste scientifique

1ère Journée Nationale de l’Ingénieur : pleins feux sur un métier en pointe

Un projet dans la continuité du Livre Blanc

La Journée Nationale de l’Ingénieur s’inscrit dans le droit fil des priorités développées par IESF dans son Livre Blanc des ingénieurs et scientifiques de France adressé aux décideurs politiques et économiques lors de la campagne présidentielle 2012 avec « 40 propositions pour réindustrialiser la France », et sur la réalisation desquelles il garde un œil vigilant. 

Organisée pour la première fois en France, à l’initiative des 180 associations fédérées au sein d’IESF, la Journée Nationale de l’Ingénieur a vocation à se répéter chaque année. Elle rassemblera le 18 mars prochain plus d’un million d’ingénieurs français (4% de la population active) autour du thème de « l’ingénieur entrepreneur », à Paris comme en Région.

Pour Julien Roitman, Président d’IESF, « Cette journée a pour objectif de souligner aux yeux de nos concitoyens l’importance d’une profession moteur de l’innovation, de l’industrie et de la compétitivité. Son but est également de faire partager aux ingénieurs l’intérêt de créer ou reprendre une entreprise, et d’encourager ceux qui s’en sentent capables à se lancer dans l’aventure industrielle ».

L’ingénieur entrepreneur : un thème porteur

Aujourd’hui encore très peu d’ingénieurs et de scientifiques sont chefs d’entreprise ou indépendants (4% d’ingénieurs non-salariés). C’est pourtant là une évolution naturelle et une priorité nationale, raison pour laquelle IESF a retenu comme thème celui de « l’ingénieur entrepreneur » pour la première Journée Nationale de l’Ingénieur.

Plusieurs manifestations sont prévues à travers la France en présence de nombreuses personnalités, avec des tables rondes et des ateliers thématiques sur les différents aspects de l’entreprenariat. Les écoles d’ingénieurs et les associations de diplômés prendront aussi part à cette Journée avec des initiatives de leurs incubateurs et des groupes entrepreneurs.

Le point d’orgue du 18 mars sera un colloque au Centre Pierre Mendès-France de Bercy en présence de nombreuses personnalités. Il s’articulera autour d’une table ronde intitulée « Des ingénieurs pour entreprendre et réussir une PMI », et de 5 ateliers thématiques :

  • Comment financer son entreprise ?
  • L’environnement administratif : frein ou levier ?
  • Qui pour créer une entreprise ?
  • Qui pour reprendre une entreprise ?
  • L’export et l’intelligence économique pour quoi faire ?

Une célébration de l’ingénieur dans toute la France

Des conférences similaires se dérouleront autour de la même date dans 12 villes de France : Toulouse, Strasbourg, Rennes, Nantes, Metz, Marseille, Lyon, Lille, Grenoble, Bordeaux, Blois et Aix-en-Provence. Elles seront organisées sous l’égide des Unions Régionales d’Ingénieurs et de Scientifiques (URIS) avec l’appui des Bureaux Régionaux d’Élèves Ingénieurs (BREI), et en partenariat avec de grands organismes français directement concernés par le développement économique et industriel comme les CCI France, la COFACE, la CGPME, le GFI, IDF Capital, OSEO (BPI), le Réseau Entreprendre, UBIFRANCE ou XMP Business Angels. 

La Journée Nationale de l’Ingénieur illustre l’attachement d’IESF (Ingénieurs et Scientifiques de France) à défendre le progrès, à mettre en relief l’innovation, l’industrie et plus généralement l’entreprise, et à promouvoir leurs métiers. Une profession qui veut s’inscrire pleinement dans le paysage économique et prendre toute sa part dans le redressement indispensable du pays. 

 

Tous les détails et inscription en ligne sur :

www.iesf-jni.org

 

Ingénieurs et Scientifiques de France (IESF)

La France compte aujourd’hui plus d’un million d’ingénieurs et de scientifiques. Organe représentatif de la profession reconnu d’utilité publique depuis 1860, Ingénieurs et Scientifiques de France est organisé en fédération. Il rassemble une large majorité de ces ingénieurs et scientifiques à travers 180 associations de diplômés, scientifiques, techniques ou professionnelles, réseau d’unions régionales et sections internationales. 

 

 

 

 

 

Le Mobile 2013 : tour d’horizon de l’écosystème mobile

Le centre Pompidou accueillera cette année la septième édition de « Le Mobile », un programme dense de deux jours de conférences et de rencontres entre professionnels, dressant à la fois un portrait fidèle et faisant un tour d’horizon de l’écosystème et de l’industrie du mobile. Les 18 et 19 mars prochain, une flopée de spécialistes, d’opérateurs télécom, de fabricants d’équipement d’origine et de terminaux, d’éditeurs en tout genre, de développeurs et de créateurs de systèmes d’exploitation, d’agences, de régies publicitaires et d’annonceurs de tout poil se réuniront pour développer et mieux comprendre les enjeux, les tendances et les opportunités liées au secteur.

Tables rondes et témoignages

Au programme, neuf tables rondes et le témoignage de six grandes marques pour tenter de définir des problématiques et aider à se positionner face à un marché en constante mutation, avec pour ligne directrice cette année, « le choc des Géants ». Les Stores évoluent dans un environnement ultra-concurrentiel, et luttent pour se positionner face à la diversité des terminaux et à l’évolution rapide des systèmes d’exploitation. Seront aussi évoqués – entre autres – les nouvelles opportunités de développement, les futurs challenges à relever (notamment celui de la convergence) ainsi que l’avènement du « social » sur le net.

« Hackathon », compétition de programmation à destination des marques

Un « Hackathon » tiendra également le haut du pavé, première compétition de programmation à destination des marques : deux grandes marques seront invitées à challenger les développeurs présents qui devront apporter des solutions – après une mise au clair des contraintes à respecter imposées par les marques, et sur ce que l’on attend d’eux – sous forme d’applications exploitant au mieux toutes les technologies mobiles. Les développements seront suivis en direct et un jury, composé à la fois d’experts mobiles et de membres des marques elles-mêmes, devra décerner un prix aux applications les plus intéressantes.

Zone d’exposition et rencontres

Une zone d’exposition permettra aux visiteurs de rencontrer certaines entreprises et start-ups dynamiques ayant un rôle clé dans le secteur :

  • Improve Agency, agence experte des nouveaux usages digitaux ;
  • Sophiacom, pionnier du développement mobile ;
  • Trademob, agence de promotion des applications mobiles au sein même des App Store ;
  • Intellicore, société de conseil en stratégie mobile, de créations d’applications mobiles et web, ainsi que studio de design et de développement mobile ;
  • Flippad, agence proposant une solution clé en main destinée aux éditeurs de presse, agences de publicité et entreprises souhaitant diffuser leur contenu sur tablettes et Smartphones ;
  • Et enfin, Paypal, le numéro un mondial du paiement en ligne.

« App Awards »

En parallèle se tiendra la quatrième édition des « App Awards », mise en lumière de quinze applications parmi une centaine de dossiers reçus, récompensant des applications utiles, ergonomiques et pratiques pour les utilisateurs. Ces applications devront fonctionner sur au moins l’un des App stores suivants : iOS (iPhone ou iPad), Android, Windows 8, Blackberry ou Amazon. 

Par Rahman Moonzur, journaliste scientifique

Le boson conduit-il l’Univers tout droit à sa perte ?

L’idée que l’on pouvait se faire de l’univers vole ainsi en éclats. Non, il n’est pas éternel. Il a même une date de fin. Rien de précis, mais les scientifiques, d’après leurs calculs, l’estiment à une ou plusieurs dizaines de milliards d’années. Joseph Lykken, physicien au laboratoire Fermi National Accelerator de Batavia et membre de l’équipe du Cern dédiée à la recherche du boson avec le LHC, s’est ainsi exprimé : « Il se pourrait que l’univers dans lequel nous vivons soit intrinsèquement instable et qu’à un certain stade, dans quelques milliards d’années, il soit effacé. »

La découverte et confirmation de la théorie de Peter Higgs, en juillet 2012, saluée par les scientifiques en fin d’année, semble désormais synonyme de mauvaise nouvelle. En effet, comble de l’ironie, la particule élémentaire du modèle standard responsable de la masse des autres particules crée une instabilité au sein de l’univers susceptible de le détruire à cause de… sa masse ! Sans le Boson, pas de matière pourrait-on résumer. Or, la masse du Boson est déterminante, c’est un élément clé du fonctionnement de l’univers, passé et à venir. Dans le cas présent, les expériences ont permis de conclure que le boson a une masse d’environ 126 gigaélectronvolts, 126 fois supérieure à celle du proton.

Le physicien Michael Peskin met en cause la légèreté de la particule « de Dieu » et la masse trop lourde du quark top. Ils engendrent une instabilité fondamentale dans le champ de HIggs qui a pour effet d’altérer les règles physiques existantes. Par conséquence directe, la masse des objets de l’univers – tels que les planètes, les étoiles ou encore les atomes – serait différente et ces objets ne pourraient plus interagir de la même manière.

Là ou ça devient franchement fou, parce que cela ressemble à de la science-fiction, c’est dans la manière qu’à l’Univers de disparaître sous l’effet de cette instabilité. Selon les mots de Joseph Lykken : «Une petite bulle de ce que vous pouvez imaginer comme un univers “alternatif” apparaîtra quelque part et, ensuite, son expansion nous détruira ». La phrase est lâchée. Une petite bulle avalera notre univers à la vitesse de la lumière et sans que l’on s’en rende compte, plus rien.

Toutefois, les calculs des scientifiques s’appuient sur les connaissances actuelles. Elles gonfleront très certainement avec le temps. Les physiciens n’assurent pas non plus à 100 % être à l’abri d’une erreur, qui, aussi infime puisse-t-elle être, pourrait tout changer. Il suffirait que le Boson soit juste plus lourd de 3 GeV pour que l’univers soit stable. De nouvelles mesures sont attendues pour mars 2013. Et de toute façon, la Terre disparaîtra bien avant lorsque notre soleil entamera sa dernière métamorphose, pour passer de naine jaune à géante rouge. Soit dans un peu moins de cinq milliards d’années.

Par Sébastien Tribot, journaliste scientifique

Une base lunaire bâtie par impression 3D

De prime abord, l’idée parait loufoque. Construire une base lunaire à l’aide d’une imprimante 3D, comme on crée une maquette de la tour Eiffel !

Même Hergé n’y avait pas songé. Pourtant, l’ESA y réfléchit sérieusement. Utilisé à plus grande échelle, ce système pourrait bien se révéler révolutionnaire, et d’une simplicité redoutable.

Pour Laurent Pambaguian, chargé de projet pour l’ESA, cela vaut le coup d’étudier la question puisque « sur Terre, la technologie d’impression 3D a permis de construire des structures complètes. Notre équipe industrielle a cherché à établir si cette technique pouvait être utilisée pour construire un habitat lunaire ».

Le procédé a donc été testé dans des conditions similaires à celles de l’environnement lunaire. La société Monolithe U.K a fourni l’imprimante D-Shape dotée d’une rangée de buses d’impression mobile montée sur un châssis de 6 m. La D-Shape est capable de consolider un matériau tel que du sable par pulvérisation d’une solution chimique.

De l’oxyde de magnésium est mélangé au matériau lunaire artificiel pour obtenir une sorte de papier, lui-même imprimable. Puis, un sel chimique présent dans l’encre transforme le matériau pulvérulent en solide.

L’influence du vide lunaire a été intégrée au process. Une buse d’impression 3D a été insérée sous la surface de la couche de régolithe, la poussière qui recouvre la surface de la Lune. Des gouttelettes de 2 mm restent alors piégées par les forces capillaires dans la poudre et se transforment en solide, confirmant que le processus d’impression peut être réalisé sous vide. Pour les essais sur Terre, le matériau utilisé en remplacement du régolithe est de la roche basaltique d’un volcan en Italie, sembable à 99.8% au sol lunaire.

Les architectes Foster + Partners ont imaginé un habitat en forme de dôme, à la paroi constituée de cellules fermées protégeant les astronautes des micrométéorites et du rayonnement cosmique.

Actuellement, l’imprimante travaille au rythme de 2 m par heure, la prochaine génération doit atteindre la rythme de 3.5 m/h, ce qui permettrait de construire un bâtiment entier en à peine une semaine !

Et ça marche. Un démonstrateur d’1.5 t a ainsi été réalisé. Ce bloc élémentaire de ce qui pourrait bientôt être une base lunaire présente des propriétés encourageantes en termes de résistante en fonction de sa masse.

Dans un communiqué, Scott Hovland de la Direction des Vols Spatiaux Habités de l’ESA s’enthousiasme : « L’impression 3D offre un moyen potentiel de faciliter la colonisation lunaire en réduisant la logistique terrestre ».

Par Audrey Loubens, journaliste scientifique

Mars, une destination touristique dans cinq ans ?

Il est le premier voyageur intergalactique de l’histoire, il est millionnaire et son souhait le plus cher serait de proposer un voyage sur Mars, comme ultime destination, et ce dès le mois de janvier 2018. Alléchant ! L’homme y croit dur comme fer et le revendique haut et fort. Il souhaite être le premier à réaliser une mission habitée sur Mars, alors que la NASA ne l’envisagerait pas avant 2030. 

Dans ce but, Dennis Tito vient de fonder la société « Inspiration Mars Foundation » en collaboration avec Taber MacCallum et Jane Poynter, dirigeants de Paragon Space Development, une entreprise privée spécialisée dans le développement des technologies de contrôle de l’environnement et de contrôle thermique. Afin de se donner toutes les chances, il faut bien s’entourer. Le choix n’est pas anodin, puisque le projet bénéficiera de leur expérience dans la mise en œuvre de système de supports de vie spatiaux. Bien sûr, il sera primordial de réunir de nombreux scientifiques.

Les détails concernant le tarif et la santé des occupants n’ont pas encore été révélés. Ces questions sont pourtant bien légitimes. À combien s’élève un tel voyage ? Selon la Nasa, 200 milliards de dollars seraient nécessaires pour que sept astronautes puissent se rendre sur Mars en faisant un détour sur la Lune. Pour Robin Zubrin, président de l’association privée Mars Society, cela reviendrait à un ou deux milliards de dollars, fonds que l’américain ne pourra pas fournir entièrement. Un appel au concours de contributions privées a donc été lancé.

N’y a-t-il aucun risque ? On sait désormais que l’apesanteur créerait des troubles immunitaires chez les spationautes. Or, ces messieurs sont généralement bien préparés à endurer des conditions extrêmes. La cohorte d’ennuis auxquels s’exposent les futurs voyageurs semble relativement importante et donc à prendre en compte.

Mais passons les contraintes de voyage pour se rendre sur ladite planète et mettons que ce soit réalisable.

L’aller-retour prendrait 501 jours, ce qui représente tout de même une sacrée expédition. L’association « Inspiration Mars Foundation » songe à utiliser une capsule spatiale et une fusée comme moyen de transport.

Dans son idée, révélée le 27 février lors d’une conférence au National Press Club de Washington, le millionnaire souhaite envoyer un couple de « citoyens privés » sur orbite. Bien conscient que son âge avancé ne lui permettra pas ce périple historique, s’il a lieu. Néanmoins, il tient à s’assurer de la bonne organisation de la mission.

Pourquoi une telle entreprise vous demandez-vous ? Et bien « Pour faire rêver les enfants », l’américain estime que le retour des hommes dans l’espace n’a que trop tardé. Il souhaite également profiter d’un alignement entre la Terre et Mars ne survenant que tous les cinq ans

Par Sébastien Tribot, journaliste scientifique

Comment faire d’un ingénieur un manager ?

Techniques de l’Ingénieur : Nathalie Vuitton, qu’est-ce que le management de proximité ?

Nathalie Vuitton : On a trop souvent tendance à croire que le management est le privilège du statut de « cadre ». Or la pratique du management s’exerce dès le niveau agent de Maîtrise où des chefs d’équipe ou des « managers de proximité « encadrent » des équipes techniques.

Souvent promus à cette fonction d’encadrement par leur compétence technique et/ou leur implication qui les légitime, les managers de proximité se heurtent vite à la complexité de la fonction à laquelle leurs parcours académiques les a souvent peu préparés. Ce n’est pas pour rien qu’on entend souvent des managers à ce niveau de responsabilités dire qu’ils sont pris « entre le marteau et l’enclume » et qu’ils en sont parfois désarmés.

Ingénieur manager : les formations Techniques de l’Ingénieur

Même si le bon sens n’est pas l’ennemi du manager, bien au contraire, il a ses limites. Les managers peuvent éprouver des difficultés pour accomplir des actes de management au quotidien, se sentir parfois « limite » ou peut-être même remis en cause par vos subalternes, croyant bien faire. C’est aussi une part du travail des cadres intermédiaires, de convertir les objectifs stratégiques de leur hiérarchie en objectifs opérationnels pour leurs équipes, souvent avec des fortes pressions de résultats et de moins en moins de moyen.

La tête dans le guidon, ils sont amenés à faire un management « pompier », sans recul, en gestion de l’urgence pour répondre à des enjeux court terme. Ils ont donc besoin de hiérarchiser leurs priorités, d’identifier à qui ils peuvent déléguer, anticiper l’urgence, les crises, les phases critiques, de façon à affronter challenges le plus sereinement possible. Comme managers, ils ont aussi à s’impliquer dans les évaluations et les évolutions des compétences, selon les besoins à venir. 

Techniques de l’Ingénieur : En quoi cette problématique concerne-t-elle les ingénieurs ?

Nathalie Vuitton : En tant qu’ingénieur, j’ai managé des équipes dans de grands groupes internationaux et par expériences, l’ingénieur manager connait bien son métier, l’aime et s’y jette avec plaisir. Les ingénieurs s’inscrivent généralement beaucoup dans le faire et le faire-faire et peuvent rencontrer des difficultés dans la conceptualisation, la gestion des équipes, à prendre le temps de prendre du recul, à gérer les compétences, à communiquer.

Ils doivent sortir de leur cœur de métier car cette part de management prend de plus en plus de place dans leur travail au quotidien, au fur et à mesure de l’avancement de carrière. Ils doivent donc développer des compétences managériales, de RH, de communication. Pour l’instant très peu de formations d’ingénieurs intègrent des modules de management. Et quand bien même, c’est par la pratique qu’on apprend.

 

Techniques de l’Ingénieur : Vous proposez une nouvelle formation sur ce thème chez Techniques de l’Ingénieur, comment s’articule-t-elle ?

Nathalie Vuitton : Elle s’étale sur quatre fois deux jours, de juin à octobre, c’est un réel parcours d’échanges de pratiques, d’apprentissage et de travail sur sa propre position d’ingénieur manager. La première session débute par un questionnaire, un entretien téléphonique, et un diagnostic des préférences de fonctionnement pour chaque stagiaire. Cela permet de mieux se connaitre, d’identifier d’autres fonctionnements que le sien, de comprendre ses préférences dans la manière de sélectionner des informations, de prendre des décisions, dans un contexte hors pression et sous pression.

Puis lors du premier module, nous travaillons sur leur posture d’ingénieur manager, la légitimité à faire preuve d’autorité, les enjeux, les risques, l’aspect « marteau et enclume » de ces cadres intermédiaires à la fois managers et managés. De nombreux cas pratiques, des mises en situation permettent aux stagiaires d’identifier des méconnaissances, des interprétations et sont amenés à se questionner sur : comment communiquer avec son responsable ? Quel relationnel avec sa hiérarchie ? Quel cadre de fonctionnement avec son équipe, comment se positionner ? Comment assoir sa légitimité ? Comment optimiser et motiver ses équipes avec les différentes compétences de chacun ?

Bien souvent, les stagiaires s’expriment par le fait qu’ils découvrent d’autres manières de « dire les choses » par des outils de communications interpersonnels et trouvent par eux-mêmes facilement des réponses à leurs questionnements.

Ce premier module est suivi d’une intersession. Les participants ayant identifié certaines difficultés mettent en pratique progressivement une manière de manager différemment. Pendant cette phase, nous restons à leur disposition pour tout accompagnement personnel qui leur est nécessaire, et ils ont accès à des modules de e-learning reprenant des situations d’entreprises, avec de la théorie, des quiz, des mises en situation, qui soutiennent leur mise en pratique.

Le second module, animé par Brigitte Aubine, porte plus sur les outils RH permettant de gérer une équipe au quotidien. On est plus dans l’apport légal que comportemental.

Le troisième module porte sur les techniques d’accompagnement des équipes et la gestion des conflits, le côté humain, les relations personnelles : qu’est-ce qu’une relation managériale efficace ? Comment gérer ses émotions et celles de son équipe ? Comment garder un état d’esprit créatif, positif ?

Enfin, le quatrième module, animé à nouveau par Brigitte Aubine, oriente sur les bonnes pratiques à mettre en place pour surmonter les différents freins qui peuvent surgir et comment gérer la conduite du changement pour mener ses équipes .

Ce qui est notamment intéressant dans cette formation, c’est que chaque participant se voit donner un carnet de bord individuel de suivi, où il peut inscrire ses réflexions personnelles, ses axes de progression, etc. C’est dans l’ensemble un module original et complet, un réel accompagnement qui demande un investissement, un engagement mutuel des participants et formateurs, bien plus que sur une simple formation de deux jours.

 

 

  

POUR EN SAVOIR PLUS : regardez l’interview de Brigitte Aubine, qui co-anime le cycle de formation Les fondamentaux du management de proximité avec Nathalie Vuitton.

 

  

 

Bruno Decottignies

Batho veut relancer la géothermie

Delphine BATHO, ministre de l’Écologie, du Développement durable et de l’Énergie aimerait bien relancer le développement de la géothermie. Pour cela, elle a signé le 28 février deux permis de prospection pour des sites de géothermie à haute température (au-delà de 150°C) afin d’identifier des sites favorables.

Le premier permis, accordé à la société Electerre de France SAS et situé dans les départements du Cantal et de la Lozère ,est dit de « Chaudes Aigues-Coren ». Le second permis, délivré à la société Fonroche Géothermie SAS et situé dans les départements des Pyrénées-Atlantiques et des Hautes-Pyrénées, est dit de « Pau-Tarbes ». 18 autres demandes de permis de recherche sont actuellement en cours d’instruction au Ministère.

Un principe simple et écologique

Le principe de la géothermie haute température est de prélever des eaux chauffées à grande profondeur. Dans un communiqué envoyé à l’occasion de la signature de ces deux permis, le Ministère rappelle qu’il s’agit bien uniquement d’utiliser de l’eau  présente « soit directement dans une nappe, soit au travers de réseaux de failles où elles circulent naturellement ». Il ne s’agit en aucun cas de créer de nouvelles fractures via la technique de fracturation hydraulique (bannie pour les gaz de schistes). Une fois refroidies, les eaux prélevées sont réinjectées en profondeur.

Ces eaux peuvent être utilisées à la fois pour la production d’électricité et de chaleur en cogénération, soit uniquement pour l’alimentation en chaleur ou pour la production d’électricité.

Par Matthieu Combe, journaliste scientifique

L’essentiel de REACH 2/2 (février)

Exemptions RDAPP bientôt expirées – Comment demander une prolongation ?

15/02/2013
Les premières exemptions à l’obligation d’enregistrement des substances utilisées dans les produits et les process axés sur la recherche et le développement (RDAPP) arrivent à échéance en Juin 2013. Cette exemption est limitée à cinq ans, sauf si les entreprises peuvent démontrer que la prolongation de leur programme RDAPP est nécessaire. Les entreprises touchées doivent agir maintenant en soumettant une demande à l’ECHA au moins quatre mois avant la date d’expiration de l’exemption initiale. Cette demande se fait via REACH-IT. Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/title/first-ppord-exemptions-to-expire-how-to-request-an-extension

Nouvelles consultations pour éviter les tests sur les animaux

18/02/2013
L’ECHA a lancé un appel visant à collecter des informations sur de nouvelles substances pour éviter les tests inutiles sur les animaux. Il s’agit de :Acide 3-(Diisobutoxy-thiophosphorylsulfanyl)-2-méthyl-propionique (N° CE : 434-070-2)

  • Asphalte, oxydé (N° CAS : 64742-93-4 et N° CE : 265-196-4)
  • Octabenzone (N° CAS : 1843-05-6 et N° CE : 217-421-2)

Les informations relatives à ces substances sont à soumettre pour le 4 avril 2013. Plus d’information sur : http://echa.europa.eu/information-on-chemicals/testing-proposals/current

8ème journée des parties prenantes : inscription avant le 5 mars 2013

La 8ème journée des parties prenantes a lieu à Helsinki le 26 Mars. Les inscriptions sont ouvertes jusqu’au 5 mars 2013. Cette journée est dédiée spécifiquement aux PME, en particulier les membres déclarants qui se préparent à l’échéance d’enregistrement REACH de 2013. Les conférences aborderont les points suivants : l’évaluation de la sécurité chimique et Chesar, des conseils pratiques pour l’évaluation des substances; comment l’industrie peut collaborer à présenter une demande d’autorisation, le rôle des ONG dans les demandes d’autorisation.

Pour s’enregistrer :
https://www.webropolsurveys.com/Answer/SurveyParticipation.aspx?SDID=Fin598953&SID=da59c5e3-5017-4dfd-ad98-0d46122bed98&dy=942920216
Programme de la conférence :
http://www.echa.europa.eu/documents/10162/13587/8th_shd_programme_en.pdf

Forum sur les produits chimiques à Helsinki

Un forum sur les produits chimiques se tiendra à Helsinki les 18 et 19 juin 2013. Les thèmes abordés porteront notamment sur les objectifs 2020, les substances chimiques dans les produits, la règlementation des nanomatériaux, les substances chimiques préoccupantes. Inscriptions : http://www.helsinkicf.eu//registration/index.php

Newletter de l’ECHA

La première newletter de l’ECHA de l’année 2013 vient de paraître. L’ECHA est prête pour l’échéance de 2013, et vous ? http://newsletter.echa.europa.eu/.

Une base de données pour la substitution des produits dangereux

Subsport (Substitution Support Portal) est une base de données qui comprend plus de 200 études de cas de substitution de produits chimiques dangereux. La plupart des études de cas sont fournies par des entreprises qui se sont investies dans le champ de la substitution. Cette base de données est hébergée par le portail Subsport qui contient par ailleurs d’autres ressources intéressantes. Plus d’informations sur : http://www.subsport.eu/?lang=fr

Les perturbateurs endocriniens inquiètent aussi les organisations internationales

Le Programme des Nations Unies pour l’Environnement (PNUE) et l’Organisation mondiale de la Santé (OMS), viennent de publier un rapport intitulé State of the Science of Endocrine Disrupting Chemicals. Conclusion : On manque de données sur ces perturbateurs endocriniens mais on suspecte des impacts importants en matière de santé publique. Un résumé de ce rapport est disponible sur http://www.unep.org/pdf/EDCs_Summary_for_DMs%20_Jan24.pdf.

En 2010, un salarié sur trois exposés au risque chimique

Le ministère du Travail a rendu public le 13 février les principaux résultats de la dernière enquête SUMER « Surveillance médicale des expositions aux risques professionnels ». Cette enquête, qui s’est déroulée de janvier 2009 à avril 2010, a porté sur environ 50.000 personnes représentatives de près de 22 millions de salariés. Son champ était beaucoup plus large que les deux enquêtes précédentes de 1994 et de 2003.

En revanche, le protocole est resté identique afin de permettre les comparaisons dans le temps. Pour la partie Risque chimique (page 10 des résultats de l’enquête), il ressort que les secteurs les plus exposés sont la construction, l’industrie et la fonction publique hospitalière. Les résultats de l’enquête sont disponibles sur : http://travail-emploi.gouv.fr/IMG/pdf/2013-010.pdf

Vérification de la taille des PME – Réduction des frais administratifs

25/02/2013
A compter du 25 février, les entreprises qui rectifient correctement leur taille d’entreprise dans leur dossier d’enregistrement, après avoir été contactées par l’ECHA, pourront bénéficier d’une réduction de 50 % sur leurs frais administratifs sous certaines conditions. Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/sme-size-verification-reductions-to-the-administrative-charge

Une base de données pour les DNEL (doses dérivées sans effet)

26/02/2013
L’institut pour la santé-sécurité au travail allemand et la German Social Accident Insurance viennent de lancer une nouvelle base de données : GESTIS DNEL. Elle vient compléter la base GESTIS des substances chimiques. Les DNEL font partie des données obligatoires dans les dossiers d’enregistrement de REACH. Jusqu’à présent, il fallait chercher via les données publiées par l’Echa pour retrouver de telles valeurs. Avec cette nouvelle base de données, l’accès est facilité.

Cinq directives vont être adaptées au règlement CLP

26/02/2013
Améliorer la protection des travailleurs contre l’exposition aux produits chimiques dangereux. Tel est l’objet d’une proposition présentée par la Commission européenne mardi 26 février, qui prévoit de mettre en conformité les dispositions de cinq directives sur la santé et la sécurité au travail (directives 92/58, 92/85, 94/33, 98/24 et 2004/37) avec le règlement CLP relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges.
Plus d’information sur : http://www.actu-environnement.com/ae/news/sante-securite-travail-produits-chimiques-reglement-CLP-17927.php4#xtor=ES-6

Rapport 2012 sur l’évaluation dans le cadre de REACH

27/02/2013
L’ECHA a publié son rapport sur l’évaluation des dossiers. Cette évaluation montre qu’une grande partie des dossiers présente des problèmes de conformité. L’Echa encourage fortement les déclarants, et notamment ceux qui se préparent à l’échéance de 2013 à lire ce rapport, et notamment les recommandations qu’elle préconise.
Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/reach-evaluation-report-2012-quality-information-required-for-reach-compliance
Rapport 2012 :
http://echa.europa.eu/documents/10162/13628/evaluation_report_2012_en.pdf

Démonstration en ligne de la nouvelle plateforme C&L

27/02/2013
L’ECHA organise le 19 mars prochain une démonstration de la nouvelle plateforme relative à la classification et à l’étiquetage (C&L). Plus d’informations sur :
http://echa.europa.eu/web/guest/support/training-material/webinars?panel=live_demonstration_cl_platform#live_demonstration_cl_platform

Mise à jour du manuel Utilisateur de IUCLID pour les nanomatériaux

28/02/2013
Le manuel pour les utilisateurs de IUCLID pour les nanomatériaux a été mis à jour. Ce manuel comprend des instructions sur la façon dont les déclarants peuvent inscrire explicitement quand une forme nanométrique a été utilisée dans des études (expérimentales). Ce manuel va aider les déclarants à préparer ou mettre à jour leurs dossiers d’enregistrement pour les substances qui sont des nanomatériaux ou incluses dans des nanoformes. Plus d’informations sur :
http://echa.europa.eu/view-article/-/journal_content/title/the-iuclid-user-manual-for-nanomaterials-has-been-updated

 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Expatriation – « Faire avec son entreprise un deal gagnant-gagnant »

Techniques de l’Ingénieur : Quelles difficultés les entreprises rencontrent-elles à envoyer leurs cadres à l’étranger ?

Jean Pautrot : Convaincre de partir est moins difficile aujourd’hui. Les cadres jeunes ont de plus en plus le goût et l’expérience de l’international. Depuis quelques années, le cursus bac + 5 intègre souvent six mois obligatoires à l’étranger.

Malgré tout, il y a des destinations –la Chine, les Etats-Unis, le Royaume-Uni- plus attractives que d’autres. Envoyer quelqu’un en Hongrie par exemple n’est pas toujours évident, car le hongrois n’est pas perçu comme une langue à valeur ajoutée dans le parcours, ou pour la famille. C’est un deal qui n’apparaît pas gagnant/gagnant pour l’expatrié potentiel.

Ingénieur manager : les formations Techniques de l’Ingénieur

La seconde difficulté concerne la double carrière. Travailler à l’international est souvent difficile pour le conjoint d’expatrié, d’où une réflexion nécessaire sur le projet familial. Le fait de suivre son conjoint ne doit pas être un sacrifice, mais procurer un bénéfice personnel. Pas forcément en trouvant directement un emploi, mais aussi en préparant une employabilité au retour. La formation aborde ce point.

De plus en plus d’entreprises offrent donc à leurs expatriés des services au départ et/ou au retour pour réussir ces étapes cruciales. Les formes varient selon l’entreprise, c’est pour cela qu’il est important que le cadre regarde ce que propose son entreprise pour lui et pour son conjoint.

Techniques de l’Ingénieur : Quelles sont les clefs de la réussite de son expatriation ?

Jean Pautrot : Tout dépend ce qu’on appelle la réussite… Concernant l’enrichissement personnel, se confronter à une autre culture favorise forcément le développement personnel et prépare les enfants à la mondialisation. Maintenant, si on reprend le même terme d’enrichissement personnel d’un point de vue financier, c’est autre chose. Dans l’imaginaire de leurs collègues, les expatriés gagnent beaucoup d’argent. Ça n’est pas toujours vrai, et ça l’est même de moins en moins : les packages sont de plus en plus « maitrisés », et la mise entre parenthèses de la carrière du conjoint peut conduire à une perte de revenu.

La principale difficulté pour l’expatrié, c’est la valorisation de son expérience au retour. Est-ce que cette expérience va booster ma carrière, ou pas ? Le manque de reconnaissance est source de frustration. D’où l’envie de repartir qu’ont de nombreux expatriés après leur retour.

La formation travaille sur deux enjeux : sortir du « blues » du retour et convaincre les recruteurs que l’expérience acquise dans un autre contexte s’est transformée en compétences utilisables « ici et maintenant ».

Techniques de l’Ingénieur : Y a-t-il selon vous une spécificité des ingénieurs face à l’expatriation ?

Jean Pautrot : Il n’y a pas de profil spécifique d’ingénieur expatrié par rapport à d’autres métiers. En revanche, les ingénieurs étant habitués à une certaine rationalité, ils sont peut-être plus déconcertés par le blues du retour, ne comprenant pas pourquoi ils se sentent étrangers dans leur propre pays.

De plus, les ingénieurs sont moins prédisposés que d’autres profils à vendre leurs compétences, par une certaine modestie de mauvais aloi. C’est au retour qu’ils sont les plus vulnérables. Mais au moment du départ, il n’y a pas vraiment de spécificités.

Techniques de l’Ingénieur : Vous animez un module intitulé Réussir son parcours international, au sein de la formation Ingénieurs Managers : développer ses compétences à l’international, chez Techniques de l’Ingénieur. A qui s’adresse-t-elle ?

Jean Pautrot : En priorité aux salariés ayant des projets à l’international. Toutes les phases de la mobilité sont examinées. Le retour se prépare dès le départ, la qualité des motivations de départ étant gages de réussite au retour. A partir de points de repère issus de mon expérience, je fais travailler les stagiaires sur  l’autodiagnostic de leur situation, puis ils bâtissent leur projet, pour réussir leur parcours. C’est un travail réellement personnel.

Cette formation permet ainsi aux salariés des grosses comme des petites entreprises de réfléchir dans un cadre plus neutre. Pour résumer, elle permet d’être inventif pour soi, son conjoint et sa famille, de sortir des rails habituels, de stimuler son inventivité, pour faire avec son entreprise un deal gagnant-gagnant.

Une approche analogue s’adresse aux DRH et gestionnaires de mobilité internationale. A partir des mêmes matériaux, ils réfléchissent à leur pratique en matière de gestion des expatriés et à la politique de leur entreprise.

 

Ingénieur diplômé de Centrale Paris, Jean Pautrot a fait carrière à EDF, où il s’est spécialisé dans les RH internationales (ancien DRH mobilité international – expatriation). Coach certifié, il préside désormais le Conseil Magellan de la Mobilité Internationale, en charge des relations des entreprises adhérentes avec les pouvoirs publics sur les questions de mobilité. Il a ainsi réalisé des entretiens avec près de 2000 expatriés, à tous les stades de leurs expatriations, et a travaillé avec 180 entreprises françaises à leur stratégie d’expatriation. « De là m’est venue l’idée de faire bénéficier de mon expérience à la fois les candidats à l’expatriation et les entreprises qui les emploient », explique-t-il.

 

Formation : Formation Ingénieurs Managers : développer ses compétences à l’international

Objectifs


  • Renforcer sa mobilité et sa propre adaptabilité
     
  • Acquérir les compétences transculturelles pour réussir ses projets internationaux
     
  • Animer une équipe internationale.
     
  • Identifier les facteurs de cohésion et de division au sein des équipes
     
  • Reconnaître les différences de son équipe et profiter de la diversité culturelle

L’heure est à l’ingénieur-manager

Aujourd’hui, 21 % des ingénieurs occupent des fonctions managériales et un débutant sur dix encadre une petite équipe. De plus, puisque les projets impliquent un nombre toujours plus grand de partenaires, l’ingénieur doit savoir désormais chercher des sous-traitants et veiller au bon déroulement des opérations, en plus de ses compétences techniques.

Les ingénieurs évoluent d’ailleurs de plus en plus vite vers des fonctions d’encadrement. Conséquence, la double compétence est très recherchée, comme rappelé dans un ancien papier de lexpress.fr : « Elle témoigne de l’ouverture d’esprit des candidats. Au bagage technique s’ajoute la capacité à comprendre un bilan d’exploitation ou à gérer un budget, ce que tout ingénieur est un jour amené à faire ».Recherchée donc, mais pas forcément encore très présente : la part des doubles diplômes d’ingénieur et de management-gestion a certes doublé en quinze ans, mais elle n’est passé que de 3,7 % à 7,3 %.

D’ailleurs, le malaise semble latent chez des étudiants en attente : « En 2011, plus d’un jeune ingénieur diplômé interrogé sur deux par le CNISF se disait mal préparé à opérer des choix professionnels, à s’intégrer dans une organisation, et, plus grave encore, à prendre en compte les enjeux industriels et économiques d’une entreprise ».

Ingénieur manager : les formations Techniques de l’Ingénieur

Il y a donc encore des progrès à faire, mais le mouvement est enclenché :

L’ENTPE (Ecole nationale des travaux publics de l’Etat), s’est associé à l’IAE Lyon afin de favoriser l’obtention d’un master MAE (management et administration des entreprises).

L’ESC-Lille et Centrale-Lille proposent une formation d’ingénieur manager entrepreneur, qui recrute juste après le baccalauréat et qui conduit à un diplôme bac + 5.

En partenariat avec l’EM Lyon, Centrale Lyon a développé un mastère spécialisé en management et développement des systèmes d’information.

Les mastodontes, Centrale Paris et l’Essec ou HEC et les Mines-ParisTech ont également adopté ce nouveau régime. Supélec propose un double diplôme avec ESCP Europe, permettant d’obtenir le diplôme de l’école de commerce en plus de celui de Supélec.

Bon, tout se boutique bien, mais une question essentielle demeure : la double casquette permet-elle de jouer les gros bonnets ? Est-on vraiment mieux payé lorsqu’on cumule ? A priori, oui. Selon les chiffres publiés sur lenouveleconomiste.fr, « Un ingénieur manager est globalement mieux payé que ses confrères : alors que le salaire médian d’un ingénieur se situe autour de 54 000 euros annuels en 2011 selon le CNISF, celui qui exerce un rôle hiérarchique touche aux alentours de 65 000 euros ».

Au fait, on a le droit aux retraites chapeau avec la double casquette ? 

Source : atlantis-rh.fr

Former mieux ou former plus ?

A y regarder de plus près, le titre est un peu équivoque. Certes, les entreprises cherchent surement des profils autres que ceux qu’on leur présente tous les jours. Sinon, comment expliquer qu’il y ait encore entre 300 000 et 500 000 postes non pourvus en France ? Il doit bien y avoir un problème pour expliquer que le chômage des cadres, notamment, ait augmenté de 36 % entre 2008 et 2010, selon une étude récente de l’INSEE.

La théorie du mouton à cinq pattes a été développée un peu partout, cette course au candidat idéal qui laisse un grand nombre de candidats songeurs, et interroge sur la capacité des entreprises à sortir de leurs sentiers battus et rebattus. A ce propos, cependant,  il faudrait peut-être se demander si les candidats, dans cette période troublée, n’ont pas développé une tendance à la sur-candidature. Selon les chiffres que l’on a aperçu au détour de forums, entre 5 et 20 % seulement des candidatures à un poste correspondent vraiment au poste proposé…

Mais la vraie problématique, ce n’est pas que les salariés soient vraiment mieux formés (bon, on peut surement faire un effort collectif sur l’anglais, n’est ce pas ?), mais surtout qu’il y en ait davantage de bien formés. Une étude du McKinsey Global Institute, dans une augure quasi maya, prophétisait récemment qu’en 2020, 2,2 millions d’emplois seraient vacants faute de diplômés du supérieur aptes à les remplir alors que dans le même temps, 2,3 millions d’actifs non bacheliers seraient incapables de trouver un job.

Ingénieur manager : les formations Techniques de l’Ingénieur

Cette tendance,  on l’observe déjà chez les ingénieurs : la France en forme chaque année 30 000, ce qui est insuffisant, surtout s’ils décident de faire le mur du côté de Berlin. Pour assurer notamment les besoins des PME très demandeuses, il faudrait en former 40 000 par an, sur les 10 prochaines années. En cas de pénurie, il faudra faire appel à une main d’œuvre étrangère dont les rangs grossisssent vite. L’Inde, par exemple, forme chaque année autant d’ingénieurs que toute l’Union Européenne…

C’est donc du côté de l’Education qu’il va falloir se creuser les méninges pour assurer les besoins futurs (améliorer l’emploi des seniors ne sera pas un luxe non plus). Les pistes de réflexion ne manquent pas : assurer un bon niveau scolaire à tous, améliorer la formation continue, réévaluer les compétences (en Allemagne, on peut devenir ingénieur avec un simple CAP. Vous nous direz, c’est peut-être pour cela qu’ils viennent faire leur marché en France)… ou même réfléchir à la place de l’entreprise dans l’enseignement.

La question fait toujours débat, mais elle mérite d’être reposée. C’est d’ailleurs ce que fait le gouvernement Ayrault en ce moment, lui qui souhaite ouvrir les universités aux entreprises. La CGPME est pour : cela lui permettrait de faire « faire passer nos messages en termes de besoins et de demandes ». Le MEDEF est également intéressé.

Faire coïncider besoins et formation est sans doute indispensable désormais. En s’associant avec le monde professionnel, les écoles et l’université pourraient même finalement devenir des usines à produire des moutons à 5 pattes. Les recruteurs sauteront au plafond. Il restera nénamoins une question en suspens : que se passera-t-il quand le mouton voudra quitter l’enclos ?

Source : atlantis-rh.fr

Chouette, un Tsunami !

Jusqu’à présent, Chanard a mené la vie d’un ingénieur financier sans défauts, celle d’un employé compétent dans sa branche, porté par des valeurs de performance, d’excellence et d’innovation. Aussi, concevoir le schéma financier permettant de miser des capitaux sur les catastrophes naturelles ne lui semble pas extravagant.

Devoir attendre qu’un sinistre survienne pour démontrer la pertinence du schéma n’a en revanche rien de confortable. D’autant qu’il faut une catastrophe colossale, qui batte tous les records. Il faut le désastre du siècle…

La force et la subtilité de ce roman résident dans la restitution d’un discours.

L’auteur démonte avec brio quelques concepts chers au management.

Il s’empare de toute une phraséologie d’entreprise, montrant sa froideur rationnelle et sa logique implacable aussi bien que sa propension à déborder du champ professionnel pour imprégner jusqu’à la vie intime des aspirants à la réussite.

Commentaire de l’auteur, Thomas Copey :  » Il y a ce mot, FINANCE, ses enjeux impénétrables : en surface, les faillites spectaculaires de banques réputées, les chutes bruyantes de traders mégalomanes. Parfois des chiffres, les transactions faramineuses, chaque jour, de plusieurs milliers de milliards de dollars. Il y a cet autre mot, management, et ce n’est plus de la confusion, mais une sorte d’anxiété que l’on peut éprouver à voir ses techniques inspirées de l’armée imprégner des champs de l’espace social toujours plus étendus, l’école, l’hôpital, l’entreprise, la politique, la famille. Et sous couvert de perfectionnement de l’entreprise ou de l’institution, des formes de contrôle plus efficaces parce que moins visibles.

Alors, au croisement de ces deux motifs, et de leur langage singulier, j’ai trouvé un individu. Un ingénieur financier compétent dans sa branche, de ceux qui mettent au point les moyens d’échanger les milliards abstraits. Pour lui, concevoir le schéma financier qui devrait permettre de miser les capitaux sur les catastrophes naturelles ne semble pas anormal.

Potentiel du sinistre est l’histoire d’une ambition raisonnable. J’ai cherché à comprendre comment celui qui se rêvait archétype se retrouve sur la voie d’une singularité qu’il ne parvient pas à concilier avec les sphères managées de sa vie. Comment un cadre choyé, citoyen responsable, finit par s’éloigner de la norme qu’il avait toujours embrassée avec enthousiasme et ne plus répondre aux attentes de son épouse, de sa jeune fille, de ses chefs. Combien, alors que les choix explicites de parcours semblaient évidents et sereins, il est difficile d’accepter que la rupture survienne, et presque autant, de comprendre pourquoi. Quelle place pour le renoncement, et qu’arrive-t-il quand on renonce ? «