Débat sur le potentiel des nouvelles normes Internet IPv6

Le changement de protocole informatique de l’Internet mondial, passant de la version 4 (IPv4) à la version 6 (IPv6) est, selon le Ministère fédéral de l’économie et de la technologie (BMWi), une étape importante de l’évolution technologique du réseau et des problématiques y afférant. Ainsi le BMWi a tenu le 26 janvier 2012 un atelier intitulé « Protocole Internet version 6 (IPv6) – Opportunités et défis pour la localisation des entreprises en Allemagne ». Cet atelier a traité des nouveaux modèles économiques rendus possible avec cette transformation de l’Internet, de son impact possible sur la future architecture des réseaux d’information mondiaux, de la sécurité et de la protection des données.

Stefan Kapferer, Secrétaire d’Etat au BMWi, soutient que « les décideurs du monde politique et des affaires sont bien avisés de s’intéresser de près à cette question stratégique du déploiement mondial de nouvelles normes de diffusion sur Internet, car il implique des changements profonds pour de nombreux domaines de l’Internet et de l’économie de l’information et des télécommunications. Cela ouvre des possibilités de nouveaux modèles d’affaires, mais aussi de nouveaux défis à surmonter tels que la protection des données ou la sécurité informatique. »

Avec ce nouveau protocole, il est possible d’accorder des domaines et des adresses Internet de façon quasi illimitée, et ainsi soutenir l’émergence de nouveaux champs d’application et de leur interaction, ce qui pourrait avoir un fort impact sur la croissance. On parle dans ce contexte d’Internet des objets ou Internet des services, se référant à des concepts naissants tels que les maisons intelligentes ou les compteurs énergétiques intelligents, dans lesquels les différentes données captées sont gérées en adaptation continue avec les données extérieures du réseau.

Le gouvernement fédéral se sent aussi impliqué par le passage à cette nouvelle norme Internet et notamment pour son propre réseau informatique, qui a déjà été victime d’attaques. Cependant, beaucoup de questions restent ouvertes, à savoir quel impact aura ce changement sur l’accès aux données, s’il sera adopté d’une manière harmonisée, ou quels seront les facteurs déterminants pour que les entreprises allemandes participent de manière proactive à ce développement, en tant que concepteurs et utilisateurs de technologies électroniques.

Le but du BMWi était avec cet atelier de dresser un panorama sur le développement de l’IPv6 et de discuter avec des experts de l’industrie et du milieu universitaire sur la façon d’en tirer le meilleur avantage économique pour les acteurs allemands (entreprises, gouvernement, recherche), ainsi que les défis implicites pour la protection des données et la sécurité informatique. A partir des résultats de ces discussions, des propositions d’action devraient être annoncées prochainement par les parties prenantes afin de permettre une approche systémique de cette question considérée comme importante en Allemagne.

L’ISO 19011 version 2012 : quelles nouveautés ?

Pour rappel, l’ISO 19011, parue en 2002, fait partie de la famille des normes qualité avec ses trois sœurs : l’ISO 9000, « le Larousse » de la qualité ; l’ISO 9001, définissant les exigences certifiables pour les systèmes de management de la qualité ; et l’ISO 9004 pour la gestion des performances durables de l’organisme.

Cette deuxième édition de la NF EN ISO 19011 annule et remplace la NF EN ISO 19011:2002 qui a fait l’objet d’une révision technique. Les principales différences entre les versions de 2002 et 2011 de la NF EN ISO 19011 sont les suivantes :

  • le domaine d’application de la présente Norme internationale qui se limitait dans la version précédente à l’audit des systèmes de management de la qualité et de management environnemental, concerne cette fois l’audit de tous les systèmes de management quels qu’ils soient ;
  • la relation entre la NF EN ISO 19011 et la NF EN ISO/CEI 17021 est clarifiée ;
  • les méthodes d’audit à distance et le concept de risque sont introduits ;
  • la confidentialité est ajoutée comme nouveau principe ;
  • les Articles 5, 6 et 7 ont été réorganisés ;
  • une nouvelle Annexe B contient les informations supplémentaires, ce qui a conduit à la suppression des textes encadrés ;
  • le processus de détermination et d’évaluation des compétences est renforcé ;
  • une nouvelle Annexe A présente des exemples illustratifs des connaissances et aptitudes spécifiques à la discipline.

Et dans le détail, qu’en est-il ? S’agit-il d’une simple évolution, un « toilettage » ou peut-on parler d’une révolution ?

1. Un domaine d’application élargi et clarifié

Cette nouvelle mouture, s’adresse à tous les utilisateurs s’intéressant à la réalisation des audits des systèmes de management, qu’ils soient internes (première partie), portant sur les fournisseurs (deuxième partie) ou pour les audits tierce partie (à titre de bonnes pratiques). On notera que pour la réalisation des audits tierce partie, c’est toujours la norme NF EN ISO/CEI 17021:2011 qui définit les « règles du jeu ». Les interactions entre ces deux référentiels s’éclaircissent donc, si tant est qu’un doute subsistait…

L’ISO 19001 ne spécifie par d’exigences (certifiables) mais fournit des lignes directrices sur le management d’un programme d’audit, la planification et la réalisation d’un audit du système de management, ainsi que sur la compétence et l’évaluation d’un auditeur et d’une équipe d’audit.

Ces 10 dernières années ont été marquées par l’émergence des systèmes de management intégrés, s’appuyant sur de nouvelles normes de management telles que l’ISO 26000, l’ISO 31000, l’ISO 22000, l’ISO 27001, l’ISO 13485, l’ISO 15189, etc… la liste est longue ! Il était donc devenu nécessaire, tant dans son appellation, que dans son domaine d’application de l’étendre à ces nouveaux systèmes de management.

En résumé, sur ce point, hormis le changement de nom, il n’y a pas de différence notable en terme de lignes directrices. 

2. Introduction de la notion de risque

Ca y est… La notion de risque est enfin clairement introduite dans la famille des normes qualité !

L’approche adoptée se rapporte à la fois au risque que le processus d’audit n’atteint pas ses objectifs et à l’éventualité que l’audit influe sur les activités et les processus de l’audité.

On a droit, au passage, à une définition plutôt laconique du terme « risque », à savoir qu’il s’agit de l’effet de l’incertitude sur les objectifs.

Concrètement, cette notion de risque est intervient à trois reprises :

  • lors de l’élaboration du programme des audits (§ 5.3.4), où il convient d’évaluer les risques qui pourraient compromettre l’atteinte des objectifs du programme ;
  • lors de la préparation de l’audit (§ 6.3.2), où il convient d’identifier les risques liés à la réalisation des audits pour les entités auditées. Il s’agit ici dans risques liés à la santé, l’environnement, la qualité des produits ou services, …
  • lors de la réalisation de l’audit lui-même (§ 6.4), où l’équipe d’audit doit présenter (en réunion d’ouverture) la conduite à tenir en cas de risque généré par l’audit pour les équipes auditées et communiquer aux audités si un risque immédiat et significatif est détecté lors des entretiens.

En résumé, il est conseillé de faire évoluer vos procédures d’audit pour y intégrer cette évaluation des risques et des actions entreprises pour limiter / réduire ces risques. La revue du programme d’audit (planning des audits) doit dorénavant intégrer l’évaluation des risques et de l’efficacité des mesures prises pour traiter ces derniers. Du côté des compétences, les auditeurs doivent à présent (si tel n’était pas le cas…) être capables de comprendre et d’évaluer les différents types de risques liés à l’audit.

Cette notion, à donc une importance particulière, qui ne bouleversera pas celles et ceux qui étaient déjà orientés « risque » mais qui devrait améliorer les pratiques d’audit pour les autres…

3. Introduction des méthodes d’audit à distance

Sur ce point, l’annexe B vient préciser quelques méthodes d’audit à distance, applicables si un niveau de confiance suffisant existe entre l’auditeur et le personnel de l’audité. En résumé, on n’y apprend rien de très surprenant mais cela reste un rappel utile…

4. Ajout du principe de confidentialité

Bien que la précédente version insistait sur les principes déontologiques de l’auditeur, la version 2012 accorde un traitement privilégié et nécessaire à cette notion de confidentialité. En effet, les audits sont des vecteurs de risque en ce qui concerne la maîtrise de la propriété intellectuelle des entreprises. Qu’à cela ne tienne, l’auditeur est donc en garde sur le respect de la confidentialité : un rappel utile !

Concrètement, la procédure d’audit (interne et/ou fournisseurs) doit prévoir les modalités visant à garantir la confidentialité et la sécurité des données obtenues avant, pendant et après l’audit et un rappel à ce sujet devra être évoqué lors de la réunion d’ouverture. Le plan d’audit pourra également inclure une déclaration de confidentialité afin de rassurer les audités…

5. Des exemples, encore des exemples !

Pour celles et ceux qui, comme moi, sont avides d’exemples concrets et pratiques, vous en aurez pour votre argent !

En effet, l’annexe A propose de nombreux exemples concrets en ce qui concerne les connaissances et aptitudes spécifiques à la discipline des auditeurs sur diverses thématiques :

  • le management de sécurité des transports ;
  • le management environnemental ;
  • le management de la qualité ;
  • le management des enregistrements ;
  • le management des résilience, sûreté, état de préparation et continuité ;
  • la sûreté des informations ;
  • le management de la santé et de la sécurité au travail.

L’annexe B, quant à elle, vient fournir de précieuses informations complémentaires pour la planification et la réalisation des audits :

  • Application des méthodes d’audit ;
  • Choix des sources d’information ;
  • Réalisation de la revue des documents ;
  • Préparation des documents de travail ;
  • Échantillonnage ;
  • Visites du site de l’audité ;
  • Conduite des entretiens ;
  • Constatations d’audit.

Ces informations étaient, pour la plupart, présentes sous forme d’encadrés dans la précédente version. Cette nouvelle approche facilite  grandement la lecture de la norme. Il s’agit d’un plus non négligeable !

En conclusion

Si certaines évolutions normatives peuvent laisser perplexe, comme l’ISO 9001:2008, l’ISO 19011:2012 est sans conteste une excellente surprise en ce début d’année. Pour répondre à la question posée en préambule, on ne peut pas vraiment parler de révolution mais d’une évolution nécessaire et donc bienvenue.

Pour 86 € HT, vous ferez un excellent investissement, qui, sur votre table de chevet, vous tiendra compagnie durant les longues soirées d’hiver !

___

Pour information, son homologue internationale, l’ISO 19011, est disponible depuis novembre 2011 mais vous devrait débourser 36 € de plus. Ne me demandez pas pourquoi, je n’ai pas la réponse…

 

Par Jérémy Cicéro, responsable et auteur du Qualiblog

 

Jérémy CICÉRO

Jérémy Cicéro est consultant, formateur, et auditeur ICA pour le Qualipole Languedoc-Roussillon. Il est aussi formateur pour le Laboratoire National de Métrologie et d’Essai (LNE).

Ancien commercial puis responsable qualité dans les poids et mesures, il accompagne depuis plusieurs années les TPE et PME de la région Languedoc-Roussillon (tous secteurs d’activités) pour la mise en place et l’amélioration de leurs systèmes de management.

Il intervient également comme expert qualité sur le site Manager-Go! en répondant aux questions des internautes soucieux de comprendre les mécanismes de la qualité.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Mortel Management

L’auteur (dirigeant d’une compagnie d’assurances) offre au lecteur un roman à clés, mettant en scène l’état-major d’une grande entreprise, en proie aux déviances psychologiques dont souffre le management post-moderne : le harcèlement moral, les dérives technocratiques, les détournements de procédures, la manipulation de l’information…

Au-travers d’une intrigue policière originale, l’auteur réalise une radioscopie sans concession d‘une direction d’entreprise et se livre implicitement à une étude clinique de l’organisation névrotique, suivant une démarche empruntée à Kets de Vries et à Miller.

Il montre comment les personnalités pathologiques influencent les modes de management de l’entreprise, comment une entreprise saine peut être un mélange de pathologies, et comment des idéaux du moi hétérogènes sont plutôt un facteur de stabilité.

Un roman policier rédigé dans un style percutant à lire parallèlement au DSM IV (diagnostic and statistical manual of mental desorders), destiné aux cadres d’aujourd’hui et encore plus de demain.

Mortel Management
Christian OYARBIDE
Editea , 252 pages.

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ingénieur manager

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

 

 
 
 
 

Nucléaire : l’ASN recommande une meilleure « robustesse » des centrales

L’ASN, qui a remis dans la matinée au Premier ministre l’audit de sûreté demandé après la catastrophe de Fukushima du 11 mars dernier, a donné six mois aux exploitants de centrales pour lui présenter les mesures prévues en cas de catastrophe.

Le but est notamment de maintenir la sûreté des installations en cas de catastrophe majeure (séismes, inondations, ou conjonction de plusieurs phénomènes extrêmes), de « limiter les rejets massifs dans un scénario d’accident » et de « permettre à l’exploitant d’assurer les missions qui lui incombent dans la gestion d’une crise ».

Le coût s’annonce important pour les producteurs et il devrait se répercuter sur le prix de l’électricité: « nous imposons des mesures qui se traduisent par des investissements massifs. Si des exploitants, EDF ou un autre, jugent que ce qu’on demande est tellement onéreux, à eux de voir si l’exploitation en vaut encore la peine », a relevé le président de l’ASN, André-Claude Lacoste.

« Je vois mal comment des investissements de plusieurs milliards d’euros ne pourraient pas se traduire sur le prix de revient », a-t-il dit.

« Il n’y pas d’évaluation précise parce que ce n’est pas mon métier mais il faut compter quelques milliards pour les diesels d’ultime secours, quelques milliards pour les bunkers de salles de commandes », a ajouté André-Claude Lacoste, qui donne aux exploitants (EDF, Areva, CEA, etc.) six mois pour lui détailler les mesures à prendre.

« Les exploitants proposeront à l’ASN avant le 30 juin 2012 le contenu et les spécifications du noyau dur de chaque installation » : locaux et moyens matériels de gestion de crise, moyens de communication et d’alerte, groupe électrogène protégé et alimentation en eau d’ultime secours pour chacun des 59 réacteurs français.

« Force d’action rapide »

Le gendarme du nucléaire demande en outre la mise en place progressive, à partir de cette année, d’une « force d’action rapide nucléaire », un dispositif d’urgence permettant d’envoyer des équipes spécialisées et du matériel sur un site accidenté en moins de 24 heures. Ce dispositif devra être « complètement opérationnel » fin 2014, insiste l’ASN.

Le Premier ministre, François Fillon, a assuré que le gouvernement veillerait auprès des exploitants à ce que « l’intégralité des demandes » de l’ASN soit respectée « dans le calendrier qui leur est imposé ».

Après l’accident de Fukushima, le cas de la centrale de Fessenheim, la plus ancienne de France – entrée en service en 1977 – avait cristallisé la polémique sur la sécurité nucléaire, de nombreuses organisations écologistes en réclamant la fermeture.

Interrogé mardi sur la centrale alsacienne, André-Claude Lacoste a expliqué qu’il n’y avait « pas de demandes spécifiques » pour elle au-delà de celles déjà préconisées à l’issue de la visite décennale.

En juillet dernier, l’ASN avait estimé que l’exploitation du réacteur N°1 de cette centrale pouvait continuer dix années supplémentaires sous réserve de lourds travaux. Un avis qui n’intégrait toutefois pas les résultats des tests plus poussés demandés par le gouvernement après Fukushima.

Pour l’organisation anti-nucléaire Observatoire du nucléaire, cet audit de sûreté n’est qu’un « subterfuge au résultat déjà connu » : l’ASN ne préconise aucune fermeture « malgré la dangerosité évidente de toutes les centrales ».

L’ASN « n’est absolument pas indépendante » et « joue au contraire le rôle qui lui a été confié par le gouvernement : faire croire à la population que la sûreté nucléaire peut être assurée », affirme l’organisation dans un communiqué.

Le rapport de l’ASN sera disponible sur le site du gouvernement (gouvernement.fr).

(Source et crédit photo : AFP)

 

À lire aussi :

Si l’ASN recommande de fermer Fessenheim, « nous fermons, bien sûr », déclare Nathalie Kosciusko-Morizet

Un audit va être réalisé sur le parc nucléaire français

L’avenir du nucléaire au cœur des débats politiques

Matériaux du nucléaire

Le bon fonctionnement des installations nucléaires nécessite la maîtrise des problèmes soulevés par le comportement des matériaux utilisés pour leur construction. Par rapport à d’autres domaines, les conditions du nucléaire sont spécifiques sur deux points particuliers : l’irradiation et ses effets sur les propriétés des matériaux ; les longues durées en jeu qui nécessitent une prévision du comportement et du vieillissement des matériaux à long, voire à très long terme.

 

Lire la suite

Effets de la radioactivité sur l’homme à long terme

Quels sont les effets sur le long terme des doses diffuses ? Ceux-ci sont plus délicats à quantifier que les effets à court terme. Je suivrais pour en expliquer les effets le raisonnement de Richard Muller dans son cours « physics for future presidents ». On considère qu’une exposition à 25 Sv a 100 % de chances d’induire un cancer. Cela peut sembler paradoxale puisqu’on a vu que l’on meurt très rapidement « par empoisonnement » à partir de 10 Sv. La solution de ce paradoxe est dans ce qu’on appelle l’hypothèse linéaire : on suppose qu’il est équivalent de soumettre 1 personne à 25 Sv et 25 000 personnes à 1 mSv. Cela peut sembler absurde et cette hypothèse est souvent remise en cause par les spécialistes. Cependant, il faut bien garder à l’esprit que l’apparition d’un cancer n’est pas « systématique » et qu’il faut raisonner de manière statistique.

En application du principe de précaution, les organismes nationaux et internationaux utilisent cette hypothèse pour quantifier les conséquences des expositions aux faibles doses de radioactivité. Sans rentrer dans la controverse (parfois violente), nous retiendrons cette hypothèse et allons en explorer les conséquences.

Pour 25 000 personnes soumises à 1 mSv, statistiquement, 1 personne développera 1 cancer

On pourra également retenir que l’exposition à 1 mSv augmente notre probabilité d’avoir un cancer de 1/25000 soit 0,004 %.

Voyons les conséquences de cette hypothèse. En France, la dose environnementale annuelle reçue du fait de la radioactivité naturelle et médicale est de 3 à 4 mSv par individus (avec de fortes variations selon l’endroit où l’on vit, son métier, etc.). Soit une dose de 3,5×60 millions = 210 millions mSv reçue annuellement en France. Cela provoque donc à priori 210 millions divisé par 25 000 = 8 400 cancers par an. Ce chiffre peut sembler énorme mais il est encore loin derrière les 66 000 décès par an lié au tabagisme. Il est également à comparer à la probabilité de mourir d’un cancer qui est de l’ordre de 25 % (moins pour les femmes et plus pour les hommes). 8400 personnes souffrant d’un cancer représente 0,014 % de la population totale. Cela veut donc dire que l’environnement radioactif participe de 0,014 % au 25 % de risque d’avoir un cancer.

Autre exemple d’application de l’hypothèse énoncée plus haut : chacun d’entre nous est radioactif (du fait entre autre du carbone 14 et du potassium 14). La dose reçue est d’environ 0,25 mSv/an. Le risque de cancer par auto-contamination est donc de 0,25×0,004=0,001 %. Ce chiffre est insignifiant devant le risque naturel. Cependant, il signifie malgré tout qu’environ 600 personnes développent un cancer auto-induit en France chaque année !

Combien de personnes sont mortes à Hiroshima des conséquences à long terme de la radioactivité ? Selon Richard Muller, moins de 1 %. Cela peut paraitre paradoxale mais voyons le raisonnement : à part les personnes loin du centre de l’explosion, très peu de personnes ont survécus aux effets conventionnels de la bombe (effet thermique de l’explosion sous la forme d’une boule de feu) et aux effets à court terme d’une exposition à la radioactivité. Les meilleurs estimations donnent 52 000 survivants qui ont reçu une dose moyenne de 200 mSv. Cela induit que 200×52000=10 400 000 mSv ont été reçues. En divisant par 25 000 on arrive à 416 cancers soit 0,8 % des 52 000 survivants. On estime le nombre de victimes d’Hiroshima entre 50 000 et 150 000, il y a donc eu moins de 1 % de mort par cancer du fait de la bombe.

L’exemple de Tchernobyl

Un dernier exemple très controversé, ce qui nous permettra de voir les limites de ce raisonnement : les conséquences de l’accident de Tchernobyl. En 1986, l’un des réacteur de la centrale nucléaire de Tchernobyl explose du fait d’une succession d’erreurs humaines (voir le descriptif de l’accident sur le site astrosurf). Des matériaux radioactifs furent dégagés dans l’atmosphère et se dispersèrent dans toute l’europe (voir l’image satellite ci-contre). On estime que l’humanité a reçu une dose de 600 000 000 mSv. Cet accident aurait donc induit 600 000 000/25 000 = 24 000 cancers (il s’agit d’une estimation grossière, qui relève plus de l’ordre de grandeur que du décompte exact des cancers). Mais ses conséquences ne s’arrêtent pas là. En effet, ces considérations statistiques ne décompte que les cancers directement induits par la radioactivité et ne prennent pas en compte le processus de mutation génétique (pathologies cardiaques, diabètes, naissances difformes, etc.) qui peut se répercuter de générations en générations, affectant plus particulièrement les enfants, 20 ans après la catastrophe (voir par exemple cet article sur le site d’UNICEF).

Il est évident que les conséquences d’une radio-exposition sont complexes. Inhaler des poussières radio-actives n’a pas les mêmes conséquences qu’une exposition à la radioactivité par la peau. Certains organes sont plus sensibles que d’autres, certains sujet également (en particulier les enfants, les adolescents et les femmes enceintes). Les considérations statistiques ne prennent pas en compte les individus (par définition) et lorsqu’on dit que telle exposition induit 100 cancers de plus que la normalité ce qui est insignifiant statistiquement, c’est toujours 100 cancers de trop, surtout si un choix politique permet de les éviter. Néanmoins, ces estimations permettent de donner une idée des conséquences d’une exposition à une faible dose de radioactivité. Sans minimiser les effets d’une catastrophe du type Tchernobyl, elles permettent de relativiser les effets de la radioactivité naturelle : vivre dans une belle maison en granit rose a certainement beaucoup plus de conséquences positives que de conséquences négatives liées à l’activité radioactive du granit (qui contient des traces d’uranium).

Par Cédric Lémery

Source : http://lewebpedagogique.com/physique/les-effets-biologiques-de-la-radioactivite-ii-les-effets-a-long-terme/

Mesure de la radioactivité : « Nous payons encore aujourd’hui la catastrophe de Tchernobyl »

Techniques de l’Ingénieur : Pour commencer, pourriez-vous nous présenter le SESURE et le réseau Téléray ?

Nathalie Chaptal Gradoz : Le SESURE est le service qui gère les programmes de surveillance radiologique sur le territoire français. Cette surveillance s’effectue notamment au moyen d’appareils installés sur le terrain. Ces moyens dits « fixes » peuvent être des sondes ou des appareils de prélèvement automatique de poussière de l’air ou dans l’eau.  

D’autre part, nous réalisons des prélèvements manuels dans l’environnement proche de l’installation nucléaire ainsi qu’à distance de celle-ci, afin de mesurer la radioactivité générale ambiante, ce qu’on appelle « le bruit de fond », et l’impact de la centrale sur son environnement.

Parmi les moyens fixes, il y a le réseau d’alerte Téléray, constitué aujourd’hui de 185 sondes qui mesurent le débit de dose gamma ambiant dans l’air sur le territoire. Nous avons également un autre réseau très similaire installé dans l’eau des grands fleuves, en aval de toute installation nucléaire. Ceci afin de garantir une qualité radiologique des eaux qui quittent le territoire national.

Pour en revenir au réseau Téléray, les 185 sondes ont été installées à partir de 1991, suite au retour d’expérience de l’accident de Tchernobyl. Il y a 4 ou 5 ans, nous avons entamé un programme de rénovation de ce réseau, basé sur le constat que les sondes avaient atteint l’âge de 20 ans. Ces progrès technologiques se sont accompagnés de progrès dans la transmission des données, avec l’avènement de nouveaux réseaux et la constitution de bases de données plus solides.

Concrètement, une sonde Téléray calcule toutes les 10 minutes le débit de dose gamma ambiant dans l’air. Chaque sonde possède une mémoire telle que l’ensemble de ses données peut être archivé. En temps réel, les données sont transmises à notre système de supervision situé au Vésinet (78).

Si un écart à une gamme de variabilité attendue des données est enregistré, le système de supervision va immédiatement informer le personnel d’astreinte (24h/24) par le biais d’une alerte. Cette même personne est ensuite chargée de la gestion de l’alarme, et de la compréhension de la source du problème.

Parfois, ce sont juste des raisons liées à la météo. Certains orages sont capables de générer une élévation du taux de radioactivité ambiante, et donc de déclencher une alarme radiologique sans qu’il y ait pour autant une alerte.

Pourriez-vous nous en dire plus sur la procédure de gestion des alertes ?

Comme je vous l’ai dit, dans l’équipe de télésurveillance, il y a toujours une personne d’astreinte 24h/24, durant une semaine. En cas d’alarme, le système de supervision développé et mis en service depuis 2011, permet à cette personne de voir rapidement s’il s’agit d’une valeur ponctuelle, si les sondes à proximité ont enregistré une valeur anormale ou pas, etc. Cela permet d’évacuer tout de suite un certain nombre d’hypothèses.

Nous avons également un correspondant local, qui va être contacté et qui va procéder à quelques vérifications techniques.

Si en dépit de toutes ces raisons, nous ne parvenons pas à diagnostiquer un évènement ponctuel naturel, alors nous alertons en interne. Nous avons de fait une procédure pouvant conduire jusqu’à alerter un cadre d’astreinte à l’IRSN et jusqu’au début d’un gréement en situation de crise, au niveau national.

Vous parliez du seuil d’alerte. Sur quels critères est-il établi ?

En fonction de son implantation, une sonde va enregistrer, par exemple, une valeur moyenne constante de 100 nanosieverts par heure, correspondant au bruit de fond de la radioactivité naturelle à cet endroit-là. Le seuil d’alerte va alors être établi à 114 nanosieverts par heure de plus. Pourquoi ? Parce que si vous faites le calcul, au bout d’une année, vous aller arriver à 1 millisievert, et 1 millisievert correspond précisément à la valeur limite annuelle d’exposition du public à la radioactivité artificielle.

En raison des conditions météorologiques, on a parfois des pics qui dépassent facilement 200 nanosieverts. Si cela dure 5 minutes et que c’est une cause naturelle, ce n’est pas inquiétant.

Alors certes, le système veille, mais l’équipe de télésurveillance n’attend pas que l’alarme soit déclenchée pour être vigilante. Surtout si elle est avertie d’un danger quelque part.

Le seuil d’1 millisievert n’a donc jamais été atteint ?

Non, et heureusement. L’impact des activités nucléaires est seulement de quelques microsieverts par an. Le site de La Hague, par exemple, produit au maximum une dizaine de microsieverts par an de radioactivité ajoutée. On est donc très loin du 1 millisievert.

Quel a été l’impact du passage du panache radioactif de Fukushima en mars 2011 ?

Compte tenu de la distance par rapport au Japon, et de la dilution dans les masses d’air suite à un demi-tour du globe, le passage du panache de Fukushima n’a pas été visible sur nos sondes. Il aurait fallu être à une distance beaucoup plus proche du Japon pour détecter quelque chose.

En revanche, aux abords de l’installation de la centrale de Fukushima, il y a eu effectivement des variations très intenses du débit de dose. Nous avions installé une sonde à l’ambassade de France à Tokyo, par chance, juste avant les rejets importants qui ont eu lieu aux alentours du 20 mars. Avant l’accident, elle oscillait entre 50 et 60 nanosieverts par heure, durant le rejet elle est montée jusqu’à 160 nanosieverts par heure, pour revenir ensuite aux alentours de 80.

Ce seuil d’alerte d’ 1 millisievert est-il partagé par d’autres organismes de radiosurveillance en Europe ?

Au lendemain de l’accident de Tchernobyl, de nombreux pays européens se sont dotés de capteurs de télémesure de la radioactivité gamma, mais chaque pays a décidé de sa couverture géographique et de la densité de capteurs qu’il allait installer sur son territoire. Par exemple, l’Allemagne a installé plus de 2000 capteurs alors que la France n’en a installé que 170.

Les technologies utilisées en Europe et les stratégies d’implantation sont très variées. Cela dépend aussi si le pays est nucléarisé ou pas, si la crainte provient d’un réacteur étranger ou national, etc.

La stratégie de surveillance en France ne s’applique donc pas forcément à un autre pays européen. A ce titre, chaque pays peut librement fixer ses seuils d’alerte. La France fait partie des seuils les plus bas d’Europe. La Commission européenne incite néanmoins l’ensemble des états membres à harmoniser les mesures et les pratiques.

Aujourd’hui, nous avons 185 sondes Téléray, et nous allons passer progressivement à 450 sondes. Jusqu’ici, nous avons installé une sonde dans chaque préfecture départementale, afin d’assurer une surveillance homogène du territoire. Par ailleurs, nous avons également une sonde Téléray installée dans l’environnement proche de chaque installation nucléaire, à 1 kilomètre sous les vents dominants.

L’implantation des sondes Téléray autour des installations nucléaires va donc se densifier. Plus précisément dans la zone qui se situe entre 10 et 30 kilomètres autour de l’installation. Pourquoi ne commencer qu’à 10 km ? Parce que dans la zone entre 0 et 10 km, ce sont les exploitants nucléaires qui ont l’obligation d’installer un certain nombre de sondes de mesure du débit de dose.

La salle de pilotage de la télésurveillance est située au Vésinet. Nos sondes y sont supervisées en temps réel. Il en va de même avec les sondes EDF dont les mesures nous sont également accessibles en temps réel.

Si une sonde tombe en panne, quel est le temps moyen mis pour la remplacer ?

C’est variable. Le premier niveau d’intervention est notre correspondant local à qui l’on va demander de faire quelques vérifications techniques. Ensuite, si cela est nécessaire, nos techniciens vont se déplacer pour remplacer ou réparer la sonde défectueuse. Si c’est une simple réparation, cela peut être très rapide. Le remplacement d’une sonde demande par contre plus de temps et peut être programmé à plus ou moins longue échéance, en fonction de son emplacement, de sa criticité, etc.

Durant la semaine qui a suivi la catastrophe de Fukushima, nous avions des sondes qui étaient défaillantes dans les DOM-TOM. Ces sondes ont toutes été réparées dans la semaine qui a suivi.

Quels sont les sites français dont la radioactivité naturelle est la plus importante ?

Certaines roches contiennent naturellement plus d’uranium, de thorium ou de potassium que d’autres. C’est le cas des Alpes, du Massif Central, de la Bretagne et de la Corse. Le niveau de radioactivité naturelle y est supérieur à celui qu’on pourrait trouver dans le bassin parisien par exemple. Le« bruit de fond » va se situer entre 150 et 180 nanosieverts par heure, alors qu’il sera de 60 à Paris.

De même, certaines sondes situées sur des sommets connaissent des records. Celle de l’Aiguille du Midi tourne en général entre 300 et 350 nanosieverts par heure.

Comment le public a-t-il accès aux données enregistrées par les sondes ?

Sur le site Internet de l’IRSN, vous cliquez sur l’onglet « Portail de la surveillance de la radioactivité dans l’environnement » ou vous entrez dans le navigateur de recherche l’adresse « sws.irsn.fr » qui vous amène sur une carte de France avec des points. Après avoir sélectionné « sondes du réseau Téléray », vous pouvez cliquer sur l’un des points pour avoir la chronique des mesures enregistrées sur cette sonde. Le site est mis à jour quotidiennement avec les données de la veille.

Lors de Fukushima, nous avions mis en ligne des valeurs rafraîchies plus rapidement que le lendemain pour les données de la veille. Aussi, nous avions dû ouvrir un site spécifique, le site habituel était victime d’une trop forte affluence.

Par ailleurs, il existe un autre site, celui du « Réseau National de Mesure de la Radioactivité dans l’Environnement ». Il rassemble non seulement les mesures de l’IRSN mais aussi les mesures d’autres acteurs du nucléaire, comme les exploitants ou des associations. Sur ce site, vous pouvez comparer les mesures d’EDF avec celles de l’IRSN, etc. C’est un site pluraliste, mais qui n’est mis à jour que mensuellement.

En Europe, je ne connais pas d’autre site équivalent au nôtre. Aux États Unis, non plus.

D’une certaine façon, nous payons encore la catastrophe de Tchernobyl dont ont découlé des incompréhensions entre le public et les autorités françaises. Il s’est créé un manque de confiance qui, nous l’espérons, va s’estomper avec le temps…

Vous parliez d’augmenter la densité du réseau Téléray, avez-vous d’autres projets en cours ?

Oui. Depuis 4, 5 ans, nous nous attelons à revisiter notre stratégie de surveillance de l’environnement. Celle-ci avait été mise en place après les tirs atmosphériques d’armes nucléaires dans les années 60 à 80. Les niveaux de radioactivité dans l’air étaient alors beaucoup plus importants que ceux d’aujourd’hui. Il y avait également le fait que ces équipements commençaient sérieusement à vieillir.

Le niveau de radioactivité étant moindre aujourd’hui, les équipements doivent être de plus en plus perfectionnés. Concernant les analyses en laboratoire, il faut également des appareils de mesure de la radioactivité plus puissants, capables de détecter des traces de radioactivité dans l’environnement.

Les gens ne se satisfont pas d’entendre « il n’y pas de danger sanitaire ». Ils veulent une valeur chiffrée de ce que représente la radioactivité artificielle. Cela pose donc le défi technique de trouver des moyens pour ne pas être en dessous de la limite de détection des appareils.

Par ailleurs, nous avons également le projet de changer un autre dispositif fixe que sont les cabines de prélèvement d’aérosols sur des filtres. Ces cabines vont être rénovées à partir de 2012 avec des appareils de nouvelle génération, dont le débit d’aspiration est plus important.

Propos recueillis par Carole Hamon

Nathalie Chaptal Gradoz est chef adjointe du Service d’Etude et de Surveillance de la Radioactivité dans l’Environnement (SESURE) à l’IRSN (Institut de Radioprotection et de Sûreté Nucléaire).

 

Pour aller plus loin :

Effets de la radioactivité sur l’homme à court terme

Un échantillon radioactif émet des radiations α ou β, c’est à dire qu’il émet des noyaux d’hélium (radiations α) ou des électrons (radiations β) à très grande vitesse. Les noyaux α sont « gros ». Ils provoquent de nombreux dégâts (comme un chien dans un jeu de quille) dans leur environnement mais sont facilement arrêtés : une simple feuille de carton suffit à les arrêter. Les électrons sont beaucoup plus petits et peuvent pénétrer très loin dans la matière (plusieurs mètres d’air, plusieurs centimètres de tissu vivant, ou plusieurs millimètres d’aluminium). Dans tous les cas, lorsqu’ils sont arrêtés par de la matière ils transmettent leur énergie à leur environnement. Lorsque ces projectiles frappent des êtres vivants, ils endommagent les molécules au cœur même de la cellule et cela peut avoir une influence sur son fonctionnement.

Il existe également les rayonnements ionisants X ou γ qui sont des rayonnements électromagnétiques (comme la lumière mais très énergétique et invisible à l’oeil) susceptibles d’arracher des électrons aux atomes et modifiant, une fois encore, la structure des molécules.

Les conséquences de ces modifications moléculaires au sein d’un environnement biologique (la cellule) sont multiples et dépendent de très nombreux facteurs. La dynamique cellulaire est susceptible d’éliminer les molécules modifiées (un peu à la manière d’un écosystème qui se régénère suite à une pollution), de sorte que le fonctionnement de la cellule n’est pas affecté. Il se peut également que le fonctionnement de la molécule soit perturbé et cela induit divers symptômes. On distingue deux types d’effets de la radioactivité sur un organisme vivant selon la dose auquel l’organisme a été soumis : les effets à court terme dans le cas des contamination intense et les effets à long terme dans le cas des contaminations diffuse (faible exposition mais en plusieurs fois).

Les premiers effets sont bien connus puisqu’ils ont pu être étudiés in situ lors d’explosions nucléaires ou dans l’industrie nucléaire. Les seconds sont plus difficiles à étudier car il faut un suivi des personnes exposées sur plusieurs années. D’autre part, nous sommes soumis à de la radioactivité naturelle en permanence et il est difficile de distinguer les différents facteurs inducteurs de pathologies.

figure : Dommages infligés à l’ADN par des rayonnements © UCAR University of Michigan

Les effets immédiats relèvent d’une forme d’empoisonnement à la radioactivité, c’est à dire que les symptômes observés dépendent de la dose reçue par la personne. Contrairement à l’activité radioactive d’une source qui est facile à mesurer, la dose reçue est plus difficile à quantifier. La mesure physique se fait en Gray qui sont des joules par kilogramme. Il s’agit donc d’une mesure de l’énergie reçue par unité de masse. Cette unité n’est pas très pertinente pour mesurer les conséquences biologiques d’une exposition à la radioactivité car de nombreux paramètres entrent en jeu : nature du rayonnement (α, β, γ ou X), nature des tissus exposés, etc. Deux nouvelles grandeurs ont donc été inventées pour « lisser » tout cela : la dose équivalente et la dose efficace. La dose équivalente prend en compte la nature du rayonnement (la radioactivité α a plus de conséquences que la β par exemple, rappelez-vous : les particules α sont grosses et font beaucoup de dégât). La dose efficace prend également en compte la nature des tissus affectés.

La différence est de taille entre ces deux grandeurs : pour une même dose d’exposition aux particules α, une ingestion de poussières radioactives a des conséquences désastreuses pour l’organisme alors qu’une exposition extérieure (par la peau) a de faibles conséquences puisqu’une fraction de millimètres de tissus humaines suffisent à arrêter le rayonnement. Cependant, nous n’allons pas rentrer dans ces considérations et nous allons explorer les effets de la radioactivité en supposant que c’est l’ensemble de l’organisme qui est exposé aux radiations. L’unité dans lequel s’exprime ces grandeurs est le Sievert (Sv) (on utilisait autrefois le rem : 1 Sv=100 rem) :

Pour une dose de 1 Sv à 2 Sv reçue en une seule fois, des effets commencent à être ressenti : nausées, perte des cheveux mais ceux-ci disparaissent quelques temps après l’exposition et aucune maladie à court terme n’est développée. Ces symptômes sont bien connues des personnes qui suivent une radiothérapie.

  • A partir de 3 Sv, le risque de mortalité est de 50 % dans les 60 jours (cela veut dire que la moitié des personnes qui ont été soumises à de telles radiations sont mortes dans les 60 jours). Cete dose est connue dans le monde médicale sous la dénomination DL50 (Dose létale 50 : 50 % des sujets exposés à cette dose de substances toxique sont décédées).
  • Au-delà de 10 Sv, les dommages sont irréversibles avec paralysie dans les heures qui suivent l’exposition et des chances de survie infimes.

Dans notre environnement quotidien, nous ne sommes jamais exposés à de telles doses (voir la carte ci-dessous). La radioactivité ambiante en France est telle que la dose reçue annuellement est en moyenne de 3 à 4 millièmes de Sv. Cette valeur est une moyenne qui prend en compte par ordre d’importance le Radon, gaz radioactif d’origine naturelle issu de la désintégration de l’uranium présent dans la croûte terrestre (40%), la médecine nucléaire (30%), la radioactivité naturelle de la terre (10%), les rayonnements cosmiques (10%) et notre propre radioactivité interne liée au potassium 40 et au carbone 14 (10%). Les effets à court terme de la radioactivité ne sont donc observés que dans des cas extrêmes : radiothérapie, accidents nucléaires (du type Tchernobyl) et explosions militaires. La carte ci-dessous montre la radioactivité naturelle d’origine tellurique (provenant de la terre) en mSv/an :

Par Cédric Lémery

Sources : http://lewebpedagogique.com/physique/about/

Le nucléaire au quotidien : quels dangers ?

La décision allemande de renoncer au nucléaire d’ici 2021 réjouit, bien entendu, les Grünen et la majorité des Verts Français. Elle doit réjouir aussi, sans nul doute les producteurs de gaz. En effet, la question du remplacement des réacteurs nucléaires n’est guère abordée par nos amis allemands. Tout le monde convient qu’à l’heure actuelle la seule énergie compétitive avec l’énergie nucléaire est celle faisant appel aux combustibles fossiles, charbon et gaz. Les effets d’annonce concernant le recours à des énergies renouvelables ou à des économies d’énergie jouent, en fait, le rôle de cache-sexe. Si les allemands avaient cru sérieusement à la possibilité de se passer du nucléaire sans recourir aux énergies fossiles, il leur aurait été possible de s’engager à ne remplacer en aucun cas les centrales nucléaires par des centrales à combustible fossile. Alors, oui, on aurait pu se réjouir sans arrière pensée. La décision allemande, en réalité, consiste à faire le choix des combustibles fossiles de préférence au nucléaire. Ce choix est il de nature à réjouir ceux qui ont pour souci l’avenir de notre planète ?

Il faut donc comparer les inconvénients du nucléaire et ceux des combustibles fossiles producteurs de gaz à effet de serre.

Les dangers du nucléaire

Ceux du nucléaire sont bien connus : risques d’accident grave, irradiation diffuse, risques liés à la gestion des déchets, risques de prolifération. Si ces risques existent bien, ils sont, en général, largement grossis par les opposants systématiques au nucléaire et suscitent des réactions de peur tout à fait disproportionnées dans une large part de la population, ceux-là utilisant sans vergogne celles-ci. Il est, bien sûr, hors de question de les étudier en détail ici, mais quelques réflexions permettant de les remettre à leur vraie place me semblent utiles. Rappelons, tout d’abord, que nous baignons tous dans une radioactivité naturelle dont l’intensité varie de plus d’un facteur 5 d’un endroit de la planète à un autre. Aucun effet nocif de la radioactivité naturelle n’a jamais pu être démontré. C’est grâce à l’existence de cette radioactivité naturelle (qui a les mêmes caractéristiques que la radioactivité artificielle), que l’industrie nucléaire a été une des premières à pouvoir mettre en oeuvre le principe de précaution : en limitant le surcroît d’irradiation dû aux activités humaines à une fraction de la radioactivité naturelle, on peut être sûr que l’effet sur la santé du public sera négligeable.

Ceux qui affirment que toute dose de radiation, aussi faible soit-elle, est dangereuse pour la santé sont soit menteurs, soit ignorants, et, par là même, manipulés. Pour fixer les idées sur la dangerosité des radiations et sur la signification des normes d’exposition considérées comme acceptables, les tableaux suivants comparent les risques dûs à l’irradiation à ceux entraînés par la consommation de tabac. Rappelons que le tabac cause environ 60000 décès chaque année en France et que les Français fument environ 5 milliards de paquets de cigarettes annuellement. On peut donc estimer que la probabilité d’un décès prématuré, essentiellement par cancer, due à la consommation de tabac est de l’ordre de 10-5 par paquet de cigarette. En ce qui concerne les effets des radiations la Commission Internationale de Protection contre les Radiations retient un taux de 4 x 10-2 par Sievert pour la probabilité d’induction dun cancer mortel. La comparaison entre radiations et fumée de cigarette est pertinente puisque, dans les deux cas, l’effet principal sur la santé est un accroissement de l’incidence des cancers.

  • Comparaison de certaines expositions aux radiations aux effets de la fumée de cigarettes (tableau1) :
  Dose annuelle en millisievert  Équivalent en paquets de cigarettes par an
Total Irradiation naturelle 3 15
Radon 2 10
Rayons cosmiques 0.3 1.5
Rayons X médicaux 0.4 2
Habiter à 2000m 0.6 4
Irradiation du public due aux Centrales nucléaires   0.0005 0.0025
Irradiation moyenne en France due à Tchernobyl dans la première année suivant l’accident 0.05 0.25
  • Comparaison des doses admissibles d’irradiation aux effets de la fumée de cigarettes (tableau2) :
    Dose maximale en millisieverts/an Équivalent en paquets de cigarettes/an
Professionnels 20 100
Public 1 5
Limite d’évacuation autour de Tchernobyl 5 25

L’équivalence présentée dans les tableaux 1 et 2 permet de souligner, une fois encore, le fait que l’application sans précaution de la relation linéaire entre doses et effets à des évaluations de nombre de décès dûs aux radiations à faibles doses heurte le bon sens : on considérerait, en effet, qu’il serait équivalent qu’un seul individu fume dix mille paquets de cigarettes ou que dix mille individus fument chacun un paquet ! Muni de cette équivalence, il est possible de mieux apprécier la nature des problèmes posés par l’énergie nucléaire.

Les risques d’accident grave

Deux accidents graves servent, actuellement de référence : Three Miles Island (TMI) et, surtout, Tchernobyl. Dans le premier cas on n’a à déplorer aucun décès. Deux opérateurs ont été significativement irradiés. Aucune irradiation du public n’a eu lieu. Malgré cela, et pour diverses raisons qu’il serait trop long d’expliciter ici, TMI a marqué la fin de la mise en chantier de nouveaux réacteurs aux USA. L’accident de TMI a créé une véritable panique aux USA, entraînant, entre autres conséquences, la perte de confiance vis à vis des experts nucléaires. L’absence de victimes n’a eu, à cet égard, aucune conséquence. Dune certaine façon on peut dire qu’après TMI l’approche du nucléaire est devenue complètement irrationnelle, la peur du nucléaire (paradoxalement c’est uniquement le nucléaire civil qui semble faire peur) prenant la place de l’ancestrale peur du loup.

La catastrophe de Tchernobyl a eu, bien sûr, une toute autre ampleur que TMI. Le bilan sanitaire reconnu, 15 ans après la catastrophe, s’établissait à 35 morts parmi les « liquidateurs » au moment ou peu de temps après l’accident et à 1 500 cancers de la thyroïde, essentiellement parmi les enfants. Parmi ces cancers trois s’étaient avérés mortels. Les cancers de la thyroïde ont été facilement attribués à l’irradiation par l’iode 131 qui se fixe préférentiellement sur cet organe et a une durée de vie de huit jours, car les cancers de la thyroïde sont normalement très rares chez les enfants. Les autres types de cancers sont beaucoup plus difficiles à attribuer spécifiquement à Tchernobyl car ils ne peuvent apparaître que comme une faible augmentation comprise entre 0 et 3% du nombre total de cancers apparaissant « normalement ». Environ 5 millions de personnes en Ukraine et Biélorussie vivent dans un fond de radiation plusieurs fois plus élevé que ne l’était celui dû à la radioactivité naturelle avant la catastrophe. Cette radioactivité supplémentaire est due au Cesium 137 dont la durée de vie est de trente ans. Sur une telle population le nombre attendu de cancers mortels se déclarant chaque année est de l’ordre de 20000, alors que le surcroît dû à Tchernobyl serait, au maximum, en utilisant la relation linéaire entre dose et effet, de l’ordre de 500 par an. Pour l’instant aucune augmentation significative n’a été observée. Bien qu’étant lourd ce bilan est très inférieur aux 200 000 à 500 000 morts que certains prophètes de malheur s’étaient plu à prophétiser. Ces mêmes prophètes ou leurs émules ont, récemment, fait valoir que 15 000 morts auraient été décomptés parmi les « liquidateurs », recevant, en l’occurrence, une confirmation de la bouche du Ministre Russe des catastrophes. Il se trouve que les tables de mortalité utilisées par les actuaires prévoient que 15 000 décès devraient être observés en 15 ans dans une population de 250 000 personnes âgées de 20 à 30 ans, représentative de celle des liquidateurs. Le nombre total de liquidateurs ayant été de 600 000, on voit que l’annonce de 15 000 décès parmi eux depuis 15 ans n’a pas grande signification, en l’absence de données plus précises sur la population concernée et les causes des décès. En toute hypothèse les conséquences de Tchernobyl pour les Ukrainiens et les Biélorusses seront bien inférieures à celles dues à la tabagie et à l’alcoolisme. La catastrophe de Tchernobyl est considérée comme l’archétype de la plus grave catastrophe du nucléaire civil envisageable. Les experts de la sûreté nucléaire considèrent que la probabilité pour qu’une catastrophe de cette ampleur puisse se produire avec les réacteurs de type occidental est de l’ordre de un millionième par réacteur et par année de fonctionnement. Pour la France, cela signifierait qu’un tel événement pourrait se produire tous les 20 000 ans. D’autres types d’accidents susceptibles de provoquer davantage de victimes (rupture de barrage, explosion d’un méthanier, incendie ou explosion chimique, chute de météorite, tempête tropicale, chute d’avion gros porteur, etc…) ont une bien plus grande probabilité de se produire. De même qu’une catastrophe nucléaire, tous ces accidents auraient des conséquences locales et(ou) régionales, mais, en aucun cas (à l’exception de la chute d’un très gros météorite), globale. En aucun cas la biosphère ne serait menacée, ni même aucune espèce particulière.

Les déchets nucléaires

Il est coutumier de faire de la question des déchets nucléaires la raison majeure militant en faveur de l’abandon du nucléaire civil. On insiste sur la longue durée de vie de ces déchets en oubliant de dire que, contrairement aux déchets chimiques, la dangerosité des déchets nucléaires est inversement proportionnelle à leur durée de vie : plus un noyau a une grande durée de vie, moins nombreuses sont ses désintégrations par unité de temps. Un exemple très éclairant est donné par la comparaison entre deux types d’iode radioactive : l’iode 131 (responsable des cancers de la thyroïde de Tchernobyl) dont la durée de vie est de huit jours environ, et l’iode 129 dont la durée de vie est d’environ 15 millions d’années. Cette grande différence de durée de vie fait que l’iode 129 est près d’un milliard de fois moins dangereux que l’iode 131. L’iode 129 est le déchet nucléaire dont la durée de vie est la plus longue. Il est produit par la fission de l’Uranium 235 qui a, lui, une durée de vie de 700 millions d’années. Pour 1000 noyaux de ce dernier qui fissionnent, seulement 3 noyaux d’iode sont produits. La « dangerosité » de l’iode 129 est donc du même ordre que celle du noyau d’Uranium 235 dont il est issu. D’une façon générale la fission réduit le nombre de noyaux radioactifs de grande durée de vie. Il est vrai que, dans les premiers milliers d’année, la « dangerosité » des déchets nucléaires est plus grande que celle des noyaux qui ont fissionné.

Jusqu’à quel point la radioactivité générée par ces déchets présente-t-elle un risque pour la biosphère ? A court terme la radioactivité des déchets nucléaires est bien confinée et sous contrôle, au point que les conséquences pour la santé des déchets stockés est extrêmement faible sinon nulle. La sûreté des stockages profonds ne pourrait, à l’évidence, qu’être bien meilleure encore que celle des stockages en surface ou sub-surface. On s’accorde, généralement, pour considérer que la radioactivité resterait confinée pendant au moins mille ans dans ces stockages profonds. Ceux-ci étant situés à des profondeurs de 500 à mille mètres, on peut comparer la radioactivité susceptible d’être déconfinée au bout de mille ans à celle des premiers mille mètres de la croûte terrestre. On trouve, ainsi (en l’absence de retraitement et d’incinération des déchets qui pourraient réduire leur dangerosité par un facteur 100), dans le cas de la France , que la radioactivité correspondant à 100 ans de production par 100 réacteurs (actuellement il y en a 57 en service en France) serait inférieure à un pour cent de la radioactivité naturelle de la croûte.

On voit donc que le stockage profond ne présente aucun danger dans le court et moyen terme (sauf accident de transport éventuel) pour les riverains, et que sur le long terme il ne constitue pas de risque au niveau global de la biosphère. Des risques locaux pourraient exister en admettant une intrusion fortuite dans un site particulier, par un forage, par exemple. Il faut remarquer que la grande durée de vie des déchets subsistant à l’horizon du millénaire fait que, dans le cas d’un déconfinement, ils se disperseront dans la biosphère avant de se désintégrer, ce qui devrait limiter les risques locaux. En conclusion on retrouve, en moins grave toutefois, les caractéristiques des accidents nucléaires en ce qui concerne le caractère local et, à la limite régional, des risques encourus et l’absence de conséquences au niveau global. La différence réside dans l’échelle de temps, et, là encore, un grain de bon sens tendrait à faire croire que, toutes choses étant égales par ailleurs, un danger se concrétisant éventuellement dans mille ou dix mille ans est préférable à un danger qui menace dès aujourd’hui ou dans le prochain siècle.

La question du traitement des déchets nucléaires illustre les incohérences et(ou) la mauvaise foi de la majorité des opposants au nucléaire. Tout d’abord il faut rappeler que, quoi qu’il arrive, il faudra bien trouver une solution raisonnable à la gestion des 200000 tonnes de combustibles irradiés qui auront été produits d’ici 2010, et ceci même en cas de sortie généralisée du nucléaire. Quelle est donc la solution à ce problème proposée par les partisans de la sortie du nucléaire ? Il est reconnu que les seules solutions possibles sont la transmutation des déchets dans des réacteurs nucléaires, éventuellement d’un type nouveau et (ou) l’enfouissement en site profond. Le stockage en surface ou sub-surface ne peut qu’être une solution d’attente. La transmutation exige le retraitement et l’irradiation en réacteur. Les opposants au nucléaire refusent la mise en oeuvre de ces procédés en exigeant l’arrêt des usines de retraitement et celui des réacteurs. Exit donc, selon eux, la possibilité de la transmutation. Il est d’ailleurs piquant de constater que les mêmes réclament, à juste titre, le tri sélectif de tous les déchets autres que nucléaires. Où est la logique ici ? La seule solution reste donc l’enfouissement en profondeur. Mais, nos opposants refusent, également et bruyamment, la réalisation des laboratoires souterrains qui devraient permettre la définition des meilleurs sites. Que faire alors, si ce n’est attendre un miracle ? Ou bien serait-ce que le sort des déchets n’intéresse les opposants au nucléaire que dans la mesure où il permet d’affoler les populations ?

Les dangers de prolifération

Les matériaux de base utilisés pour la fabrication de l’explosif nucléaire sont l’Uranium 235 et le Plutonium 239. L’Uranium 235 est présent dans l’Uranium naturel dans la proportion de 0.7%, alors qu’une concentration en cet isotope de plus de 90% est nécessaire pour la fabrication d’une bombe. Il s’en suit qu’il est nécessaire de procéder à une opération d’enrichissement isotopique. Jusque dans les années 70 deux techniques lourdes, onéreuses et grandes consommatrices de courant étaient utilisées : la séparation électromagnétique et la séparation par diffusion gazeuse. Désormais deux nouvelles techniques plus légères et plus discrètes sont devenues accessibles : la séparation par centrifugation gazeuse et la séparation par laser. En utilisant ces différentes méthodes, tout pays disposant des compétences humaines et d’un minimum de moyens est en mesure de produire suffisamment d’Uranium 235 hautement enrichi pour fabriquer plusieurs bombes. C’est ce qu’a fait le Pakistan récemment et ce que l’Irak était en train de faire. L’Irak ne possédait pas de réacteur. Le Pakistan possédait un réacteur de puissance de type canadien, mais n’utilisa pas ce réacteur pour produire la matière fissile nécessaire à ses premières bombes.

L’autre matériau fissile , le Plutonium 239, est produit dans des réacteurs. Tous les réacteurs fonctionnant avec de l’Uranium, naturel ou faiblement enrichi, produisent donc du Plutonium qu’il est relativement aisé d’extraire par des méthodes chimiques. En réalité, aucune des puissances nucléaires militaires n’est parvenue à ce stade en utilisant des réacteurs construits pour la production d’électricité. La démarche nucléaire civil vers nucléaire militaire ne s’est, donc, pas, à ma connaissance, produite. Au contraire, la démarche inverse du militaire vers le civil a été fréquente et explique certaines caractéristiques de l’industrie nucléaire civile qui ne se seraient peut être pas imposées sans cela : par exemple l’utilisation de l’Uranium enrichi dans les réacteurs à eau. Il est vrai, aussi, que des puissances nucléaires militaires ou ayant la volonté de le devenir ont géré des réacteurs de puissance pour en extraire du Plutonium de bonne qualité militaire. Ce fut le cas de la France avec les réacteurs graphite-gaz, et de l’Union Soviétique avec les réacteurs RMBK (type de Tchernobyl). En réalité il apparaît que les états désirant s’équiper de réacteurs de puissance commerciaux sont amenés à signer le traité de non-prolifération, et par là renoncent à la réalisation d’un armement nucléaire.

On voit donc qu’en ce qui concerne les États, les craintes de voir des centrales nucléaires civiles détournées à des fins militaires se sont avérées vaines, jusqu’à présent. Les États ayant décidé d’acquérir un armement nucléaire ont pu le faire s’ils possédaient les compétences humaines (physiciens, ingénieurs) et les moyens matériels pour le faire. En ce qui concerne des groupes terroristes qui voudraient pratiquer le chantage nucléaire, il est à craindre que l’effondrement de l’Union Soviétique leur ait déjà, malheureusement, donné les moyens de s’équiper.

En réalité, si l’on veut sérieusement éviter une conflagration nucléaire dont les conséquences éventuelles seraient sans commune mesure avec Tchernobyl, il faut s’attaquer fermement et fortement à l’armement nucléaire et l’on aimerait voir les anti-nucléaires montrer ne serait-ce qu’autant d’ardeur dans un combat contre les armements nucléaires des grandes puissances que contre l’industrie nucléaire civile ! Il est vrai que s’attaquer au lobby militaro-industriel est autrement difficile que de s’attaquer à un lobby nucléaire civil dont on aimerait savoir de qui et de quoi il se compose. D’ailleurs, comme nous allons le voir maintenant les « Verts » sont étrangement discrets à l’égard des vrais lobbys puissants comme celui des pétroliers.

Par P.T

Sources : CNRS, LSPC

Effets biologiques et sanitaires des rayonnements ionisants – Enseignements tirés des expositions humaines aux rayonnements ionisants

Les organismes humains sont soumis en permanence aux rayonnements ionisants. Ces expositions peuvent être d’origine naturelle, par inhalation de radon par exemple, médicales à des fins de diagnostic ou à visée thérapeutique, ou encore industrielles lors de rejets contrôlés de radionucléides dans l’environnement. Ces situations conduisent en général à des expositions à des doses faibles de rayonnement, décrites par l’UNSCEAR comme étant peu nocives pour la santé humaine. Par opposition à ces situations, des évènements accidentels peuvent conduire à une surexposition d’un nombre variable de personnes. Le suivi des personnes exposées est très informatif et a permis d’accroître les connaissances dans le domaine des effets sanitaires des rayonnements ionisants. Le texte présenté ci-après décrit quelques cas d’irradiations et de contaminations accidentelles et tente de mettre en lumière les enseignements tirés de ces expositions. L’objet de cet article n’est pas de traiter des dysfonctionnements humains ou techniques ayant conduit à de tels évènements, mais de s’arrêter sur l’apport de ces accidents à la connaissance générale des effets sanitaires des rayonnements ionisants et au développement de nouvelles thérapeutiques. Quelques exemples significatifs ont été sélectionnés, représentatifs de situations d’exposition accidentelle, professionnelle ou d’origine environnementale. À la fin de ce document, une attention particulière est portée au débat relatif aux effets des expositions à des faibles doses de rayonnements ionisants, dont l’issue pourrait éventuellement conduire à s’interroger sur la validité de certains concepts du système de radioprotection.

Lire la suite

L’indépendance énergétique que nous apporte le nucléaire est réelle

On cite souvent l’exemple de l’Allemagne, qui va sortir du nucléaire progressivement dans les prochaines années. Pourquoi la situation de la France est elle différente ?

La France n’a ni charbon, ni gaz, ni pétrole, contrairement à l’Allemagne, qui a elle beaucoup de charbon. Ainsi, la France ne peut pas miser sur les ressources de son sous-sol pour assurer son indépendance énergétique. Il a donc fallu se tourner vers d’autres solutions.

Pourquoi avoir choisi si massivement l’énergie nucléaire ?

L’indépendance énergétique que nous apporte le nucléaire est réelle, même si l’on importe l’uranium. On importe également du charbon, mais l’impact d’une hausse du prix de l’uranium aurait un impact infiniment moindre sur le prix de l’électricité qu’une hausse du prix du gaz ou du charbon. L’autre avantage de l’uranium est que c’est une source d’énergie concentrée.
A l’heure qu’il est, la France possède des stocks d’uranium permettant de produire de l’électricité pour plusieurs années, car les volumes à stocker sont très faibles. Si on prend l’exemple du pétrole par exemple, les stocks ont une durée de vie de quelques mois au plus. En ce qui concerne le gaz c’est encore moins.
Ainsi, la question de l’indépendance énergétique vis-à-vis de l’uranium ne se pose pas du tout de la même manière que pour les autres sources d’énergie. L’indépendance énergétique via le nucléaire a donc plus de consistance qu’avec les combustibles fossiles.

Quelles sont les estimations relatives aux réserves d’uranium mondiales ?

Les estimations concordent autour de 4 millions de tonnes de réserve prouvées. Le monde consomme environ 60 000 tonnes d’uranium chaque année. On a donc plus de 50 ans de réserve avec l’uranium trouvé pour le moment. Mais les ressources estimées seraient dix fois supérieures.
Mais les estimations ne sont pas la seule donnée à prendre en compte : si le nucléaire se développe de plus en plus, ce qui était très envisageable à un facteur multiplicatif de 4 à 5 avant Fukushima, ces chiffres seraient à revoir.
La Chine, par exemple, est toujours sur la base d’une commande de centaines de réacteurs pour les 50 ans à venir.

Pourrait-il y avoir pénurie d’uranium dans les prochaines années si l’industrie nucléaire se développe plus rapidement que prévu ?

Le problème de la ressource en uranium se règle avec la mise en œuvre des réacteurs de 4ème génération, dits réacteurs rapides, qui abaissent la consommation de l’uranium d’un facteur 100. L’exploitation de ces réacteurs sera plus chère, on le sait. Ce qu’on ne sait pas, c’est quelle va être l’évolution du prix de l’uranium dans les prochaines décennies. Ainsi, la question n’est pas tellement de savoir quand est-ce que l’on démarrera la production d’électricité via des réacteurs rapides, mais plutôt : A quel prix de l’uranium naturel démarrera-t-on l’exploitation des réacteurs rapides ? Et surtout si les réacteurs rapides atteindront les critères de sûreté nécessaires à leur commercialisation au niveau mondial.

Revenons à la situation actuelle. Comment jugez-vous le rapport de l’ASN rendu récemment ?

Le résumé me semble assez raisonnable : les réacteurs sont convenablement dimensionnés, mais il faut des améliorations en ce qui concerne les potentielles « gestions de crise ». ça semble cohérent suite à la catastrophe de Fukushima.

La catastrophe de Fukushima a donné lieu à une guerre des chiffres en matière d’exposition à la radioactivité…

On en revient toujours à la question des faibles doses et de la relation linéaire sans seuil. Les associations anti nucléaires se baseront toujours sur la relation linéaire sans seuil. Personnellement, j’ai l’impression qu’il y a de plus en plus d’études scientifiques qui montrent que la relation n’est pas linéaire sans seuil, mais les effets sont tellement faibles qu’avoir des études épidémiologiques pertinentes est quasiment impossible. Ce débat-là me paraît tronqué d’avance.

La gestion des déchets nucléaires est également un sujet sur lequel il n’y a pas de certitudes… Comment se déroule-t-elle à l’heure actuelle ?

Les déchets à longue vie, les plus dangereux, sont conditionnés sous forme de paquets de déchets à haute activité, vitrifiés, qui tiennent dans l’espace équivalent à une piscine. Ils sont entreposés à La Hague, sous trois où quatre mètres de béton. La loi de 2006 sur la gestion des déchets radioactifs donne rendez-vous en 2015 pour prendre une décision finale. Pour l’instant, on se dirige vers un enfouissement au sein d’une couche d’argile, en Haute Marne. D’autres solutions sont envisageables dans le futur si le nucléaire continue, comme la transmutation, c’est à dire la destruction en réacteur.

Propos recueillis par Pierre Thouverez

 

Revue du Web #19 : les vidéos de la semaine

Cette semaine, dans la revue du Web :

  • Que se passe-t-il lorsqu’on lâche un « Slinky » (le célèbre jouet en forme de ressort) allongé verticalement ? Réponse à l’aide d’une caméra enregistrant près de 300 images par seconde ;
  • De gigantesques bras robotiques, baptisés « slave arms », obéissent au doigt et à l’oeil de leur opérateur ;
  • Le « Pyro Board », sorte d’écran utilisant de petites flammes en guise de pixels ;
  • Une publicité virale pour une chaine de fast-food tex-mex, montre, en slow-motion, de nombreux objets détruits par un four à micro-ondes ;
  • Nissan a fabriqué un boitier auto-cicatrisant pour smartphone, après avoir mis au point une peinture automobile dont les propriétés sont identiques ;
  • Un doigt rendu super-hydrophobe, à l’aide d’un aérogel ;
  • « Flight Assembled Architecture », première installation entièrement réalisée par des robots quadricoptères ;
  • Enfin, le gadget (inutile) de la semaine : un drôle de circuit dont le « but » est de vous permettre de tourner les pages de votre journal…

Chute d’un « Slinky » au ralenti :

Pour débuter cette dix-neuvième revue du Web, commençons par une question : vous souvenez-vous des « Slinky » ? Inventé dans les années 1940 par Richard James, un ingénieur naval originaire de Philadelphie, en Pennsylvanie, le « Slinky » est un célèbre jouet en forme de ressort, ayant notamment la faculté de descendre les marches d’un escalier une fois lancé. Parfois baptisé « Ondamania », le Slinky peut aussi bien être métallique qu’en plastique, bien que cette dernière matière supporte finalement assez mal les déformations, rendant rapidement le ressort inutilisable.

La première vidéo, filmée à l’aide d’une caméra captant près de 300 images par seconde, montre la chute d’un Slinky allongé verticalement, tenu par Rod Cross, un prestigieux physicien et académicien de l’université de Sydney. Qu’observe-t-on ici ? Lorsque le professeur Rod Cross lâche le ressort, le bas du Slinky reste stationnaire, jusqu’à ce que le haut du Slinky le rejoigne, pour finalement tomber au sol. En d’autres termes, le bas du Slinky ne tombe que lorsque le ressort est comprimé.

En fait, le bas du ressort subit deux forces, son poids et la tension du ressort. Lorsque le Slinky est lâché, ces deux forces restent toujours équilibrées… jusqu’à ce que l’information de la chute, par le biais du changement de tension du ressort, parvienne tout en bas. Cette propagation de l’information est dépendante de la masse volumique et de la raideur.

Jetez un œil à l’expérience qui suit, où une balle de tennis se trouve suspendue au bas du Slinky, alors que l’on lâche à nouveau le dispositif : que se passe-t-il à votre avis ?
 

« Slave Arms », de gigantesques bras robotiques qui imitent les mouvements de l’opérateur :

Les ingénieurs de la société Raytheon-Sarcos, basée dans l’Utah, aux États-Unis, ont mis au point un système de bras robotiques capables de reproduire parfaitement les mouvements effectués par un opérateur, juché sur le dos de la machine. Ces bras sont montés sur une machine de type « Ditch Witch » modifiée, permettant à l’engin de se déplacer plus ou moins aisément.

Les mouvements sont reproduits avec une grande précision car les trois degrés de liberté du poignet, le degré de liberté du coude et les trois degrés de liberté de l’épaule sont scrupuleusement respectés par le robot. D’autre part, l’opérateur est à même de ressentir les différentes forces de résistance rencontrées par le robot, lui donnant un autre indice de ce qui est en train de se passer dans l’espace de travail, en dehors des simples indications visuelles.

Rappelant les différentes innovations et progrès dans le domaine des exosquelettes, « Slave Arms » ne requerrait pas d’entrainement spécifique, la prise en main étant automatique et totalement intuitive selon les concepteurs. Pourvus d’aimants ou de terminaisons plus classiques, ces bras semblent parfaits pour la manipulation d’objets lourds et légers, comme pour le travail en milieu dangereux ou pollué.

Le « Pyro Board », où de petites flammes font office de pixels :

Voici le « Pyro Board », une table sur laquelle de petites flammes alimentées par du gaz font office de pixels, là où un écran traditionnel utiliserait par exemple de petites LED. Cet écran réagit en fonction de la musique diffusée et se synchronise aussi bien sur le tempo que sur la hauteur des sons, grâce aux variations de pression dûes aux ondes sonores elles-mêmes. De ces variations résulte un graphisme et des dessins pour le moins étonnant.

Ce système est en quelque sorte une synthèse entre la plaque de Chladni et le tube de Rubens. La plaque de Chladni est une expérience assez connue en acoustique : une plaque saupoudrée de sable est mise à proximité d’un dispositif sonore, ou encore est frottée par un archer de violon. Les grains de sable s’agitent en raison de la vibration de la plaque, et se réfugient là où l’amplitude des vibrations est minimale, créant de curieux dessins symétriques. En voici une illustration :

Le tube de Rubens, quant à lui, est un tube perforé alimenté par du gaz, alors qu’un haut-parleur est placé juste en face d’une membrane souple, fermant l’une des extrémités du tube. En fonction de la pression acoustique locale, les flammes sont plus ou moins longues, permettant alors de visualiser les longueurs d’ondes sonores.

Une publicité virale qui met en scène un four à micro-ondes :

La chaîne de restauration rapide tex-mex « Moe’s Southwest Grill » a décidé de faire un peu parler d’elle, grâce à une vidéo publicitaire sur le point de devenir virale. Cette vidéo en slow-motion met en scène différents aliments (un œuf, une pastèque, une tomate, etc.) ou objets (allant d’une feuille d’aluminium à une ampoule, en passant par un bloc de savon d’une célèbre marque) malmenés par un four à micro-ondes.

Le rayonnement micro-ondes agite les molécules d’eau contenues dans les aliments, ce qui fait par exemple exploser l’œuf, lorsque la pression à l’intérieur de la coquille devient trop élevée. Le papier d’aluminium, qui est un conducteur électrique, voit des gradients du champ se créer à ses angles, occasionnant des arcs électriques. Images :

 

Un boîtier auto-cicatrisant pour smartphone :

Le constructeur automobile japonais, Nissan, va désormais investir le marché de la téléphonie mobile, en mettant à contribution quelques-unes des technologies développées au préalable pour la filière automobile.

En 2005, les ingénieurs de la firme japonaise ont mis au point une peinture unique en son genre, en collaboration avec l’Université de Tokyo et avec « Advanced Softmaterials », une société privée spécialisée dans les matériaux intelligents. Baptisée « Scratch Shield », cette peinture auto-cicatrisante est plus flexible et élastique, basée sur un mélange de plastique Acrylonitrile Butadiène Styrène (ABS) et de polyrotaxane, ce qui lui confère rigidité et une résistance accrue aux rayures.

Bien qu’il n’existe pas pour le moment de vidéo du boîtier pour smartphone, voici une vidéo de démonstration de la fameuse peinture auto-régénératrice, où l’on observe la lente disparition de rayures effectuées sur le capot d’une Infiniti.

Un doigt rendu super-hydrophobe :

La vidéo suivante nous montre un doigt qui, après de multiples immersions dans un petit récipient d’eau, reste désespérément sec…  Celui-ci a en effet été traité avec une substance super-hydrophobe qui lui permet de repousser les molécules d’eau, une fine couche se formant entre le doigt et le liquide. L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités imperméabilisantes, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également efficace pour lutter contre la corrosion.

« Flight Assembled Architecture », une installation entièrement créée par des quads :

La côte des quadricoptères ne cesse d’augmenter… L’Institut fédéral suisse de Technologie, impressionné par les résultats des programmes impliquant ces fameux robot volants, a décidé de les placer au cœur de leur dernier projet. L’équipe de chercheurs suisses a ainsi réussi à programmer un groupe de plusieurs de ces robots polyvalents afin de construire une structure de près de six mètres de haut, et ce de manière totalement indépendante, sans aucune implication humaine ultérieure.

Bien qu’ils ne savent pas (encore ?) se servir de mortier, cette expérience montre une fois de plus que les quadricoptères sont plus que capables de travailler de concert, ici dans le but de construire des structures précises prédéfinies, sans le moindre incident ou la plus petite erreur. Les briques utilisées ici ne sont faites que de mousse, mais le problème du poids reste mineur et aisément ajustable. Il serait donc tout à fait envisageable que nous puissions apercevoir, dans un futur proche, des robots de ce type sur des chantiers de construction.

L’art de la réaction en chaîne : tourner une page de son journal de manière inventive :

Pour conclure cette dix-neuvième revue du Web, voici un gadget totalement inutile, mais joliment inventif mis au point par Joseph Herscher, un artiste kinétique de 26 ans, vivant à Brooklyn et ayant grandi en Nouvelle-Zélande. Depuis plus de quatre ans, il s’inspire de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant la plupart une réaction en chaîne.

Il devient alors possible d’ériger l’absurde et l’inutile au rang de concept artistique. Ici, l’action de départ, l’artiste buvant son café, déclenche toute une série d’évènements impliquant le mouvement ou la chute de nombreux ustensiles et objets de toutes sortes, impliquant même un hamster. À la fin de la réaction en chaîne, c’est une simple page de journal qui se tourne…

En bonus, une fantastique vidéo du même artiste en hommage à Rube Goldberg, datant de 2008 :

M.R.

 

Encore plus de Revues du Web :

Revue du Web #18

Revue du Web #17

Revue du Web #16

Revue du Web #15

Revue du Web #14

Revue du Web #13

VAIMOS, le robot voilier intelligent, bat un nouveau record de distance

Conçu en partenariat avec l’ENSTA Bretagne, l’Ifremer et le Laboratoire de Physique des Océans (LPO), qui est une Unité Mixte de Recherche placée sous la tutelle du CNRS, de l’Ifremer, de l’IRD et de l’Université de Bretagne Occidentale, VAIMOS (Voilier Autonome Instrumenté de Mesures Océanographiques de Surface) a donc atteint son objectif qui était de tester la qualité des données recueillies et sa navigation, même si la distance à parcourir envisagée initialement était de 100 milles. Mais le réglage de la voile étant devenu moins performant, alors que dans le même temps un problème moteur s’est fait sentir sur le bateau suiveur, l’équipe préférant ne prendre aucun risque a donc décidé de stopper cette mission.

Pilote du projet, Olivier Ménage, ingénieur à l’Ifremer, s’est déclaré néanmoins très satisfait du comportement de VAIMOS. « Ce trajet de 105 km, le plus long jamais réalisé, a permis de démontrer ses performances en termes d’autonomie et de qualité de navigation », a-t-il expliqué, rappelant par ailleurs que les performances technologiques de ce robot voilier résident dans ses capteurs. Sa finalité est en effet de surveiller la qualité des eaux par un échantillonnage fin et continu de la couche superficielle de l’océan. Ainsi, lors de ce premier trajet entre Brest et Douarnenez, VAIMOS a effectué plus de 500 mesures de température, de salinité, d’oxygène et de turbidité. Cette mission a permis par ailleurs de collecter de nombreuses données de navigation en cours de traitement et de validation.

D’autres sorties en mer pourraient être programmées prochainement, avec peut être une navigation plus longue au printemps prochain, pour ce robot voilier long de 3,65 m de long pour un poids de 300 kg et dépourvu de moteur. VAIMOS est capable en effet de se déplacer seul selon des consignes données au moyen d’une propulsion vélique, c’est-à-dire utilisant la force du vent. L’éolienne à axe vertical qui est installée à son bord lui donne lui donne ainsi l’autonomie énergétique nécessaire pour fonctionner durant plusieurs semaines d’affilée. D’où la possibilité pour ce type de robot voilier de réaliser des missions longues de mesures et d’observation en milieu marin à faible coût. Mesures d’autant plus utiles qu’elles sont effectuées à deux niveaux : le premier décimètre et le premier mètre. A terme, un tel système pourrait ainsi venir en complément des systèmes de mesures utilisés actuellement.

(Source : http://www.bulletins-electroniques.com/actualites/68883.htm)

 

À lire aussi :

Un micro-robot qui flotte sur l’eau

DIAPORAMA – SeaOrbiter, le satellite des mers

Des câbles au lieu de bras pour le robot DeltaBot

Baromètre global de l’innovation 2012

Comment l’innovation est‐elle envisagée par les décideurs concernés sur toile de fond d’économie volatile ? Quels en sont les principaux moteurs, leviers et finalités ? L’environnement leur semble‐t-il suffisamment propice à l’innovation? A quels secteurs bénéficiera‐t‐elle en priorité ? Ce sont quelques‐unes des questions qui ont été posées à un panel de 2800 décideurs de 22 pays, dont la France (100 personnes interrogées), dans le cadre du Global Innovation Barometer 2012, réalisé par GE en partenariat avec Strategy One. Si des convergences apparaissent, ce Baromètre met clairement en évidence des spécificités françaises.

Environnement local : la France « peut mieux faire »

Au‐delà du climat global d’incertitude, 49% des décideurs français interrogés (contre 54% des Allemands et 58% des Américains) estiment l’environnement français peu favorable à l’émergence de l’innovation. Les décideurs français ne sont que 60% à constater une amélioration de l’environnement local au cours des cinq dernières années. La France figure à cet égard au rang des pays les moins optimistes devançant tout juste … les Etats‐Unis (50%), loin derrière la Grande‐Bretagne (68%) et, plus encore, l’Allemagne (84%). Le resserrement de l’accès au crédit est fortement ressenti. 77% font état de difficultés accrues pour lever les fonds nécessaires à la mise en place de l’innovation, 65% d’un accès plus difficile aux fonds publics. 76% notent un recul dans la culture du risque.

Finalité de l’innovation : une perception franco‐française

Gagner ses galons de leader et garder une longueur d’avance, faire émerger des solutions qui puissent bénéficier au plus grand nombre constituent les deux finalités majeures de l’innovation, pour respectivement 60% et 51% des sondés français. Une vision en décalage par rapport au reste du panel. 47% des autres interrogés (moyenne monde) la définissent comme le moyen de faire émerger de nouveaux process, produits, changements organisationnels ou marketing ; 42% la perçoivent comme une culture, un environnement qui promeut la créativité et le changement permanent.

 Innovation au XXIème siècle : une révolution mésestimée ? 

Ici aussi, la perception française s’avère différente. A la question « Pensez‐vous que les entreprises innoveront au XXIème siècle d’une manière radicalement différente du passé », seuls 58% des décideurs français répondent par l’affirmative, contre 80% pour le reste du monde.

 Le nouveau modèle d’innovation ? En partenariat, partagé et ouvert sur la société 

79% (86% pour le monde) des sondés considèrent les partenariats comme un levier essentiel. Pour 75%, les innovations majeures sont celles bénéficiant aux clients, à la société toute entière et 67% (contre 76%) valident l’idée qu’elles sont destinées, en priorité, à répondre aux besoins des citoyens plutôt qu’à créer du profit. La capacité de l’innovation à améliorer le quotidien des citoyens via les technologies de communication et la qualité des soins, fait très largement recette auprès des Français (respectivement 89% et 82%). Il en va de même s’agissant de son influence bénéfique sur la qualité de l’environnement, une évidence pour 88% des sondés. Sans doute faut‐il y voir en partie l’effet Grenelle. Mauvais point en revanche pour l’impact possible sur l’accès à l’éducation. Affichant un très net pessimisme par rapport aux autres sondés, ils ne sont que 47% (contre 78%) à y croire.

Une vision globale plutôt que locale

Constat étonnant, à la question « l’innovation doit‐elle être plus que jamais prendre en compte les besoins et spécificités locales des marchés ?», seuls 55% des Français interrogés répondent par l’affirmative (contre 78% de leurs homologues allemands). Ils partagent avec les Japonais (52%) et les Britanniques (56%) cette approche très globale en matière d’innovation.

Un fort capital confiance dans la capacité des PME à innover

Quasi unanimes, les Français sont 92% à voir dans les PME des locomotives pour l’innovation, figurant ainsi parmi les plus convaincus, avec les Brésiliens (94%),  les Mexicains (95%) et, étonnamment, loin devant les Allemands (70%). Ils partagent en revanche le même scepticisme que leurs homologues s’agissant du rôle joué à cet égard par les universités et les gouvernements, crédités respectivement de modestes 2% (4% pour le monde) et 1% (contre 3%).

L’énergie, la santé et les métiers industriels, 1ers bénéficiaires de l’innovation

Pour 23% des décideurs français, c’est le secteur de l’énergie (contre 16%), suivi de la santé, pour 15%, et les métiers de l’industrie en général qui sont les plus poussés par l’innovation. Les services financiers et la  distribution, apparaissent, quant à eux, en panne dans ce domaine, crédités d’un petit 3% (contre respectivement 7% et 6% pour l’ensemble des sondés).

L’innovation encore perçue comme concentrée dans les pays développés

Sans surprise, sur l’échelle de l’innovation, ce sont les Etats‐Unis (75% des avis français), l’Allemagne (58%) et le Japon (46%) qui tiennent la corde. Lorsqu’il s’agit de se situer, 75% estiment la réputation du pavillon français, en matière d’innovation, très bonne ou bonne, 23% la jugent plutôt  modeste, 7% insuffisante. 33% classent la France parmi trois meilleurs de la classe, devant la Chine (26%), en net décalage avec l’opinion des autres sondés, qui ne sont que7% à partager ce point de vue. La France s’inscrit de fait au 8ème rang du palmarès de l’innovation.

Quels sont les trois principaux facteurs qui favoriseraient l’innovation au quotidien ?

Les Français ne se démarquent pas notablement des autres nationalités à une exception près : 48% placent en tête le fait d’avoir des collaborateurs créatifs (56% pour le reste du monde), ensuite ils sont 31% à considérer comme facteur favorable à l’innovation le fait de disposer de davantage de  financements publics (contre 34%). A noter cependant que 44% font figurer, parmi les priorités, le besoin d’avoir des collaborateurs experts dans leur domaine de compétences (contre 49%).

Par P.T

Sources : GE France

 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

L’essentiel de Reach (janvier)

Conséquences de l’inclusion des polymères à REACH

Jusqu’à présent, en raison d’une innocuité supposée, les polymères n’étaient pas soumis au règlement REACH. Une révision de ce dernier devrait néanmoins bientôt les inclure. Aussi, l’Agence nationale de la recherche (ANR) a chargé la Société chimique de France (SCF) de constituer un groupe de travail pour anticiper les conséquences d’une telle inclusion et identifier les pistes de recherche à développer. Le groupe de travail vient de rendre son compte-rendu.
http://www.agence-nationale-recherche.fr/magazine/actualites/detail/rapport-du-groupe-de-travail-anr-scf-sur-reach-et-les-polymeres/
Pour télécharger l’article : http://www.lactualitechimique.org/larevue_article.php?cle=2670

REACH Factory, une nouvelle plateforme web

REACH Factory est une plateforme web développée par EcoMundo. Elle est constituée de six modules pouvant être utilisés individuellement ou associés les uns aux autres pour une conformité à 100 %. Créé par des experts en chimie, toxicologie et informatique, chaque module répond à une problématique REACH et s’intègre facilement à tout Système d’Information (SI). REACH Factory est continuellement mis à jour et représente l’une des plus importantes bases de données internationales sur les substances, matériaux et réglementations.
Trois modules permettent la gestion des données dans la supply chain :

  • USE-CASE Factory : collecte et transmission des cas d’utilisation dans la supply chain
  • SVHC Factory : traçabilité complète des SVHC dans les articles des fournisseurs
  • SDS Factory : mise à jour, traduction et communication des Fiches de Données de Sécurité

Les trois autres modules aident à la gestion des données en interne :

  • MAT Factory : inventaire multifonctions sur l’utilisation des substances, matériaux et réglementations REACH et internationales
  • SAFE Factory : protection des travailleurs et traçabilité de leur exposition
  • CLP Factory : classifications et étiquetage conformément au règlement CLP (GHS)

Pour plus d’informations, https://www.reach-factory.eu/

Film de l’INERIS sur les fiches de données de sécurité (FDS)

L’INERIS a réalisé fin 2011 une vidéo sur les fiches de données de sécurité. Cette vidéo a pour objectif de sensibiliser les utilisateurs des fiches de données de sécurité aux avantages et aux difficultés liées aux différents types d’utilisation de ces fiches.
http://www.ineris.fr/fr/informations/m%C3%A9diath%C3%A8que/Collection%20%22Les%20essentiels%22/

Conférence sur REACH et CLP le 1er mars 2012

(15/01/2012)
Les autorités de contrôle, les entreprises, et plus particulièrement les PME, les associations industrielles, les associations de travailleurs, les organisations non gouvernementales (ONG), les importateurs, les représentants exclusifs et les représentants des pays non-UE sont invités à examiner comment les règlements REACH et CLP sont appliquées dans l’UE, lors d’une conférence qui se tiendra à Bruxelles le 1er mars 2012.
Le nombre de participants est limité. La conférence est gratuite et l’inscription obligatoire sur : http://ec.europa.eu/enterprise/sectors/chemicals/reach/events/index_en.htm#h2-1
La deadline pour l’enregistrement est fixée au 15 février 2012.

Informations pour éviter les essais inutiles sur les animaux – 10 nouvelles substances concernées

(16/01/2012)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • 1,1′-isopropylidenebis(p-phényleneoxy)dipropane-2-ol (N° CAS : 116-37-0 et N° CE : 204-137-9)
  • 2-éthyl-N,N-bis(2-éthylhexyl)hexylamine (N° CAS : 1860-26-0 et N° CE : 217-461-0)
  • Acide borique (H3BO3), produits de réaction avec l’éthanolamine (N° CAS : 94095-04-2 et N° CE : 302-207-4)
  • Produits de réaction du 2-(4,6-bis(2,4-dimethylphenyl)-1,3,5-triazin-2-yl)-5-hydroxyphenol et du ((C10-16, rich in C12-13 alkyloxy)methyl)oxyrane (N° CE : 410-560-1)
  • Acide itaconique (N° CAS : 97-65-4 et N° CE : 202-599-6)
  • Cyclohexyldimethoxymethylsilane (N° CE : 402-140-1)

Les informations sur ces substances sont à soumettre pour le 1er mars 2012.
http://echa.europa.eu/information-on-chemicals/testing-proposals/current

L’inventaire des classifications et étiquetages des substances bientôt disponible

(18/01/2012)
L’ECHA lancera prochainement l’inventaire des substances notifiées et qui ont été enregistrée à ce jour par les fabricants et les importateurs. Le nouveau portail sur le site de l’ECHA sera à la disposition du public pendant la semaine du 13 Février 2012.

Registre d’intention : cinq nouvelles intentions

(18/01/2012)
5 nouvelles substances ont été inscrites au registre d’intention de la classification et d’étiquetage au 18 janvier : Hydroxymethylpentylcyclohexenecarboxaldehyde (N°CAS 31906-04-4), Linalool (N°CE 201-134-4), hexyl salicylate (N°CAS 6259-76-3), Cinnamyl alcohol (N°CAS 104-54-1) et Coumarin (N°CAS 91-64-5).

Nouveau règlement européen sur les Biocides

(19/01/2012)
Un nouveau règlement a été adopté par le Parlement européen le 19 janvier, instituant des contrôles plus stricts pour les produits phytosanitaires. Ce règlement permettra d’accroître la sécurité afin de protéger aux mieux l’environnement et la santé des personnes, et de simplifier la procédure d’autorisation des produits biocides utilisés et mis sur le marché dans l’Union européenne. Les produits traités « comme le mobilier traité aux fongicides ou les plans de travail de cuisine traités aux antibactériens» sont désormais inclus dans les règles et étiquetés. Par contre, les pesticides à usage agricole continuent d’être régis par des mesures européennes différentes. Les substances les plus dangereuses, quant à elles, devraient être interdites, sauf exception strictement contrôlée.
http://www.europarl.europa.eu/news/fr/headlines/content/20120106FCS34949/9/html/Des-contr%C3%B4les-plus-stricts-pour-les-produits-phytosanitaires

5181 Substances enregistrées

(20/01/2012)
La base de données de l’ECHA contient, à ce jour, 4209 substances et des informations provenant de 23 942 dossiers d’enregistrement REACH.
http://echa.europa.eu/web/guest/information-on-chemicals/registered-substances

Communication sur l’utilisation sûre des produits chimiques

(23/01/2012)
Le règlement CLP indique, dans son article 34, que l’ECHA avait jusqu’au 20 janvier 2012, pour réaliser une étude sur la communication au grand public d’information concernant la sécurité d’utilisation des substances et des mélanges, et sur la nécessité éventuelle de mentionner des informations supplémentaires sur les étiquettes.
Cette étude a été rendue publique le 23/01/2012. Retrouvez les détails sur :
http://echa.europa.eu/web/guest/view-article/-/journal_content/37a61697-8fbe-4766-baa6-22fdad2ba1f6
Lien vers l’étude : http://echa.europa.eu/documents/10162/17203/clp_study_en.pdf

Les représentants exclusifs peuvent également demander une autorisation

(24/01/2012)
En décembre 2011, les services de la Commission européenne ont informé l’ECHA qu’un représentant exclusif (OR – Only Representative) d’un fabricant non situé en zone UE, pouvait peut également demander l’autorisation. Suite à cela, l’ECHA a mis à jour des formulaires Web pour permettre aux OR d’envoyer leurs demandes. Pour plus d’informations, consultez la page suivante :
http://echa.europa.eu/web/guest/applying-for-authorisation

Deux guides traduits dans 22 langues

(24/01/2012)
L’ECHA vient de traduire deux guides dans 22 langues : le guide d’élaboration des fiches de données de sécurité (http://echa.europa.eu/documents/10162/17235/sds_fr.pdf) et le guide simplifié Identification et désignation des substances au titre de REACH et CLP (http://echa.europa.eu/documents/10162/17235/nutshell_guidance_substance_fr.pdf)

Trois nouvelles demandes de classification et d’étiquetage harmonisés

(25/01/2012)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de trois nouvelles substances :

  • cis-tricos-9-ene (N° CAS : 27519-02-4 et N° CE : 248-505-7)
  • 3-phenoxybenzyl-2-(4-ethoxyphenyl)-2-methylpropyl ether / Etofenprox  (N° CAS : 80844-07-1 et N° CE : 407-980-2)
  • Fenpyrazamine (N° CAS : 473798-59-3)

Les commentaires sont à soumettre avant le 12 mars 2012.
http://echa.europa.eu/web/guest/harmonised-classification-and-labelling-consultation

Poste à pourvoir à l’ECHA

L’ECHA a publié quatre nouvelles offres d’emploi. Elles peuvent être consultées à l’adresse http://echa.europa.eu/opportunities/positions_en.asp. Les dates limite d’envoi des candidatures sont fixées au 20 et 27 février 2012.

Registre d’intention : trois nouvelles intentions SVHC

(26/01/2012)
Trois nouvelles substances ont été inscrites au registre d’intention pour l’identification de futures substances SVHC : Di-n-pentyl phthalate (N°CE 205-017-9),  1,2-dimethoxyethane ethylene glycol dimethyl ether (EGDME ; N°CE 203-794-9)  et 2-bis (2-methoxyethoxy) ethane (TEGDME triglyme ; N°CE 203-977-3).

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Les effets de la catastrophe de Fukushima sur la santé (1/2)

Les mères de Fukushima avaient alerté le monde dès le mois de juin : les enfants avaient des saignements de nez, des diarrhées, de la toux, des thyroïdes enflées… Elles n’ont eu cesse d’informer et d’agir pour que tous les enfants soient évacués de la région de Fukushima. Encore dernièrement, elles se sont mobilisées à Tokyo pour sensibiliser la population, mais en vain pour l’instant. Pourtant, l’actualité semble leur donner raison. Un grand nombre d’informations convergentes indiquent que, suite à la catastrophe nucléaire, l’état général de la santé des Japonais vivant dans une vaste région correspondant au moins à 8 % du Japon est en train de se dégrader.

Tweet d’un habitant d’Ibaraki : « Je travaille dans un hôpital d’Ibaraki. Il y a eu des patients avec des saignements de nez perpétuels en avril. Il y en a eu sans raison avec de la diarrhée et de la fièvre en juillet. Maintenant même les membres du personnel de l’hôpital souffrent de diarrhée sans raison…Ça commence à craindre. » Tweet d’un habitant de Fukushima : « Mon ami vit à Iwakashi. Il vient finalement de commencer à avoir de l’hématurie (sang dans les urines). Mes petits enfants ont des saignements de nez. Ils ne peuvent évacuer parce qu’ils n’ont pas assez d’argent. »
Même si ces tweets n’ont aucune valeur statistique, ils se rencontrent de plus en plus souvent et sont à mettre en relation avec l’augmentation de certaines pathologies, visible sur ces graphiques mis en ligne par le gouvernement japonais : conjonctivites, pneumonies, et diverses autres maladies sont en nette augmentation en 2011.

Ci-dessous le tableau publié par le gouvernement japonais concernant les cas de pneumonies :

On avait déjà remarqué chez les enfants de Fukushima que leur thyroïde avait été affectée. Un groupe de chercheurs, sous la direction du Professeur Satoshi Tashiro de l’Université de Hiroshima, avait contrôlé la glande thyroïde de 1149 enfants de la préfecture juste après l’accident, en mars, de la centrale nucléaire. De l’iode 131 avait été détecté chez environ la moitié des enfants. Les enfants, que l’on a affublés de dosimètres, semblent ainsi être devenus des sujets de recherche ! Chez les jeunes évacués, on avait aussi remarqué des dysfonctionnements de la glande thyroïde. Plus au sud, dans la préfecture de Gunma, 80 % des patients atteints de problèmes thyroïdiens voient aujourd’hui leur état s’aggraver. Devant l’inquiétude et la pression des parents, une étude à grande échelle sur les problèmes de thyroïde a commencé le 10 octobre : 360 000 enfants de la région de Fukushima seront suivis de manière régulière tout au long de leur vie.

D’autres anomalies ont été remarquées pour ces enfants vivant en zone contaminée comme la perte de poids, le ralentissement ou l’arrêt de la croissance et même des attaques cardiaques, ce qui peut être mis en lien avec la grande toxicité du césium-137. L’ACRO, laboratoire français, a aussi fait des mises en garde à plusieurs reprises, à partir d’analyses effectuées sur l’urine des enfants de Fukushima : 100 % des prélèvements révèlent la présence des césiums radioactifs. Ainsi, plus de 4 mois après les rejets massifs de radioactivité dans l’environnement, ils étaient toujours contaminés alors que leurs parents font des efforts pour limiter cette contamination interne. Il est fort probable que cela soit dû à la nourriture.

Et pourtant, cette nourriture contaminée, on la vante et on en fait la promotion pour ne pas laisser tomber la région de Fukushima et son économie agricole. Mais… un présentateur vedette de la télévision japonaise, Norikazu Otsuka, qui mangeait des produits irradiés devant les caméras « pour montrer leur innocuité », a dernièrement été diagnostiqué par son médecin comme ayant contracté une leucémie aiguë.

L’empereur du Japon hospitalisé

Un autre promoteur et consommateur des légumes de Fukushima, l’empereur du Japon lui-même, vient également d’être hospitalisé, ainsi que deux autres membres de sa famille. Akihito souffre d’une pneumonie, la princesse Aiko a contracté une Mycoplasma pneumoniae, et la princesse Masako serait victime de fièvre et de toux : ils ont tous les trois des symptômes communs. Or la pneumonie, nous l’avons vu, est une maladie qui augmente fortement au Japon cette année ; Takeo Nishioka, Président de la Chambre des conseillers de la Diète du Japon est d’ailleurs décédé d’une pneumonie le 5 novembre 2011 à l’âge de 75 ans. Même si les cas de l’empereur et de sa famille n’auront pas forcément la même issue, on peut s’interroger sur ces cas à répétition. En avril, on tentait d’expliquer l’augmentation des cas de pneumonies dans la région de Tohoku par l’ingestion d’eau de mer : au moins 11 personnes étaient mortes de pneumonie et environ 150 avaient été hospitalisés dans la préfecture de Miyagi, le nombre de patients étant de cinq à six fois plus élevé que d’habitude. Mais aujourd’hui, comment expliquer cette augmentation ? Comme pour Tchernobyl, il est probable que les radionucléides, en contamination interne, provoquent ces maladies respiratoires.

Le problème, ce sont ces irresponsables qui se bousculent à la télévision japonaise pour faire croire aux gens que la situation n’est pas grave. Ainsi, d’après plusieurs scientifiques médiatisés, le plutonium ne serait pas si dangereux. La radioprotection pour tous n’est pas un concept avancé au Japon. Et la population, quand elle ne s’organise pas de manière autonome, en fait les frais. Une télévision alternative, OurPlanet-TV, informe de manière indépendante en diffusant des émissions sur le sujet même de la santé. Par exemple, en juillet dernier, l’émission ContAct a invité Mika Noro, présidente de l’association « Le pont pour Tchernobyl », qui a partagé son expérience : s’étant rendue au Bélarus en 1993 (pays le plus touché par les retombées radioactives de Tchernobyl), elle a éclairé avec lucidité et compétences les symptômes cliniques chez les enfants de Fukushima. Après la catastrophe de Fukushima, Our Planet-TV a lancé une enquête pour savoir si les retombées radioactives avaient eu des effets sur la santé de la population. Suite à cet appel, ils ont été amenés à étudier plus de 500 cas. Cette enquête met ainsi en évidence que la radioactivité, même à faible dose, a des effets réels sur la santé, ce qui était déjà connu par ailleurs avec la reconnaissance de l’augmentation du risque de cancer.

Dans cette vidéo sous-titrée en français, on voit entre autres le Dr Masamichi Nishio, chef  du centre anti-cancéreux d’Hokkaïdo commenter le livre de Yablokov et Nesterenko et témoigner que la  CIPR (Commission  Internationale contre les rayonnements) a renoncé à étudier les effets des radiations internes car cela aurait gêné le développement de l’industrie nucléaire.

Par Pierre Fetet

Source : http://fukushima.over-blog.fr/

 

A lire également :

Les effets de la catastrophe de Fukushima sur la santé (2/2)

Dans les écoles, le problème est identique. Dans le même esprit de se persuader que tout va bien dans le meilleur des mondes, on continue de fonctionner comme si de rien n’était. Par exemple, on demande aux enfants de nettoyer une piscine contaminée sans protection, ou on leur demande d’aller ramasser les feuilles d’automne sans précaution particulière alors que l’on sait parfaitement qu’elles sont contaminées au césium. Pire encore, on force les enfants à boire du lait contaminé. Et gare à celui qui ne veut pas. Le 29 septembre 2011, Akira Matsu du New Komeito (parti politique japonais NKP) est intervenue sur ce sujet devant les responsables gouvernementaux japonais et notamment Yoshihiko Noda, 1er Ministre, Osam Fujumina, chef de Cabinet du secrétariat et Yukio Edo, Ministre de l’industrie et de l’économie. Elle a dénoncé le cynisme et la barbarie du gouvernement envers les populations contaminées de la région de Fukushima.

Un autre grave problème qui se pose d’ores et déjà dans la région de Fukushima est la fuite du personnel médical depuis la catastrophe. C’est ainsi, les personnes les mieux informées des dangers sanitaires et qui ont les moyens de déménager s’en vont. Les autres restent, alors que de toute évidence il faudrait au moins évacuer les enfants, plus fragiles aux effets de la radioactivité. Le problème est immense mais il semble que l’on veuille à tout prix l’ignorer. 8 mois après la catastrophe, on ne pourra plus dire qu’on ne savait pas, ou qu’on n’a pas eu le temps de trouver des solutions pour évacuer la population.

La contamination est massive, le gouvernement le sait depuis les premiers jours de la catastrophe. Les premiers touchés ont été les sauveteurs qui ont opéré dans les régions dévastées par le tsunami, comme le relate ce témoignage : l’un d’entre eux qui était intervenu dans les zones sinistrées d’Iwate et Fukushima est décédé le 26 octobre 2011 d’une défaillance de la fonction rénale, trois mois après avoir appris que lui et les membres de son équipe avaient subi une contamination interne par les radionucléides. La personne qui témoigne assistait à une conférence de de Taro Yamada lors du  »Forum National des cantines scolaires » qui s’est tenu le 6 novembre 2011 dans la ville de Sapporo. Sa déclaration a été enregistrée dans la vidéo ci-dessous (sous-titrages en français). Mais pour une personne qui parle, combien se taisent ? Quel est l’état de santé des autres membres de son équipe ?

Les personnes les plus touchées sont évidemment les « liquidateurs », ces ouvriers de la centrale de Fukushima Daiichi qui reçoivent des doses « héroïques ». Malgré l’assurance de Tepco qui affirme qu’il n’y a pas de décès liés aux travaux de décontamination et de maintenance de ce qui reste de la centrale, on constate un fort taux de mortalité pour les ouvriers de la centrale, ce qui est en contradiction avec l’espérance de vie des Japonais qui est la plus élevée au monde. En l’espace de 5 mois, 4 employés sont morts de façon anormale et rapide : le 12 mai 2011, un sexagénaire employé par la sous-traitance s’est senti mal et est décédé 2 jours plus tard. Le 16 août 2011, un employé de la centrale nucléaire est mort d’une leucémie foudroyante. Il avait travaillé pour Tepco durant une semaine, affecté à la surveillance de points chauds. Le 6 octobre 2011, un autre travailleur employé à la centrale est décédé subitement. Enfin, dernier en date, le 11 octobre 2011, un employé d’une cinquantaine d’années est mort brusquement alors qu’il se rendait à son lieu de travail, la centrale de Fukushima Daiichi.

A ces décès, il faut ajouter tous ceux dont on ne parle pas : de nombreuses personnes, employées par la sous-traitance, ont disparu ainsi des décomptes de Tepco. L’agence de sûreté nucléaire, on se souvient, avait épinglé l’entreprise en juin car celle-ci avait « égaré » des listes d’employés vacataires qui étaient intervenus sur le site, empêchant tout suivi médical de 69 personnes contaminées.

Il n’en a pas fallu plus pour que des rumeurs circulent sur internet sur le décès effectif de ces ouvriers intérimaires, information impossible à vérifier à ce jour bien qu’un journaliste du Shukan Asahi, M. Imanishi, ait entendu que des ambulances arrivaient 10 fois par jour à la centrale. A qui étaient destinées ces ambulances, et pourquoi ni les employés de Tepco, ni les ouvriers hospitalisés, ni les médecins n’ont-ils le droit de parler ? Il est évident que si un jour un journaliste arrivait à prouver ce genre d’information, l’image du nucléaire serait ternie à jamais et anéantirait tous les efforts du lobby nucléaire pour cacher la vérité. Il est incroyable que la catastrophe de Tchernobyl n’ait d’ailleurs pas eu plus d’impact sur l’énergie nucléaire dans le monde. La raison en est que l’OMS, qui était la plus à même de prendre des mesures de protection des populations, s’est tue. Condamnée au silence par un vieil accord avec l’AIEA, elle est devenue une institution criminelle, laissant tomber malade les gens vivant dans les territoires contaminés, et niant les effets des faibles doses sur la santé humaine.

Il faut en effet savoir que Tchernobyl a généré un million de victimes, comme le rappelle Janette Sherman, biologiste américaine et spécialiste en toxicologie. Dans la vidéo ci-dessous, elle présente le livre déjà cité « Chernobyl. Consequences of the catastrophe for people and environnement » d’A. Yablokov et de V. et A. Nesterenko, édité en 2009 par  l’Académie des Sciences de New York avec plus de 5000 références scientifiques (et bientôt édité en français).

Les auteurs de ce livre estiment à 985 000 le nombre de décès survenus à cause de Tchernobyl dans le monde entier entre 1986 et 2004, chiffre qui a encore augmenté depuis cette date. Janette Sherman dénonce également l’accord entre l’OMS et l’AIEA, signé en 1959. L’OMS est théoriquement garante de la santé des populations dans le monde et fait autorité auprès des États membres. Elle devrait, conformément à sa Constitution, être indépendante de tout intérêt commercial. Pourtant le 28 mai 1959, elle a signé avec l’AIEA (Agence Internationale de l’Energie Atomique) un accord par lequel aucune de ces deux agences de l’ONU ne peut prendre de position publique qui puisse nuire aux intérêts de l’autre (accord référencé WHA 12-40). Or, l’AIEA a été constituée en 1957 pour faire la promotion du nucléaire civil…

Cet interview a été réalisé le 6 mars 2011 soit 5 jours avant la catastrophe de Fukushima. (Sous-titrage en français)

Il faut aussi voir pour être complet la conférence de presse donnée par le Dr. Helen Caldicott, physicienne australienne, auteure et avocate anti-nucléaire qui a fondé plusieurs associations qui luttent contre l’utilisation de l’énergie nucléaire, de l’uranium appauvri pour des munitions, et des armes nucléaires en général. La conférence s’est tenue à Montréal, au Canada, le 18 mars, une semaine seulement après la catastrophe nucléaire.

Fukushima est bien pire que Tchernobyl.

Il est certain que la situation ne va pas s’améliorer au Japon, l’expérience de Tchernobyl le démontre. Le fait de laisser vivre des millions de personnes dans un environnement contaminé apportera son lot de problèmes et de souffrances. Une grande sagesse a fait fuir de cette zone dangereuse beaucoup de femmes enceintes, protégeant leurs futurs enfants des radiations. Mais qu’en est-il de celles qui sont restées ? Que doit-on déduire du non-dit du milieu médical, relevé par Keiko Ichikawa ? Si les médecins japonais cachent les malformations et les enfants mort-nés, comment de réelles statistiques pourront-elles être établies ? On connaît déjà les dégâts épouvantables causés par l’uranium appauvri dus aux bombardements lors de la guerre en Irak, et on imagine avec effroi l’avenir des populations japonaises soumises à de fortes contaminations. La santé est un sujet difficile à aborder, le lobby nucléaire est très puissant dans le monde entier et cherchera à minimiser toutes les mauvaises nouvelles. Mais la santé n’a pas de prix et chacun doit se battre pour la conserver. Amis lecteurs, ce sujet est très grave, soyez vigilants et dénoncez toute désinformation, partout où vous le pouvez !

Par Pierre Fetet

Source : http://fukushima.over-blog.fr/

 

À lire aussi :

Les effets de la catastrophe de Fukushima sur la santé (1/2)

Fukushima : craintes de nouvelle réaction de fission à la centrale

Fukushima : les parents japonais vivent avec la crainte des radiations

Accident nucléaire de Fukushima : Causes et conséquences

Le Japon crée un fonds public pour indemniser les victimes de Fukushima

Niveau record de radiations à Fukushima

Fuskushima : des répercussions mondiales, en silence

Catastrophe de Fukushima : la décontamination reprend

Cahier « Nucléaire : Fukushima et après ? »

Si l’ASN recommande de fermer Fessenheim, « nous fermons, bien sûr », déclare Nathalie Kosciusko-Morizet

« Si l’ASN recommande la fermeture, nous fermons, bien sûr », a indiqué Nathalie Kosciusko-Morizet au sujet de la centrale nucléaire alsacienne, la plus ancienne du parc français.

« Je dis très clairement qu’il n’y a que deux solutions: soit l’autorité recommande la fermeture et il y a fermeture, soit elle recommande des travaux importants et à ce moment-là il y a le choix entre faire les travaux — et intégralement les travaux — ou fermer », a ajouté la ministre de l’Ecologie.

« Pour moi la sûreté nucléaire ne fait pas l’objet d’un échange économique. Il n’y a pas de travaux trop chers en matière de sûreté nucléaire ».

Ce constat vaut « pour toutes les centrales françaises », a précisé la ministre, rappelant que chaque installation française avait des caractéristiques locales propres en évoquant notamment les risques de submersion pour celle du Blayais, en Gironde, ou le risque sismique au Tricastin, dans la Drôme.

L’ASN a été chargée de réaliser, après la catastrophe nucléaire de Fukushima (Japon) en mars, un audit de sûreté sur l’ensemble des centrales nucléaires françaises.

Le Premier ministre, François Fillon, a assuré en décembre que le gouvernement respecterait l’ensemble des recommandations qu’elle formulerait.

Concernant Fessenheim, en service depuis 1977 et dotée de deux réacteurs d’une puissance de 900 mégawatts chacun, « ce n’est pas tant l’âge qui pose problème que certaines caractéristiques techniques locales particulières de la centrale », a estimé Nathalie Kosciusko-Morizet.

En juillet dernier, l’ASN avait estimé que l’exploitation du réacteur n°1 de cette centrale pouvait continuer dix années supplémentaires sous réserve de travaux. Un avis qui n’intégrait toutefois pas les résultats des tests plus poussés demandés par le gouvernement après Fukushima.

(Source et crédit photo : AFP)

 

À lire aussi :

Un audit va être réalisé sur le parc nucléaire français

L’avenir du nucléaire au cœur des débats politiques

Les effets de la catastrophe de Fukushima sur la santé (2/2)

L’avenir du nucléaire au cœur des débats politiques

Le PS et EELV parviennent à un accord équivoque

L’ « accord politique de mandature » PS-EELV valide le souhait de François Hollande de réduire la part du nucléaire dans le mix électrique français de 75 % à 50 % d’ici à 2025. À défaut d’inscrire une sortie définitive de l’atome dans l’accord, EELV se félicite de la fermeture « progressive » de 24 réacteurs et de l’arrêt « immédiat » de la centrale de Fessenheim, en cas de victoire en 2012.

En revanche, aucun accord n’a été trouvé au sujet du chantier de l’EPR à Flamanville. François Hollande s’était engagé à préserver la construction de la centrale de 3e génération tandis qu’Eva Joly avait préalablement estimé qu’aucun accord ne serait possible entre les deux partis sans son arrêt.

Un certain flou(1) persiste au sujet de la « reconversion à emploi constant » programmée pour la filière de retraitement et de fabrication du combustible MOX. Ce point suscite l’inquiétude d’Areva, producteur de près de 95 % du MOX dans le monde.

Le gouvernement compte sur « Énergies 2050 »

Le gouvernement effectue actuellement un exercice de prospective à l’horizon 2050, dit « Énergies 2050 ». Celui-ci vise à envisager l’ensemble des scénarios énergétiques, y compris ceux intégrant un passage à la 4e génération de réacteurs nucléaires ou au contraire une sortie du nucléaire.  Il est coordonné depuis le 20 octobre par une commission pluraliste présidée par Jacques Percebois, économiste reconnu dans le domaine de l’énergie. Un rapport sera remis à Eric Besson avant le 31 janvier 2012 et permettra de préparer la prochaine programmation pluriannuelle des investissements, qui sera soumise aux parlementaires en 2013.

Chaque scénario intègre trois paramètres centraux : les prix de l’énergie, la protection de l’environnement et la sécurité d’approvisionnement de la France. Ces trois paramètres soutiennent souvent l’argumentaire de l’UMP en faveur de l’énergie nucléaire.

D’autres partis misent sur un référendum

Au FN, Marine Le Pen se prononce pour une sortie du nucléaire tout en concédant que la France ne peut actuellement se passer de cette source de production. Elle envisage la possibilité d’un référendum sur ce sujet, tout comme Jean-Luc Mélenchon au Front de Gauche.

La proposition de Dominique de Villepin d’un « Grenelle de l’Énergie » témoigne qu’à droite comme à gauche, chacun cherche un mix énergétique idéal sans parvenir à l’identifier clairement. Quitte à faire primer le jeu politique sur un examen impartial des options qui s’offrent à la France à moyen et long terme.

(1) Ce point a été retiré de la version de l’accord présentée aux journalistes.

(Source : Fondation Alcen pour la Connaissance des Énergies)

 

À lire aussi :

Astrid : futur réacteur nucléaire de 4e génération

Accident nucléaire de Fukushima : Causes et conséquences

Sortie du nucléaire : l’Allemagne couvre tout juste ses besoins

Transport des matières radioactives du cycle du combustible

Le transport de matières radioactives est un domaine complexe où se conjuguent des matières, des emballages, des moyens de transport, des réglementations, et la voie publique. La sûreté du transport repose principalement sur le colis lui-même, dont la conception fait appel à toutes les techniques de l’ingénieur. La sévérité de la réglementation associée à son application rigoureuse fait que le bilan de sûreté du transport de matières radioactives est excellent.

 

Lire la suite

Kodak : Ô image, ô désespoir !

Faute d’impulser les nécessaires ruptures dans sa vision d’entreprise et de capter avec volontarisme les tendances émergentes du marché, Kodak est proche de rejoindre le cimetière des éléphants. Extrême-onction programmée ou renaissance possible ?

L’illusion de la marque toute-puissante

Parmi les grandes entreprises (surtout celles qui sont numéro 1 de leur secteur), personne ne l’admettra ouvertement mais l’illusion est pourtant largement répandue dans les instances dirigeantes : la marque peut tout, la marque fait tout, la marque est tout, telle une locomotive tirant l’organisation et ses produits sur les rails de la performance et du succès sans que rien ne puisse enrayer la triomphale marche en avant.
Il est évident que disposer de marques signifiantes est un atout fondamental qui aide à émerger de la mêlée concurrentielle et à recueillir la faveur des clients grâce aux attributs et aux bénéfices que ces derniers vous accordent. Encore faut-il avoir la capacité de nourrir et de continuellement faire évoluer cette essence de marque ? Sinon, la sanction se profile à plus ou moins long terme avec en guise d’épilogue fatal, l’éternelle histoire des fabricants de diligences qui ne sont jamais devenus des constructeurs automobiles.

Formulée ainsi, cette remarque semble d’une telle évidence qu’elle pourrait même confiner au truisme. Et pourtant, comme d’autres prestigieuses marques aujourd’hui disparues ou ringardisées, Kodak n’a jamais su insuffler un sang nouveau dans sa stratégie commerciale et communicante afin de demeurer cet acteur qui fixa sur films et papiers photo des milliards d’instants de vie de plusieurs générations familiales. A l’heure où le numérique commençait à poindre dans le marché photographique, celui qui révolutionna littéralement la prise de vue photographique au détour des années 1880 avec ses incomparables pellicules argentiques issues du cerveau génial de George Eastman, s’est alors assoupie sur la puissance jusque-là inégalée de sa marque.

Une marque à l’ADN profondément emblématique

En 1995, point culminant de son apogée, Kodak pesait un chiffre d’affaires de 15 milliards de dollars et exerçait un leadership incontestable dans l’industrie de la photo en ayant réussi à relever tous les challenges que ce soit la diversification dans l’imagerie médicale, le micro-fil ou la vente de petits appareils photo pour le grand public. La marque est ultra-influente dès qu’il s’agit de photo. En France, qui ne se souvient pas des espiègles galopins « voleurs de couleurs » cavalant dans le spot publicitaire décalé conçu par le réalisateur Jean-Paul Goude. Les « Kodakettes » vont ainsi incarner pendant plusieurs années un sympathique vent de fraîcheur et de vie dans l’univers de la photographie.

Kodak est d’autant plus fort auprès de ses clients professionnels et amateurs que la marque est le témoin photographique exclusif de plusieurs temps forts de l’histoire de l’humanité au 20ème siècle tout en accumulant les innovations technologiques. Dans son ADN, la marque est ainsi intrinsèquement liée à l’histoire du cinéma. Elle permet notamment à l’inventeur Thomas Edison de concevoir en 1891 la première caméra cinématographique. Elle empilera ensuite les Oscars à Hollywood pour la qualité du rendu chromatique de ses pellicules. En France, elle forme une société commune avec le cinéaste Charles Pathé à l’orée des années 30. Kodak marque tout aussi fortement de son empreinte le front du journalisme. C’est sur une de ses toutes premières pellicules couleur qu’est enregistrée en 1936 la catastrophe du dirigeable Hindenburgh à New York. La suite sera à l’aune de cet exploit technique : l’ascension de l’Everest en 1953, l’assassinat du président Kennedy en 1963, la conquête de la Lune en 1969 sont tour à tour immortalisés par des produits Kodak.

La marque américaine cultive même un paradoxe suprême. Alors même que c’est le numérique qui a creusé au final le gouffre décliniste de Kodak, c’est pourtant cette dernière qui en est l’inventrice patentée dans la photo. En 1975, elle met au point le premier appareil photo numérique qui capture des photos avec une résolution de 10 000 pixels. Un centième de ce que proposent actuellement les smartphones mais à l’époque, c’est un tour de force que Kodak s’empresse de consolider en brevetant de nouvelles fonctionnalités photographiques numériques. En 1995, la marque récidive avec la commercialisation de la première caméra digitale, la DC 40.

Eternelle et mortifère complaisance du leader

Kodak est à son climax mais l’entreprise ne va pas profiter de l’écart acquis vis-à-vis de ses concurrents. Miriam Leuchter, journaliste américaine spécialiste du secteur a récemment apporté son éclairage à la newsletter technologique Mashable (1): « C’est un problème stratégique classique dans le monde des affaires. L’immense majorité de leurs revenus provenait encore des films et des tirages papier. Même s’ils développaient une nouvelle technologie, il n’y avait pas pour autant une forte incitation à aller plus loin ». Conséquence : la crainte de la cannibalisation du numérique sur l’argentique tellement rémunérateur devient le levier qui inhibe par ricochet Kodak.

La marque est d’autant moins encline à cultiver son avantage dans le numérique qu’elle continue de surfer avec vigueur dans son marché traditionnel. Sa richesse, son avance technologique, la force du label Kodak et son marketing percutant ne vont donc guère inciter à changer une recette toujours gagnante. Ce n’est au bout du compte qu’en 2001 que Kodak effectue le grand saut numérique avec le lancement de la gamme d’appareils photos EasyShare. Sauf qu’il est déjà trop tard. D’autres marques comme Canon, Fuji, Sony ont acquis une telle légitimité auprès des consommateurs que Kodak ne pourra jamais combler son déficit d’image.

Dans son excellent ouvrage intitulé « Le grand bestiaire des entreprises », le journaliste Philippe Escande décrit très bien ce syndrome de complaisance et/ou de cécité qui frappe régulièrement les leaders flamboyants d’un secteur pour les faire ensuite vaciller ou carrément tomber de leur piédestal. A ses yeux, les marques iconiques (comme l’était Kodak) sont tombées « dans le piège de Narcisse ». Aveuglées par la force de leur image (et le confort qui en découle), elles deviennent allergiques aux risques, à l’évolution, voire à la disruption tandis que les challengers poussent activement leurs pions et profitent de la tétanie du numéro 1. Ce phénomène est exactement celui qui frappe aujourd’hui Kodak.
Millward Brown, un institut d’études et de conseil stratégique en marques et communication, abonde totalement. Dans un récent billet publié sur son blog, l’un de ses analystes, Benoît Tranzer, estime même que la chute de la marque, aussi rude soit-elle, était prévisible en se fondant sur l’étude BrandZ menée par son cabinet. Le constat est selon lui implacable (2) : « Pour celles et ceux qui ne sont pas familiers de nos études, la pyramide ci-contre représente la force de la relation d’une marque avec les consommateurs. Plus une pyramide dispose d’une proportion de consommateurs élevés au dernier étage, celui de l’attachement, plus ses parts de marchés sont solides. L’attachement de seulement 1% de Kodak témoigne de la faiblesse de cette relation (…) Non seulement le niveau d’attachement est plus faible que celui des concurrents, mais, plus grave au niveau de l’avantage, c’est-à-dire de la supériorité perçue, la marque ne présente plus aucune aspérité ! Nous sommes face à la situation malheureusement classique d’une marque qui a très bien vécu sur ses acquis pendant des décennies et qui s’est progressivement endormie en oubliant de se remettre en question. Au point de rater la révolution du siècle avec l’avènement du numérique ».

A première vue, l’aventure de Kodak semble effectivement très mal embarquée. Bien qu’elle ait gratté un répit salvateur en se plaçant sous le chapitre 11 de la loi américaine sur les faillites, marque et entreprise sont en mauvaise posture.
 
Un signe tout particulier ne trompe pas. Pour tenter de redresser les comptes, le management actuel envisage de vendre le portefeuille de brevets technologiques que possède encore Kodak. Outre le fait qu’il ne soit pas assuré d’en tirer un bon prix suffisant à relancer la marque fondée par George Eastman, cette cession risque également d’être la saignée de trop pour Kodak. Sur quoi pourrait-elle désormais se fonder pour relancer son activité et reprendre pied dans un marché numérique où sa notoriété n’a jamais vraiment atteint l’aura attractive dont elle jouissait dans l’argentique ?

De surcroît, la marque Kodak ne parle plus autant aux consommateurs, surtout les plus jeunes générations bercées par le numérique depuis leur plus tendre enfance. A moins de dénicher dans les tiroirs de son centre de R&D, l’idée disruptive qui permettra à Kodak de retrouver son éclat d’antan et de se réinventer de fond en comble, la marque semble plutôt promise à rejoindre le panthéon des vieilles gloires disparues ou des marques valétudinaires. Clic-clac de fin ?

Par Olivier Cimelière / Le blog du Communicant 2.0 / Le Plus, Le Nouvel Observateur

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous ! « 

 

 

 

 

 

 

 

 

 

 

Techniques de l’Ingénieur : une maison d’édition innovante !

En lançant simultanément sur le marché au 1er janvier 2012, 400 bases documentaires en ligne, les Techniques de l’Ingénieur proposent un outil inégalé dans la recherche documentaire scientifique et technique en français.

Ce lancement s’accompagne de la création d’une nouvelle offre de service « Conseil et Formation » avec l’ambition de devenir en trois ans un acteur majeur du conseil pour l’industrie française et la recherche, en s’appuyant sur son réseau national de spécialistes reconnus dans tous les domaines de l’ingénierie.

Les Techniques de l’Ingénieur proposent ainsi d’accompagner les professionnels de l’industrie et de la recherche dans leurs projets au travers de missions d’expertise ou de conseil sur-mesure, de renforcement d’équipe dans une phase d’étude ou de mise en œuvre, de formations techniques ou réglementaires.

Robin Dualé, Président des Éditions Techniques de l’Ingénieur, résume ce virage stratégique ainsi : « Techniques de l’Ingénieur accompagne depuis plus de 60 ans les plus grands acteurs de la R&D et de l’industrie dans leurs développements au travers d’une source d’information unique au monde. Désormais, nous mettons nos meilleurs experts scientifiques et techniques au service de ces acteurs par des missions de conseil et de formation pour leur permettre d’accélérer leur développement et leur donner des moyens supplémentaires pour innover. »

7 autres services complètent l’offre de rentrée :

  • Un annuaire des laboratoires et centres de recherche ;
  • Un espace réseau et emploi ;
  • Un service de traduction à la demande de documentation technique et scientifique ;
  • Un dictionnaire technique multilingue ;
  • Un service d’impression à la demande de tout ou partie d’une base documentaire ;
  • La possibilité de créer ses propres bases documentaires en piochant parmi les 8 000 articles de la base en ligne ;
  • Une nouvelle application Ipad pour consulter et rechercher en mobilité.

Et comme chaque année, la base documentaire en ligne s’enrichit de nouveaux contenus :

  • Innovations technologiques (Management de l’innovation, Écoconception, Innovations en mesures et analyses, Innovations en environnement, Innovations en électronique et photonique) ;
  • Matériaux traditionnels. Matériaux techniques (bois, verres, textiles) ;
  • Transports (véhicules propres, ferroviaires, aérospatial).

 

En savoir plus

Filtrage d’Internet : doit-on avoir peur de SOPA et PIPA ?

L’encyclopédie collaborative en ligne Wikipedia, le portail de social bookmarking (partage de liens) Reddit, le moteur et la plateforme de blogs WordPress, le site de Reporters sans frontières… De très nombreux sites ont décidé de protester symboliquement contre deux projets de loi américains sur les droits d’auteur, jugés liberticides, en suspendant leur activité. SOPA (« Stop Online Piracy Act ») et PIPA (« Protect Intellectual Property Act ») n’en finissent pas de faire polémique. Doit-on réellement avoir peur de ces lois anti-piratage ?

PIPA / SOPA ?

PIPA et SOPA sont deux projets de loi similaires, le Protect IP Act ayant été proposé au Sénat américain le 12 mai 2011, tandis que le SOPA a été proposé à la Chambre des Représentants des États-Unis le 26 octobre 2011. Ils visent à élargir les capacités d’application du droit d’auteur et des ayants-droit pour lutter contre sa violation en ligne et les contrefaçons, en donnant des outils au gouvernement américain et aux détenteurs de droits pour limiter l’accès aux sites dédiés au piratage (et aux contrefaçons). Ces projets sont soutenus par de nombreux parlementaires de tous bords, ainsi que par certains géants de l’industrie du disque, du cinéma et du jeu vidéo.

Mesures et outils mis à disposition par ces projets de loi

SOPA et PIPA prévoient une série de mesures à l’encontre des sites « hors-la-loi » : l’interruption du référencement dans les moteurs de recherche des sites jugés coupables, le gel des comptes des sites incriminés ainsi que la suspension des revenus publicitaires et des transactions via les services de paiement en ligne de type Paypal. Ils rendent également possible le blocage total d’un accès aux sites en question, par le biais d’un blocage DNS, protocole de blocage par nom de domaine qui permet de modifier les tables DNS associant un nom de domaine à l’adresse IP du serveur qui héberge le site. Enfin, ils rendent le streaming de contenus protégés illégal.

Différence des approches française et américaine

En France, dans le cadre de la lutte contre le piratage en ligne, ce sont surtout les connexions des particuliers qui sont visées, notamment à l’aide de l’autorité publique de la HADOPI (Haute Autorité pour la Diffusion des Œuvres et la Protection des droits sur Internet) alors que les États-Unis ciblent le porte-feuille des sites et le système DNS.

L’implémentation de la loi américaine est estimée à 47 millions de dollars jusqu’en 2016, et comprend le recrutement et la formation d’une cinquantaine d’agents et de cadres.

Réactions et lobbying 2.0

Les deux projets de loi se heurtent à une levée de boucliers sans précédent de la part des principaux acteurs du secteur. Les actions, entre blackout et lobbying 2.0, ayant impliqué les géants Wikipédia, Facebook, Twitter, eBay et d’autres ont d’ores et déjà porté leurs fruits : pas moins d’une vingtaine de parlementaires américains ont décidé de retirer leur soutien aux projets de loi. La Maison Blanche avait, elle, déjà annoncé qu’elle ne soutiendrait pas « une législation qui réduit la liberté d’expression, augmente les risques pour la sécurité cybernétique et sape le dynamisme et le caractère innovant de l’Internet mondial ».

Comme le rappelle la Stanford Law Review, ces textes sont bel et bien « une attaque légale sans précédent contre l’infrastructure technique critique d’Internet ». Le système DNS est l’un des fondements sur lequel Internet a été construit, dont le fonctionnement continu dépend. « L’obligation par les tribunaux quant au filtrage DNS aura également potentiellement des conséquences catastrophiques sur la stabilité et la sécurité des DNS », alors que les efforts du gouvernement américain essaient d’augmenter la sécurité de ces protocoles. Car s’attaquer aux DNS pourrait aussi avoir l’effet contraire à celui escompté : se tourner vers un autre système d’adressage alternatif et non-régulé.

Enfin, la question de la trans-territorialité d’Internet pose problème : la justice américaine a-t-elle le droit de s’attaquer à un site basé juridiquement hors de ses frontières ?

Megaupload fermé

C’est dans ce climat délétère que le FBI a fermé, jeudi 19 janvier, 18 sites Web tous plus ou moins liés à la nébuleuse « Mega », à laquelle appartiennent Megaupload, l’un des plus importants sites d’hébergement et de partage de fichiers au monde, et Megavideo, une plateforme populaire de vidéos en streaming, proposant du contenu protégé ainsi que du contenu légal. Le doute plane encore sur le modus operandi et sur le bien-fondé en termes de souveraineté juridique, le site étant basé à Hong Kong, et donc hors juridiction américaine, bien que de nombreux serveurs se trouvent sur le territoire américain ainsi qu’au Canada et au Pays-Bas. Le créateur de Megaupload, Kim Schmitz, ainsi que deux de ses collaborateurs ont eux été arrêtés en Nouvelle-Zélande.

Riposte et déni de service

Les réactions d’indignation ne se sont pas faites attendre de la part des utilisateurs comme de celles du collectif d’activistes « Anonymous », qui a immédiatement riposté en attaquant par déni de service, et en rendant inaccessibles, entre autres, les sites du ministère de la Justice américain, d’Universal, de la Motion Picture Association of America, ainsi que le site français de l’Hadopi.

Selon Médiamétrie, Megavideo représentait en France pas moins de 3 millions de visites uniques par mois, pour un total de plus de 129 millions de vidéos visionnées.

Par M.R.

Kipp personnalise les boutons étoiles

Deux formes sont proposées :  insert taraudé, avec ou sans pastille, ou tige filetée, toutes deux  en  acier spécial Inox  similaire à DIN 6336.
Les boutons avec insert taraudé sont disponibles de M5 à M12 avec des diamètres de 25 à 63 mm et ceux avec filetage de M5 à M10 et des diamètres de 25 à 50 mm.
Kipp commercialise une large gamme de boutons étoiles spéciaux dont des références avec insert en acier saillant,  à serrage rapide ou encore à boutons aplatis.
Pour en savoir plus, les informations sont disponibles sur le site : http://www.kipp.com

>> Fiche fournisseur

A propos de Kipp France :

KIPP®, votre partenaire, compétent dans le domaine du développement et de la fabrication.

Créée en 1919 en Allemagne, la société Kipp a connu un développement spectaculaire. Partie d’un simple atelier de mécanique, elle est aujourd’hui un spécialiste mondialement connu dans le domaine des éléments standard mécaniques, des éléments de serrage et de manœuvre.
Leur design a été plusieurs fois primé pour son côté ergonomique.

Les éléments standard mécaniques, doigt d’indexage, poussoirs, support à bille oscillante.. sont utilisés pour tout montage d’usinage et construction mécanique.
Les éléments de serrage, levier à came, sauterelle, poignée indexable… assurent un positionnement précis des pièces à l’aide de gestes simples permettant un serrage et un desserrage rapide.
Les éléments de manœuvre, poignées, boutons volants… font partie intégrante du succès de l’entreprise.

La fabrication au cœur de notre entreprise :

La qualité du parc machine outils assure la réalisation de processus de fabrication moderne. La technologie répond aux besoins des clients, notamment dans la production de pièces à injection plastique ou zinc et de pièces « spéciales ». Kipp est certifié DIN EN ISO 9001 Edition 2000.

La compétence de ses équipes permet de prendre en charge le client depuis la conception d’un projet jusqu’à la réalisation définitive de la pièce. Grâce son centre de logistique de pointe, Kipp assure une grande disponibilité d’environ 95% des pièces et un respect des délais de livraison.

Kipp,  « Pour des idées qui font bouger »

Kipp France SAS
Claudine Mauler
Parc Silic – Bât. Kentia
14/16 Avenue du Québec
BP 709
91961 Courtaboeuf cedex  France
Tél. : 01.69.75.14.15
Fax : 01.69.75.14.16 
email : [email protected]
www.kipp.fr

Relations presse :
Marie Respingue-Perrin – Agence OAC
Tél : 01 34 60 58 00

Un grand classique fait son entrée chez KIPP : la sauterelle (ou fermeture à grenouillère)

Les sauterelles KIPP sont livrées avec un contre-crochet réglable, avec ou sans dispositif de sécurité à l’ouverture et avec ou sans trou de fixation masqué. Suivant les modèles, il est possible de répondre à différentes exigences, en termes de contraintes de hauteur, de confort d’utilisation et de solidité, avec des charges de traction allant de 500 N à 40 000 N. La construction robuste et le dépassement de la position de point mort sont les garants d’une fixation résistante aux vibrations. Les sauterelles munies d’étriers permettent de corriger d’importants écarts de tolérance dans le dispositif de serrage.
Après le perçage des trous de fixation, le fermoir et le crochet peuvent être vissés ou rivetés. Pour certains modèles, le soudage par points est également possible. Cet article est disponible en acier bleu bichromaté et en inox 1.4301 poli, deux matériaux qui ont fait leurs preuves.

>> Fiche fournisseur

A propos de Kipp France :

KIPP®, votre partenaire, compétent dans le domaine du développement et de la fabrication.

Créée en 1919 en Allemagne, la société Kipp a connu un développement spectaculaire. Partie d’un simple atelier de mécanique, elle est aujourd’hui un spécialiste mondialement connu dans le domaine des éléments standard mécaniques, éléments de serrage et de manœuvre.
Le design des éléments de serrage et de manœuvre a été plusieurs fois primé pour son côté ergonomique.

Les éléments standard mécaniques, doigt d’indexage, poussoirs, support à bille oscillante.. sont utilisés pour tout montage d’usinage et construction mécanique.
Les éléments de serrage, levier à came, sauterelle, poignée indexable… assurent un positionnement précis des pièces à l’aide de gestes simples permettant un serrage et un desserrage rapide.
Les éléments de manœuvre, poignées, boutons volants… font partie intégrante du succès de l’entreprise.

La fabrication au cœur de notre entreprise :

La qualité du parc machine outils assure la réalisation de processus de fabrication moderne. La technologie répond aux besoins des clients, notamment dans la production de pièces à injection plastique ou zinc et de pièces « spéciales ». Kipp est certifié DIN EN ISO 9001 Edition 2000.

La compétence de ses équipes permet de prendre en charge le client depuis la conception d’un projet jusqu’à la réalisation définitive de la pièce. Grâce son centre de logistique de pointe, Kipp assure une grande disponibilité d’environ 95% des pièces et un respect des délais de livraison.

Kipp,  « Pour des idées qui font bouger »

Kipp France SAS
Claudine Mauler
Parc Silic – Bât. Kentia
14/16 Avenue du Québec
BP 709
91961 Courtaboeuf cedex  France
Tél. : 01.69.75.14.15
Fax : 01.69.75.14.16 
email : [email protected]
www.kipp.fr

Contact technique
M. Christian Schmidt
tél : 06.37.27.09.16

Relations presse
Marie Respingue-Perrin – Agence OAC
tél : 01 34 60 58 00

Connecteurs KIPP en matière plastique avec noyau en acier très résistants

Ces raccords en matière plastique sont dotés d’un noyau en acier, ils résistent aux sollicitations les plus diverses. Par exemple les raccords à renforcement en acier pour profils carrés 25x25x1,5 mm possèdent une capacité de charge sous pression de max. 400 kg par tige de raccord horizontal en fonction des conditions d’utilisation.

En association  avec des profils en aluminium spécifiques KIPP, ils offrent des possibilités de construction presque illimitées.  Le système peut être combiné avec de nombreux matériaux, notamment des panneaux d’agglomérés à revêtement jusqu’aux plaques de verre et de matière plastique.  Ces connecteurs ont été spécialement conçus pour un montage extrêmement facile et sans outil : les raccords sont simplement fixés sur les profils carrés. Ainsi, ils restent démontables et peuvent être réutilisés.Leur manipulation aisée  procure des avantages en terme de rentabilité. Il est toutefois possible de sécuriser les raccords à l’aide de colle, de vis ou de rivets.

Les connecteurs KIPP, disponibles pour tubes carrés de 20 mm, de 25 mm et de 30 mm, ont été conçus pour répondre aux attentes les plus diverses :  l’offre de KIPP comprend toutes les solutions de raccord nécessaires : droit, à angle, en forme de T, articulé, coudé à 3, 4, 5 ou 6 sorties, sans oublier les bouchons de fermeture.
Pour en savoir plus, les informations sont disponibles sur le site : http://www.kipp.com

>> Fiche fournisseur

A propos de Kipp France :

KIPP®, votre partenaire, compétent dans le domaine du développement et de la fabrication.

Créée en 1919 en Allemagne, la société Kipp a connu un développement spectaculaire. Partie d’un simple atelier de mécanique, elle est aujourd’hui un spécialiste mondialement connu dans le domaine des éléments standard mécaniques, des éléments de serrage et de manœuvre.

Leur design a été plusieurs fois primé pour son côté ergonomique.

Les éléments standard mécaniques, doigt d’indexage, poussoirs, support à bille oscillante.. sont utilisés pour tout montage d’usinage et construction mécanique.

Les éléments de serrage, levier à came, sauterelle, poignée indexable… assurent un positionnement précis des pièces à l’aide de gestes simples permettant un serrage et un desserrage rapide.

Les éléments de manœuvre, poignées, boutons volants… font partie intégrante du succès de l’entreprise.

La fabrication au cœur de notre entreprise :

La qualité du parc machine outils assure la réalisation de processus de fabrication moderne. La technologie répond aux besoins des clients, notamment dans la production de pièces à injection plastique ou zinc et de pièces « spéciales ». Kipp est certifié DIN EN ISO 9001 Edition 2000.

La compétence de ses équipes permet de prendre en charge le client depuis la conception d’un projet jusqu’à la réalisation définitive de la pièce. Grâce son centre de logistique de pointe, Kipp assure une grande disponibilité d’environ 95% des pièces et un respect des délais de livraison.

Kipp,  « Pour des idées qui font bouger »

Kipp France SAS
Claudine Mauler
Parc Silic – Bât. Kentia
14/16 Avenue du Québec
BP 709
91961 Courtaboeuf cedex  France
Tél. : 01.69.75.14.15
Fax : 01.69.75.14.16 
email : [email protected]
www.kipp.fr
 
Relations presse
Marie Respingue-Perrin – Agence OAC
Tél : 01 34 60 58 00

Du nouveau chez KIPP : des éléments pré-montés qui génèrent des économies de temps et d’argent

Grâce à leurs composants parfaitement ajustés, les éléments pré-montés KIPP permettent aux utilisateurs de  gagner du temps que ce soit lors de la conception, de la commande ou du montage. Dès la phase de conception, quelques clics suffisent pour réaliser des ensembles complets à partir d’une gamme de pièces normalisées. Ces sous-groupes sont alors réalisés de manière à rationaliser notablement l’assemblage ultérieur, grâce au pré-montage. Les fonctions, généralement demandées par les concepteurs, sont déjà intégrées et permettent de réduire les temps de conception et de montage. Tous les éléments pré- montés sont disponibles en plusieurs formats et dimensions. Une sélection judicieuse évite ainsi le recours à une fabrication sur mesure.

Parmi ces éléments :

Les vis orientables, sans encombrementgênant : grâce à la vis d’articulation, on peut faire pivoter le bouton-étoile vissé sur le dessus, autour de l’axe d’articulation ce quia pour avantage de permettre l’ouverture complète de l’espace de serrage dans le sens du chargement et du déchargement, sans aucun encombrementgênant.

Les crochets avec bouton-étoile à serrage rapide : l’heure est enfin au perfectionnement du serrage rapide. L’alésage débouchant du bouton-étoile permet de faire glisser celui-ci très rapidement sur le filetage du crochet, jusqu’au contact avec la surface à visser. Le bouton-étoile se redresse durant l’opération, et les flancs de filet s’enclenchent dans le filetage extérieur du crochet. Il suffit alors de tourner brièvement la poignée pour que le serrage soit parfait. On évite ainsi le vissage fastidieux du bouton-étoile jusqu’à la surface d’appui, tout en couvrant rapidement de vastes plages de réglage.

Les vis papillon avec contre poignée : une manipulation plus aisée se rentabilise vite. Après le réglage, le blocage de la contre poignée se fait sans outil. Plus besoin de clé plate, utilisée jusque-là pour maintenir le contre-écrou. L’utilisateur gagne ainsi du temps et d’argent.

Les broches : le patin mobile en matière plastique permet de maîtriser le serrage, le support et le calage de surfaces non parallèles. On évite ainsi de marquer et d’endommager les pièces. Le serrage est efficace et se fait tout en douceur, réduisant ainsi les reprises ou les rebuts.

Les bagues d’arrêt avec poignée de serrage : permettre une manipulation plus aisée et un positionnement plus rapide, sans avoir besoin d’autres outils, telle était la prescription pour ce sous-groupe. La solution a été apportée par la poignée Miniwing intégrée. Elle permet en effet de bloquer aisément la bague d’arrêt à n’importe quelle position, en vissant le bouton de serrage. Bien entendu, cette solution KIPP ne nécessite pas d’autres outils.

>> Fiche fournisseur
 
Pour en savoir plus, les informations sont disponibles sur le site : http://www.kipp.com

A propos de Kipp France :

KIPP®, votre partenaire, compétent dans le domaine du développement et de la fabrication.
 
Créée en 1919 en Allemagne, la société Kipp a connu un développement spectaculaire. Partie d’un simple atelier de mécanique, elle est aujourd’hui un spécialiste mondialement connu dans le domaine des éléments standard mécaniques, des éléments de serrage et de manœuvre.

Leur design a été plusieurs fois primé pour son côté ergonomique.

Les éléments standard mécaniques, doigt d’indexage, poussoirs, support à bille oscillante.. sont utilisés pour tout montage d’usinage et construction mécanique.

Les éléments de serrage, levier à came, sauterelle, poignée indexable… assurent un positionnement précis des pièces à l’aide de gestes simples permettant un serrage et un desserrage rapide.

Les éléments de manœuvre, poignées, boutons volants… font partie intégrante du succès de l’entreprise.

La fabrication au cœur de notre entreprise :

La qualité du parc machine outils assure la réalisation de processus de fabrication moderne. La technologie répond aux besoins des clients, notamment dans la production de pièces à injection plastique ou zinc et de pièces « spéciales ». Kipp est certifié DIN EN ISO 9001 Edition 2000.

La compétence de ses équipes permet de prendre en charge le client depuis la conception d’un projet jusqu’à la réalisation définitive de la pièce. Grâce son centre de logistique de pointe, Kipp assure une grande disponibilité d’environ 95% des pièces et un respect des délais de livraison.

Kipp,  « Pour des idées qui font bouger »
 
Kipp France SAS

Claudine Mauler
Parc Silic – Bât. Kentia
14/16 Avenue du Québec
BP 709
91961 Courtaboeuf cedex  France
Tél. : 01.69.75.14.15
Fax : 01.69.75.14.16
email : [email protected]
www.kipp.fr

Relations presse :
Marie Respingue-Perrin – Agence OAC
Tél : 01 34 60 58 00

Une belle année 2011 pour Google Chrome

2011 aura été une année fantastique pour le géant américain Google. Android, son système d’exploitation open-source pour smartphones, PDA et terminaux mobiles, racheté en 2007, a vu sa part de marché quasiment doubler entre janvier et décembre 2011, passant de 17,2 % à 33,6 %, selon les critères de calcul du classement CybereStat et Médiamétrie.

Le système d’exploitation d’Apple, iOS, a quant à lui perdu près de 12 % sur la même période, atteignant tout de même 58,7 % de parts de marché.

À l’instar d’Android, c’est également le navigateur du géant américain, Chrome, qui a connu une très belle année 2011. D’après les calculs effectués par StatCounter, une entreprise éditant un logiciel de mesure éponyme, Chrome est passé de 15 % à près de 27 % sur l’ensemble de l’année 2011, terminant même deux points au dessus de Firefox, développé et distribué par la Mozilla Foundation, qui a perdu 6 % en un an.

D’après les chiffres de NetMarketShare, Google Chrome serait encore un peu plus petit que Firefox, mais les tendances sont bien les mêmes, le premier étant à la hausse tandis que le second, à la baisse. Autre point important : le déclin d’Internet Explorer, qui perd près de dix points dans l’année, passant ainsi sous la barre des 40 %.

2012 risque d’être une année riche en rebondissements qui verra, peut-être, la consécration de Chrome et Android.

Par M.R.

 

À lire aussi :

Conférence Google I/O 2011 : lancement de Chromebook et accès aux services offline

La structure des plumes inspire la conception de nouveaux lasers

La nature est une constante source d’inspiration pour les scientifiques en mal d’imagination. Les chercheurs de la prestigieuse université de Yale, dans le Connecticut, en ont fait l’illustration. S’inspirant de deux types de nanostructures composant les plumes de certains oiseaux, aux couleurs brillantes et caractéristiques, les chercheurs espèrent pouvoir produire des lasers d’un nouveau genre.

La plupart des couleurs sont le fait de nanostructures dispersant plus ou moins fortement les ondes lumineuses à des fréquences spécifiques. Dans certains cas, ces nanostructures créent des iridescences, lorsqu’une surface paraît changer de couleur en fonction de l’angle selon lequel on la regarde ou en fonction de l’angle d’attaque de la lumière ; par exemple les arcs-en-ciel apparaissant dans les bulles de savon, ou encore, les carapaces de certains coléoptères. Dans d’autres cas de figure, les nuances produites sont plus régulières et moins changeantes.

Le mécanisme de production de ces nuances a déconcerté les scientifiques durant de nombreuses années, ceux-ci estimant que les couleurs étaient produites par un enchevêtrement plus ou moins empirique de protéines. Pourtant, en zoomant sur de petites sections de ces protéines, une certaine forme d’organisation s’est mise à apparaître. C’est par exemple cette organisation qui, à l’échelle nano, est responsable des nuances caractéristiques du merle bleu d’Amérique.

Deux types de laser

Les chercheurs américains ont ainsi créé deux types de laser : un premier modèle se basant sur des plumes possédant de petites cavités sphériques groupées, dans une protéine de bêta-kératine. Le laser inspiré par ce modèle consiste en une membrane semi-conductrice parsemée de petites cavités emprisonnant la lumière à certaines fréquences. Les boîtes quantiques incrustées entre chaque cavité amplifient la lumière et produisent le rayon cohérent caractéristique du laser.

Le second modèle se base sur l’observation de plumes dont la bêta-kératine prend la forme de petits tunnels communiquant les uns avec les autres, de manière plus ou moins tortueuse. Ce modèle a donné naissance à un laser qui fonctionnerait en bloquant certaines couleurs (certaines longueurs d’ondes du spectre électromagnétique). Dans les deux cas, les chercheurs peuvent manipuler la couleur des lasers en question, soit en modifiant la largeur des tunnels, soit en espaçant les nanocavités.

Assemblage naturel

Ce qui rend ces lasers d’inspiration aviaire différents des lasers traditionnels est le fait qu’ils peuvent s’assembler de manière tout à fait naturelle. Cela signifie donc que les ingénieurs n’auront pas à se soucier de la nanofabrication de cette structure à une plus grande échelle, réduisant significativement les coûts, le temps et la difficulté de production.
L’équipe américaine a d’ores et déjà présenté une partie de ses résultats lors du FiO (« Frontiers in Optics ») ayant eu lieu à San Diego, en Californie, fin 2011.

Par M.R.

 

À lire aussi :

Sécurité laser : une attitude écologique

Le laser à fibre s’impose en micro-usinage

Le laser, futur de l’éclairage automobile

Bévues de nos comités de dirigeants : comment les limiter ?

Ces derniers semblent interloqués par le constat que cette élite qui nous gouverne – que ce soit dans la vie civile ou professionnelle – peut, elle aussi, commettre de grosses bourdes.  La surprise de ces observateurs contrariés provient probablement d’une introjection [1] qu’il convient de revisiter. Pour quelle raison, en effet, les décisions de nos comités de dirigeants seraient-elles infaillibles ? Qu’est-ce qui enferme le monde des « administrés » dans  cette croyance que les comités de décideurs seraient à l’abri de bévues aussi grossières que la gestion de « l’affaire d’espionnage » chez Renault en 2010, l’attitude de notre gouvernement au début du printemps arabe en 2011 ou sa position lors du génocide au Rwanda en 1994 ?…

Ces exemples accablants doivent être versés au dossier de notre analyse critique et nous conduire au constat suivant: quels que soient les niveaux de leurs quotients intellectuels (QI), nos équipes dirigeantes ne sont pas infaillibles ! Étudions les causes probables de tels accidents de la décision.

Une bévue, c’est une erreur grossière due à l’ignorance, à la négligence ou à l’aveuglement, et pouvant entraîner des conséquences fâcheuses. Les comités de dirigeants sont bien informés, surtout à haut niveau. D’autre part, ils sont, par définition, dotés de capacités de raisonnement hors du commun. Ce ne sont donc pas leurs compétences rationnelles qui les conduisent à ce genre d’erreurs. Comme dans de nombreux cas d’accidents de pilotages, c’est plutôt la faiblesse des compétences relationnelles qui expose nos comités de directions à la bévue. Des recherches de l’université de Chicago nous permettent de mieux comprendre l’influence des comportements humains sur la qualité de la décision en équipe. Ces études montrent que, dans 80% des cas, les décisions d’équipes sont plus efficaces que la plupart des décisions individuelles de leurs membres [2]. Dans les 20% des cas restants, l’équipe produit des décisions dont la qualité est moindre que celles de la plupart de ses membres. Ces « accidents en équipes » sont propices à la prolifération des bévues.  Etudions les comportements à risques.

Dino Ragazzo

Dino Ragazzo a plus de 25 années d’expérience opérationnelle en milieu industriel notamment chez CEGELEC, Groupe ATANTIC, FRAMATOME (mise en service d’installations nucléaires).Il a été successivement Technicien commercial, Ingénieur d’essais, Directeur Technique, chef d’entreprise (PME d’ingénierie électrique et maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel.Dino Ragazzo est également l’auteur de l’ouvrage :

MANAGER D’ELITE – Gestalt guide du leadership dans les organisations du XXIe siècle

Bénéficiez de 20% de réduction immédiate sur l’achat de cet ouvrage grâce à Instantanés Techniques en cliquant ici (code réduction : 1IT11).

Excès de pouvoir

Des membres trop sûrs d’eux-mêmes deviennent trop souvent arrogants, voire agressifs. Cette attitude décourage l’expression des idées des membres moins assertifs. Les tentatives répétées de « main basse sur l’équipe » nuisent profondément à la qualité des solutions élaborées par les équipes qui possèdent de tels membres au « thorax surdéveloppé ». On l’a bien compris, ce qui motive ces membres, c’est moins la qualité de la solution que la portée de leur emprise sur le groupe. Lorsque plusieurs membres (à masculinité surdéveloppée) exercent ce type de comportement dans le groupe, ils interagissent de manière agressive et essaient d’avoir le dessus par l’intimidation, les attaques personnelles, la moquerie, etc. Ces membres sûrs d’eux et dominateurs ont en général tendance à sous-estimer les difficultés des problèmes à résoudre, à minimiser les risques liés à leurs propres stratégies pour résoudre les problèmes et à ignorer les points de vue des membres moins affirmés. Quelle que soit la qualité des solutions élaborées par ce type de groupe, elles n’entraînent qu’un faible niveau d’adhésion et la mise en application des solutions reste pénible et de durée limitée.

Excès de compétition

Les comportements de compétition sont assez proches des comportements de pouvoir, mais le compétiteur ne cherche pas à contrôler l’équipe. Le compétiteur adore se trouver dans des groupes, car il a besoin des autres pour faire la démonstration de sa prétendue supériorité et satisfaire ainsi ses propres besoins narcissiques. Les groupes où règne la compétition entre les membres ressemblent davantage à un jeu-concours qu’à une activité de collaboration. Les membres compétiteurs sont moins intéressés par la qualité des solutions que par leurs volontés d’impressionner les autres et de leur vendre leurs idées. Observer un groupe compétiteur, c’est comme observer un champ de bataille. A la fin, il ne reste que des gagnants et des défaits. Les autres membres du groupe se font parfois piéger dans ce type de situation et finissent par développer eux-mêmes, en réaction de défense, des comportements compétiteurs, même s’ils ne sont pas naturellement enclins à ce type de comportements. C’est, encore une fois, un excès de masculinité qui explique souvent ce genre de comportements que l’on retrouve particulièrement dans des groupes où la masculinité ou l’animus [3] prédominent.

Excès de perfectionnisme

La motivation des groupes excessivement perfectionnistes est de fournir la meilleure solution possible et que celle-ci soit exempte d’erreurs. Pour satisfaire cette motivation, les membres n’hésitent pas à investir des efforts disproportionnés pour résoudre des problèmes mineurs et ne sont jamais tout à fait satisfaits des résultats auxquels ils aboutissent. Cette coûteuse prédisposition à s’attarder sur des détails conduit le plus souvent ces groupes à de sérieuses difficultés dans la gestion du temps. La maîtrise du temps est d’ailleurs l’un des principaux écueils du perfectionniste qui confond le plus souvent précision et excellence. Les perfectionnistes éprouvent un besoin irrépressible de faire leurs preuves en permanence. Ils s’imaginent que les autres accordent aussi peu de crédit à leurs compétences qu’ils ne s’en octroient à eux-mêmes. Leur énergie est donc essentiellement consacrée à consolider la certitude de leur compétence. Un problème en tant que tel, plus qu’un problème à résoudre, constitue donc une opportunité indispensable, un moyen vital permettant aux perfectionnistes de satisfaire leur angoisse d’incompétence. Le consensus est très difficile d’accès dans ce genre de groupes. Leurs échanges interminables autour de divergences de vues mineures compliquent considérablement toute forme de solution pourtant apte à apporter une réponse satisfaisante au problème à résoudre.

 

Excès de conformisme

Les conformistes calment leur angoisse de liberté (et des responsabilités correspondantes à assumer) en proposant des idées conservatrices. Ils ont tendance à considérer toute idée innovante ou toute différence comme un risque auquel il ne vaut pas la peine de s’exposer. Ainsi toute idée originale sera automatiquement disqualifiée et jugée trop audacieuse ou trop novatrice ou trop différente.

Excès de consentement

C’est l’angoisse de solitude que les membres « complaisants » cherchent à apaiser dans ce type de groupe. Les membres apparaissent anormalement arrangeants, le climat de travail semble agréable, aucune ombre ne semble vouloir ternir le tableau… L’excès d’obligeance, d’égards et de politesse, combiné à une volonté de ne pas aborder des sujets de désaccord (des sujets qui fâchent) et à une tendance empressée à agréer, font douter de la capacité de tels groupes à explorer le champ des solutions alternatives. Peu importe la solution retenue pourvu qu’on ait l’ivresse de l’acceptation des autres ! La stratégie de travail de tels groupes commence souvent par l’identification des points d’accord. Il n’y a pas de débat autour de ces points. S’il y a accord, ou plutôt s’il n’y a pas désaccord, cela vaut décision. Cette stratégie conduit les membres de ces groupes à forcer le consensus en recherchant des alliances qui ont pour finalité de menacer et influencer les autres membres « béni-oui-oui » porteurs d’avis différents. Les points de divergence sont souvent sous-optimisés par les membres qui ne veulent pas s’exposer au risque de l’exclusion. Le désintérêt, l’absence de commentaires au sujet d’une nouvelle proposition, l’accentuation ironique d’un trait de personnalité, la plaisanterie autour des différences (sexe, race, goûts, vêtements, etc.) sont différentes tactiques utilisées dans de tels groupes. Elles ont pour but de faire peser la menace d’exclusion sur les membres qui semblent tentés par la défense de leur intégrité ou de leur liberté de pensée.

Insuffisance de volonté de résultats

Personne ne semble motivé par la volonté de bien faire les choses ou de faire les bonnes choses. Les membres du groupe ne semblent pas préoccupés par la rationalité des propositions ou des idées énoncées et l’on transforme sans embarras des suppositions en faits avérés selon les besoins de la « démonstration ». Il y a peu de structure dans le travail réalisé par ces groupes. Il n’y a pas d’objectif précis non plus. La confusion entre objectif, tâche, stratégie est totale. Le travail est désordonné, de petits sous-groupes discutent ensemble de points différents, on partage peu les informations. Le flou, le désordre, la confusion et la désorganisation semblent caractériser le mode de fonctionnement de ce type de groupe.

En résumé, les comportements qui pénalisent l’efficacité des équipes dirigeantes sont adossés à des besoins excessifs de sécurité et/ou à un faible niveau de motivation personnelle vis à vis du résultat à obtenir.

Un bon moyen pour réduire les besoins de sécurité consiste à offrir aux comités le temps nécessaire pour que l’écoute, le débat et le soutien s’installe entre les participants. Ces compétences relationnelles sont nécessaires à l’élaboration de bonnes décisions. Ce temps de « mise en route » est indispensable à la mobilisation de l’énergie constructive de participants. Chercher à le réduire, c’est comme essayer de courir un 100 m sans échauffement.  On s’expose à tout ou partie des pièges décrits ci-dessus.
A quoi reconnaît-on une décision efficace ?

La réponse est dans la mesure du niveau d’acceptation. A l’issue d’un travail de décision collective, la mesure (anonyme) de la motivation des participants [4] pour la mise en œuvre des décisions permet d’évaluer leur niveau d’acceptation. Outre qu’elle renseigne sur leur cohérence avec les valeurs des participants, cette mesure donne également une idée de la probabilité que les décisions ainsi testées soient effectivement implémentées.

Une décision efficace optimise les résultats attendus, c’est-à-dire :

  • la décision est de bonne qualité (Q). Elle s’appuie sur des faits avérés, sa mise en application conduit aux risques minimaux, sa valeur ajoutée potentielle est optimale, et les ressources nécessaires sont utilisées à bon escient. Cette qualité s’obtient essentiellement par la combinaison harmonieuse des compétences rationnelles des participants. Elle fait appel à leurs Intelligences Intellectuelles et Emotionnelles (QI et QE).
  • la décision mobilise et polarise l’énergie des gens qui l’appliquent, c’est-à-dire qu’elle produit un haut niveau d’acceptation (A). Ce niveau d’acceptation est d’autant plus élevé que les participants ont eu la sagesse de se mettre en condition de tempérer les besoins excessifs de sécurité (ou de pouvoir, de compétition…) de certains d’entre eux.

Ces points sont résumés par l’équation d’OSBORNE [5] : E = Q x A.
L’efficacité (E) d’une décision est le résultat combiné de sa Qualité (Q) et du niveau (A) d’Acceptation (Adhésion) qu’elle suscite.

Notons qu’une équipe de direction qui a su développer de bonnes qualités relationnelles saura plus facilement traverser les embûches causées par une mauvaise conception ou une planification défaillante des projets. A cause de la synergie qu’elle est capable de développer, ce type d’équipe est moins exposé aux bévues car elle produit des décisions qui sont plus efficaces que celles que produirait le plus expert de ses membres.

En revanche, une équipe de direction qui mise essentiellement sur le raisonnement logique et le QI ne pourra pas compter sur ces compétences rationnelles pour traverser un problème de relations entre ses membres. En effet, la logique d’un directeur exagérément rationnel (trop de QI et pas assez de QE), à elle seule, ne sera pas d’un grand secours pour donner plus de consistance, par exemple, à la malléabilité dévastatrice d’un groupe de collaborateurs parfois un peu trop « plastiques ».

Les comités de directions, par le QI de leurs membres, sont généralement composés de telle sorte à maximiser la Qualité des décisions. Cette disposition, bien que nécessaire, ne les met pas suffisamment à l’abri du risque de bévues. Les diverses instances de directions qui souhaitent améliorer leur efficience ont tout intérêt à mesurer –anonymement –  et à exploiter le niveau d’Acceptation des décisions. Mais connaissez-vous beaucoup de présidents qui se préoccupent du niveau de motivation des membres de leurs comités avant de valider leurs décisions ?

Par Dino Ragazzo

  • [1] Processus par lequel une opinion, une attitude, ou une instruction sont automatiquement et rapidement considérées comme vraies….à la manière dont les enfants (en dessous de 7 ans) « avalent » tout ce que leurs parents leur disent.
  • [2] Dans une minorité de cas, la décision d’équipe est même meilleure que celle qu’aurait prise, seul, le plus expert de ses membres.
  • [3] Partie masculine de la psyché d’une femme
  • [4] Par exemple au travers de questionnaires anonymes
  • [5] Richard OSBORNE est “Professor for the Practice of Marketing and Policy Studies” à la Case Western Reserve University

 

En savoir plus : http://experience-conseil.com/

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : INGÉNIEUR MANAGER