Le solaire peut remplacer intégralement le nucléaire à Tokyo selon une étude américaine

En 2010, la part du nucléaire était de 27 % dans le mix électrique japonais. Pour la seule région de Kanto qui comprend l’agglomération très peuplée de Tokyo, 40 % de l’électricité délivrée par TEPCO (Tokyo Electric Power Company) provenait de la fission de l’uranium 235. Le tiers de la population japonaise réside dans cette région. Le reste du mix comprenait 63 % d’électricité d’origine fossile, principalement du gaz naturel liquéfié importé par bateau, et 10 % des renouvelables, principalement des barrages hydroélectriques.  

La catastrophe de mars 2011 au complexe nucléaire de Fukushima Daiichi a conduit à la fuite de substances radioactives dans la biosphère et la chaîne alimentaire, et à la fermeture de l’intégralité du parc nucléaire du pays. La question de les rouvrir, ou non, reste entière. Dans l’urgence, le Japon a augmenté de manière significative sa consommation de combustibles fossiles. 

Synergie entre l’eau et le soleil

Les énergies renouvelables sont aujourd’hui très populaires et très demandées par la population japonaise qui craint la réouverture des centrales nucléaires. Remplacer l’atome par le solaire est généralement rejeté d’un revers de la main par les sceptiques des énergies renouvelables, en arguant du caractère intermittent de cette ressource durable. Mais « le japon possède la plus grande capacité de stockage par pompage-turbinage du monde, un total de 24,6 GW » soulignent les chercheurs (1GW = 1000 MW). 

Dans leur étude, les chercheurs américains estiment que si, au lieu d’assister les centrales nucléaires, les STEP japonaises actuelles étaient couplées avec des panneaux solaires couvrant les toitures disponibles et adaptées sur des bâtiments de Tokyo, la combinaison obtenue permettrait de remplacer environ 26,5 % l’électricité d’origine nucléaire consommée par la capitale japonaise  en 2010. Les scientifiques ont déterminé que 43,1 GW de solaire PV sur toiture combiné aux 7,28 GW de capacités STEP de la région de Kanto permettrait de délivrer en base une puissance de 4,8 GW 91 % du temps, soit l’équivalent de l’électricité délivrée par 5 réacteurs nucléaires. Et aussi de gérer les périodes de pointe de la demande

Le solaire est une énergie intrinsèquement intéressante étant donné que les êtres humains sont diurnes : la production solaire a lieu précisément quand la demande électrique est élevée. Les chercheurs basent leurs affirmations sur une étude approfondie des espaces de toiture disponibles, sur 34 ans de données d’insolation dans la région, et sur l’hypothèse d’une efficacité énergétique des systèmes de collecte solaire de 13 %. 

Le pays du soleil levant pourrait faire honneur à son nom

En installant une surface solaire 5,6 fois supérieure à la surface disponible en toiture, c’est la totalité de l’électricité nucléaire qui pourrait alors être remplacée par le solaire. « Nous avons estimé que 1700 km² de solaire PV, couplé à 18,1 GW de STEP seraient suffisants pour remplacer la totalité de la capacité nucléaire 2010 de TEPCO » indiquent les chercheurs. L’agglomération tokyoïte serait alors intégralement libérée du nucléaire grâce au solaire. 1700 km², c’est 0.4 % de la surface de l’archipel nippon.  Selon le ministère japonais des sciences, 30 000 kilomètres carrés ont été  contaminées aux césiums 134 et 137 à la suite de la catastrophe de Fukushima Dai-Ichi. Et un secteur de 20 km autour de la centrale nucléaire a été évacué (1256 km²).  

Un coût non rédhibitoire et qui évolue favorablement

L’équipe américaine estime que le coût de production de l’électricité en baseload délivrée par ce système synergique hydro-solaire serait de 0.206 dollars par kWh sur la base d’une période de 25 ans (1 dollar = 0.75 euro). « Ces coûts sont comparables avec ceux du prix de l’électricité résidentielles au Japon (0.241 dollars par kWh en 2010) » rappellent les chercheurs. Si l’énergie solaire en excès est incluse, énergie qui peut être valorisée, le coût tombe alors à 0.162 dollars (soit 12 centimes d’euros). Et les scientifiques ajoutent que « de nombreuses études montrent que les coûts du solaire PV vont continuer à baisser parallèlement à l’augmentation des volumes de production ». Le prix de revient du kWh du nucléaire de nouvelle génération EPR s’élève à environ 10,5 centimes d’euros selon Per Lekander, analyste chez UBS, un prix confirmé par de nombreux experts. 

Boom du solaire au Japon: 1500 MW au premier trimestre 2013.

Le Japon est aujourd’hui la cinquième puissance solaire du monde en termes de puissance installée cumulée (5,9 GW en 2012), derrière l’Allemagne (32,4 GW), l’Italie (16,3 GW), la Chine (8,3 GW) et les USA (7,7 GW). Le développement de grands systèmes photovoltaïques était déjà en cours au Japon avant la catastrophe nucléaire de 2011, ceci dans le cadre de la « PV2030 Initiative ». Mais Fukushima a conduit à accélérer drastiquement la cadence.

Grâce à un cadre règlementaire attractif mis en place par le gouvernement après à la catastrophe, 1500 MW ont été installés durant le premier trimestre 2013. Et selon les experts de Bloomberg, ce sont au total entre 6,9 et 9,9 GW qui seront installés au pays du soleil levant en 2013. Si cette dynamique se maintient, ce sont alors plus de 50 GW qui pourraient être installés d’ici 2020. Le Japon pourrait alors rejoindre le champion allemand, voir le dépasser.

En France, le Président de la République François Hollande s’est engagé à baisser de 25 points la part du nucléaire dans le mix électrique. Le solaire PV représente aujourd’hui (2012) selon RTE 0.7 % du mix électrique de l’hexagone.

Par Olivier Danielo

 

En savoir plus :

Le projet Volt Gaz Volt répond à l’intermittence des ENR

Les partisans du nucléaire et des énergies fossiles reprochent aux énergies renouvelables leur intermittence. Cette dernière les condamnerait à ne représenter qu’une petite partie de la production énergétique mondiale. Cela pourrait rapidement changer grâce à de nouveaux projets tels que Volt Gaz Volt.

Imaginez un pays ou une région ayant une part importante d’énergies renouvelables dans son mix électrique. Lorsque le vent ne souffle pas ou qu’il n’y a pas de soleil, sa production électrique sera fortement impactée. Il faudra alors disposer d’un stock suffisant d’énergie pour produire de l’électricité pendant ce laps de temps d’éviter le blackout ! C’est le pari du projet Volt Gaz Volt.

Quand l’électricité donne du gaz qui redevient électricité…

Pour avoir du courant en continu, la solution est de stocker l’électricité lorsqu’il y a surplus de production, c’est-à-dire lorsqu’il y a beaucoup de vent et beaucoup de soleil. Pour ce faire, il est possible de passer par un moyen détourné. Ainsi, par électrolyse, le surplus d’électricité va décomposer l’eau en oxygène et en hydrogène. Cet hydrogène va ensuite réagir avec du CO2 recyclé pour produire du méthane. L’idée est de réutiliser du CO2 émis par l’industrie au lieu de le stocker dans le sous-sol ou de l’envoyer directement dans l’atmosphère. L’oxygène produit pourra quant à lui être valorisé ou simplement évacué dans l’air.

Au lieu d’être utilisé directement, ce méthane pourra être injecté dans le réseau de gaz qui devient par là-même un réseau de stockage. Le méthane ainsi synthétisé pourra être utilisé en tant que tel pour produire de l’électricité et du chauffage dans des centrales de cogénération. Il pourra aussi être utilisé comme carburant pour les véhicules propulsés au gaz naturel ou être converti en électricité pour les véhicules électriques. Si la France devait remplacer un tiers de sa production nucléaire par de l’énergie renouvelable, le réseau de gaz français actuel semble être suffisant pour couvrir quelques jours d’intermittence qui pourraient en résulter, selon les promoteurs du projet.

Lorsque le méthane est brûlé, il réémet toutefois du CO2. Il sera alors renvoyé dans l’atmosphère pour les usages diffus comme le chauffage individuel ou les transports. Pour avoir une chance d’atteindre le facteur 4 en 2050, il conviendra donc de le recapter en fin de cycle pour les usages concentrés comme le chauffage collectif ou les centrales de cogénération. Dès lors, il sera possible d’en refaire du Volt Gaz Volt ! 

Un projet qui aide à sortir du nucléaire

Le scénario Négawatt de sortie du nucléaire repose en grande partie sur ce process en plus du développement de l’efficacité et de la sobriété énergétiques. Sur le moyen terme, le nucléaire pourrait aider à financer sa propre sortie. En faisant fonctionner en continu les centrales nucléaires au maximum de leurs capacités, ce qui n’est pas le cas aujourd’hui, elles pourraient alimenter pour partie les centrales de Volt Gaz Volt. Ainsi, « on pourrait obtenir la fermeture de toutes les vieilles centrales sans réduire la production globale de l’électricité nucléaire, puis, progressivement, aller ensuite vers une réduction de la production d’électricité nucléaire au fur et à mesure que la production renouvelable augmente », explique Corinne Lepage, Député Européenne et Ancienne Ministre de l’Environnement.

À terme, si ce genre d’installations se généralisaient pendant qu’un effort supplémentaire était donné au développement des énergies renouvelables, elles pourraient remplacer les utilisations actuelles de gaz naturel, et, en fin de compte, peut-être, la plupart des combustibles fossiles et le nucléaire. La question du recours aux gaz de schistes n’aurait alors plus non plus lieu d’être.

Les usines de fabrication du gaz seraient à installer en priorité à côté d’usines générant d’importantes quantités de CO2 (aciéries, cimenteries, centrales d’aluminium, etc.) à proximité de sources d’énergies renouvelables, d’un réseau de chaleur urbain, d’usines de cogénération. Corinne Lepage propose d’installer la première usine à Florange, car l’endroit est situé à côté de hauts fourneaux et « c’est un endroit qui aurait du sens », juge-t-elle. « Sur l’ensemble de la côté ouest de la France, il y a un énorme potentiel d’éolien offshore qui sera d’autant plus rentable que l’on saura utiliser l’électricité excédentaire », estime de son côté Pierre Radanne, Président de l’Association 4D.

Tout cela à quels coûts ?

Une installation de démonstration d’une capacité de 250 kW d’énergie électrique fonctionne à Stuttgart en Allemagne,. Une première usine d’échelle industrielle de méthanation (« power to gaz ») d’une puissance de 6,3 MW devrait voir le jour en juin 2013 pour un investissement compris entre 20 et 30 millions d’euros.

Les coûts actuels de production sont élevés à environ 25 centimes d’euro par kWh de gaz produit. L’objectif est de faire tomber ce coût à environ 8 centimes d’euro par kWh en 2018 pour tenter de le rendre compétitif avec les importations de gaz à cet horizon. 

Par Matthieu Combe, journaliste scientifique

 

Découvrez notre offre de formation Energies :


Circuit de commande Machine

Que vous soyez constructeur de panneaux ou de machines ou bien intégrateurs de systèmes,

RS peut répondre à tous vos besoins en circuit de commandes machines grâce à ses larges gammes de produits industriels

(moteurs électriques, commandes moteur, contacteurs, interrupteurs industriels, capteurs magnétiques, codeurs rotatifs, …) et à une grande quantité d’accessoires. 

En savoir plus

Better Place va-t-elle ressusciter ?

Renault avait déjà repris le business-model de Better Place basé sur la séparation de la voiture électrique et de la batterie, permettant de vendre le véhicule au même prix que son équivalent thermique. Voici à présent que le géant français EDF, selon la presse israélienne, se montre intéressé par le système de gestion informatique des bornes de recharge Better Place. Les stations échangeuses de batteries intéressent de leur côté Yosef Abramowitz, PDG d’Arava Power,  une entreprise leader du solaire photovoltaïque en Israël, et aussi d’Energiya Global Capital qui diffuse les technologies solaires dans les pays en voie de développement. Des entreprises canadiennes (Québec) seraient également de la partie. 

Superchargeurs ou stations d’échange de batterie ?

Dans les stations échangeuses BetterPlace, en seulement une minute, la batterie vide est remplacée par une batterie chargée à 100%. Pour Shaï Agassi, fondateur de Better Place, ces stations constituent une facette optionelle de la solution complète de mobilité durable qu’il a conçue. Moins de 10% des trajets quotidiens font plus de 100 km. Autrement dit, sans les stations échangeuses, le véhicule électrique reste une option intéressante pour 90% des trajets. 

L’autre solution pour les trajets longue distance, ce sont les superchargeurs qui permettent de charger à 80% la batterie en 30 minutes. La différence est donc très significative et une solution qui implique d’attendre une demi heure tous les 100 à 120 kilomètres, soit 2 heures de perdues lors d’un trajet Paris-Lyon (contre 4 minutes avec la solution Better Place), a un potentiel de séduction assez modeste. Un superchargeur coûte 40000 euros, contre 1 million d’euros pour une station échangeuse. Il faut 30 superchargeurs (1,2 millions d’euros) pour remplacer le service-rendu par une station-robot. 

Les superchargeurs ont en outre un grave défaut : la charge rapide dégrade les batteries et diminue leur durée de vie. Ce qui est très mauvais non seulement pour le porte-monnaie mais aussi pour le bilan environnemental. Dans les stations échangeuses, la charge est lente et il est possible de l’effectuer pendant les périodes d’abondante production solaire et éolienne. Il est même possible d’injecter du courant vers le réseau en période de faible production renouvelable. L’ensemble constitue le V2G-G2V (Vehicule-to-Grid / Grid-to-Vehicule), un outil de flexibilité très pertinent pour faciliter l’intégration de hauts niveaux d’énergies renouvelables fluctuantes dans les réseaux électriques. Cet aspect séduit particulièrement Yosef Abramowitz. 

Point important à l’avantage des superchargeurs : toutes les voitures électriques, quelle que soit leur marque et leur modèle, peuvent y recourir, alors que les stations échangeuses requièrent que les véhicules soient équipés du système quick-drop. Or seul Renault et quelques groupes automobiles chinois ont retenu ce système jusqu’à présent. 

Le pétrole et le gaz de schiste changent la donne

Le contexte global a changé entre 2007, année de création de Better Place, et aujourd’hui. Il y a 6 ans les inquiétudes concernant les prix du pétrole et le franchissement du pic de pétrole, le fameux peak oil, étaient élevées. Mais le monde a connu depuis un boom massif des pétroles et gaz de schiste, ce qui a bouleversé la carte énergétique mondiale. De plus les craintes concernant le réchauffement climatique ont baissé d’intensité : comme l’a déclaré le président du GIEC lui-même, le réchauffement marque une pause, non prévue, depuis 17 ans. Et la sensibilité climatique serait plus basse que prévu selon de nombreuses études récentes. Or si les peurs de la pénurie d’hydrocarbures et du réchauffement s’érodent, l’attractivité de l’électro-mobilité s’en retrouve émoussée. 

Les automobilistes veulent-ils vraiment sortir de leur addiction au pétrole ?

Shaï Agassi possède une puissance innovante et une motivation hors du commun, mais il a manifestement vu trop grand en déployant BetterPlace à la fois en Asie, en Australie, en Europe et en Amérique. Tous les ingrédients étaient pourtant là pour une réussite : la technologie, le business-model, les investisseurs. Et qui ne tente rien n’a rien. Mais les consommateurs israéliens n’ont pas suivi la dynamique et ont refusé de changer leurs habitudes : ils préfèrent continuer à acheter des voitures à pétrole, même si ce combustible provient en bonne partie de pays hostiles à l’état hébreux. Face à cette inertie des consommateurs, il faudra peut-être attendre une nouvelle flambée des prix à la pompe, un blocus des approvisionnements pétroliers vers Israël ou une énorme marée noire pour qu’ils commencent à s’intéresser sérieusement aux véhicules électriques

En France, les automobilistes ont aujourd’hui le choix entre plusieurs véhicules électriques vendus au même prix que leur équivalent à pétrole. La balle est dans leur camp. Le groupe Renault, leader du secteur, a rempli son rôle, offrant une gamme complète de véhicules électriques. Doit-on attendre que la mise en place d’une infrastructure de recharge intelligente soit effectuée par des entreprises privées, avec un risque de dérive monopolistique en cas de succès ? Les états doivent-ils rester spectateurs, comme cela a été le cas en Israël ? L’exécutif français, et notamment le ministre du redressement productif Arnaud Montebourg, y réfléchit actuellement.  

Yosef Abramowitz est parvenu ces dernières années à négocier avec le gouvernement israélien afin qu’il mette en place un cadre favorable au déploiement du solaire photovoltaïque. Il tente actuellement de réitérer cette démarche. “J’ai besoin d’un signal de la part du gouvernement montrant qu’ils ont la volonté de mettre en place un cadre favorable au déploiement des véhicules électriques dans l’état d’Israël” a souligné l’entrepreneur le 3 juin 2013 dans le Jerusalem Post. Il a précisé que son projet de sauvetage de Better Place repose sur une approche « extrêmement modeste » comparativement à celle des dirigeants de la start-up. Captain Sunshine, comme il est surnommé dans le milieu des énergies renouvelables, ambitionne de récupérer une fraction des stations des 38 Switch stations BetterPlace aujourd’hui en place en Israël puis de suivre progressivement le marché permettant ainsi une « croissance organique » de l’entreprise. Pour cet entrepreneur à succès, le véhicule électrique n’a de sens que si l’électricité provient de sources renouvelables.

Une infrastructure de recharge complète pour le coût de quelques jours de facture pétrolière 

Pour la France, 1000 stations-robot le long des grands axes routiers seraient suffisantes selon les estimations effectuées par les experts de BetterPlace, pour un coût inférieur à 10 jours de facture pétrolière française. « Si je vous disais qu’on peut se débarrasser du pétrole pour le prix de quelques jours de consommation, la question, c’est : pourquoi n’y a-t-on pas pensé plus tôt ?» n’a cessé de répéter Shaï Agassi face aux critiques récurrentes concernant le montant de l’investissement. 1000 stations-robots ? Ou alors 30000 superchargeurs ? Le débat est ouvert. 

Olivier Daniélo

 

Découvrez notre offre de formation Energie :


Modèles 3D CAO

RS affirme sa volonté de soutenir les concepteurs en fournissant les modèles de CAO 2D et 3D à télécharger gratuitement et diponibles dans 23 formats de fichiers, dont SolidWorks, Autodesk Inventor et Solid Edge.

Ces modèles directement importables dans la plupart des logiciels de CAO mécanique, accélérent l’intégration des produits dans vos projets.

Il suffit de vous indentifier ou de vous inscrire chez RS dès maintenant si vous ne l’êtes pas encore, pour télécharger nos modèles CAO 3D.

Naviguez à travers notre offre produit dans la colonne de gauche afin de trouver le modèle de votre choix.             

Enregistrez-vous

Microcontroller Search+

Comparateur de microcontrôleurs par :

Descriptif :

-fabricant, famille, coeur, architecture jeu d’instruction, largeur bus de données.

Mémoires :

-type mémoire de programme, taille mémoire de programme, RAM.

Périphériques :

-SPI, I2C, UART, USART, Ethernet, CAN, Canaux USB, LIN.

Boîtier : 

-nombre de broches, montage, type.

Spécifications :

-fréquance max, tension d’alimentation typique, température de fonctionnement.

Timers : 

-nombre de timers, résolution timers.

Convertisseurs de données :

-nombre, canaux, résolution

Dimensions :

-hauteur, longueur, largeur.

 

Rechercher

Panneaux de contrôle

Nous fournissons des panneaux de contrôle qui permettent aux constructeurs de concevoir des équipements pour une utilisation dans tous les environnements : 

de l’automatisation générale aux conditions extrêmes.

Grâce à une large gamme de produits de grandes marques, vous pouvez être sûr de trouver la solution adapatée à vos besoins chez RS. 

Avoir accès à des gammes complètes est essentiel pour la conception, la construction et l’entretien des panneaux de contrôle.

En vous proposant des produits tels que : les boutons poussoir, les interrupteurs, les boutons de commande, les minuteries et les compteurs, etc. 

Plus d’informations

Besoin de prix spéciaux ?

Ce service vous permet de charger sur notre site Internet une liste de références fabricants et de rechercher automatiquement leur correspondance dans notre offre.
Vous pourrez ensuite gérer, soumettre et convertir toutes vos cotations en ligne. Vous pourrez également visualiser ou convertir les cotations des différents utilisateurs de votre société.

Plus d’informations 

Raspberry Pi

Cette carte miniature basée sur un processeur ARM peut effectuer bon nombre de tâches d’un PC de bureau, feuilles de calcul, traitement de texte, jeux et diffuser également des vidéos en haute définition.

Les cartes Raspberry Pi modèle A et modèle B sont des ordinateurs monocartes de la taille d’une carte de crédit.

Elles nécessitent une carte SD munie d’un OS linux, une alimentation, un clavier, un boîtier et des câbles non fournis.

Laissant ainsi une grande flexibilité aux concepteurs dans la réalisation et le coût de leur projet.

Plus d’informations

Futur par Starck

La chaîne franco-allemande Arte n’en finit pas d’explorer le futur et d’inviter ses téléspectateurs et ses internautes à inventer le monde de demain à travers des formats de diffusion innovants et inédits. 

Cette fois, il s’agit d’un documentaire diffusé mardi soir 4 juin et consacré au célèbre designer Phillipe Starck. Parcourant le monde en passionné candide, Philippe Starck dialogue face à la caméra avec des chercheurs visionnaires qui évoquent le monde de demain et proposent des solutions aux grandes problématiques de nos sociétés : énergie, urbanisme, alimentation, migrations, environnement, éthique, cerveau, l’ADN, l’espace…

Notamment Kevin Warwick, le chercheur anglais qui expérimente sur lui-même des implants placés sous sa peau et connectés à un ordinateur ; George Church, l’un des premiers scientifiques à séquencer le génome humain, qui rêve d’un homme « réparable à l’infini » ; un restaurateur certain que les insectes seront la nourriture de demain ; l’américain Jeremy Rifkin qui prône « la troisième révolution industrielle » alliant communication Internet et énergies renouvelables ; l’astronaute Jean-François Clervoy qui envisage la vie hors de la Terre, en cas d’impossibilité de survie ici-bas.

Pendant la diffusion du programme sur l’antenne et durant toute sa période d’exposition (sur ARTE+7 ou ARTE FUTUR), les téléspectateurs pourront vivre sur leur smartphone ou leur tablette une expérience crossmédia originale. En effet, le programme est prolongé sur un second écran auquel on a accès en synchronisant son smartphone ou sa tablette au documentaire pendant sa diffusion.

Il s’agit de proposer aux téléspectateurs et internautes des contenus qui enrichissent et complètent le documentaire. Par exemple, lorsque le professeur de cybernétique Kevin Warwick évoque à l’antenne le concept d’homme augmenté, le téléspectateur peut découvrir sa biographie et une sélection de ressources (vidéos, liens, infographies), lire des définitions de termes techniques, regarder des vidéos complémentaires, ou bien découvrir des éléments de contrepoint sur les questions éthiques amenées par l’implantation de technologie dans le corps humain ou sur le caractère utopiste du transhumanisme…  

C.C

FUTUR PAR STARCK : écrit par Peggy Olmi et Gaël Leiblang, réalisé par Gaël Leiblang (2013, 1h45mn). Une coproduction : ARTE France, ELEPHANT Doc, UBIK
ARTE+7 / ARTE FUTURE

Les Français se méfient des chercheurs

62% des Français soupçonnent les chercheurs de se laisser influencer par les lobbies industriels, 68% estiment qu’ils nous cachent la vérité sur les OGM et ils ne sont que 53% à leur faire confiance «pour dire la vérité si jamais certaines de leurs recherches pouvaient avoir des répercussions sur la santé ». Quelle image désastreuse des scientifiques. D’autant que paradoxalement, les Français sont 63% à considérer que la science et la technologie sont bénéfiques. 

La science, oui, les scientifiques, non ! Voilà en résumé ce qui ressort de ce sondage réalisé mi-avril par Ipsos/CGI pour Le Monde, le magazine La Recherche et le ministère de l’enseignement supérieur et de la recherche. La bonne nouvelle reste que la science est considérée comme un progrès puisque 78% estiment qu’elle apporte des solutions aux problèmes d’aujourd’hui et 62% pensent qu’elle permettra aux générations futures de  vivre mieux.

Mais pourquoi les scientifiques, ceux-là même qui font avancer la science, sont-ils aussi mal vus ? Tout simplement car ils ne seraient pas indépendants. A la botte des industriels qui les financent, partiaux, insuffisamment contrôlés par les autorités de sûreté, les chercheurs sont coupables de connivence avec les méchants financiers. 

On remarquera que le défaut des chercheurs n’est donc pas l’incompétence mais la malhonnêteté. Doit-on s’en réjouir ? Pas vraiment. Mais les nombreux scandales sanitaires quotidiennement rapportés alimentent cette méfiance : amiante, prothèses PIP, tabac, OGM, pesticides… A cela s’ajoute des controverses entre scientifiques eux-mêmes, à l’image du conflit qui oppose le GIEC aux climato-sceptiques. On comprend que les citoyens, étrangers du monde scientifique, aient du mal à s’y retrouver. 

Un sentiment qui correspond aussi à une tendance actuelle du « Tous pourris » qui n’épargne plus personne, des politiques aux patrons, en passant maintenant par les chercheurs. Espérons que cette défiance s’estompera, et que les scientifiques sauront affirmer avec force leur indépendance. Dans l’intérêt des chercheurs, dans l’intérêt de la science, dans l’intérêt des citoyens.

Par Audrey Loubens, journaliste scientifique

Revivez le décollage d’Ariane 5 diffusé le 5 juin !

Le CNES héberge en effet sur son site internet, la vidéo (ICI) en streaming du décollage d’Ariane 5.

Le but de la mission ? Ariane 5 devra mettre en orbite le quatrième vaisseau européen de ravitaillement de la station spatiale internationale, l’ATV-4 Albert Einstein.

La retransmission a eu lieu le 5 juin à 23h32.

Voici la vidéo d’un décollage précédent :

Ci-dessus: Décollage d’Ariane 5, vol 212 par CNES

Blueseed : le projet dantesque des entrepreneurs

Tout est parti d’une envie simple : s’affranchir des complications liées à l’obtention d’un visa américain pour travailler sur leur sol. Car bien qu’ils se trouvent limités par les quotas de visa délivrés aux travailleurs étrangers, les États-Unis désirent davantage de main-d’oeuvre qualifiée. Un besoin n’étant pas comblé par la production d’ingénieur chaque année par les universités.

La réponse à ce souhait pourrait bien se nommer Blueseed, un projet ambitieux de construction d’un bateau pharaonique regroupant plus de 1 300 entrepreneurs venus du monde entier. Il s’agit en fait d’une espèce d’incubateur de start-up située dans les eaux internationales.

Quelques détails du projet fou ont d’ores et déjà été dévoilés. Le prix du loyer mensuel par exemple devrait osciller aux alentours de 1 200 dollars. Évidemment, pour entamer le développement, un apport de fonds important est nécessaire. Il resterait 27 millions de dollars à trouver pour boucler le budget.

Les deux entrepreneurs de la Silicon Valley auraient fait appel au crowdfunding, le financement participatif, pour lever les fonds qu’ils espèrent obtenir avant 2014. Date à laquelle ils souhaitent démarrer la construction. Depuis un an, 65 partenaires (universités, incubateurs et même le constructeur automobile Rolls Royce) contribuent à faire évoluer le projet.

Le Blueseed présente un avantage majeur pour les entrepreneurs, à savoir le choix de la domiciliation fiscale. N’étant pas soumis à cette contrainte, ils pourront librement choisir de s’affilier à des paradis fiscaux tels que les îles Marshall ou les Bahamas. Une nouvelle qui devrait en ravir plus d’un. Qui plus est, le projet se veut en phase avec les problématiques écologiques actuelles de développement durable. Ainsi, l’île flottante devrait être alimenté par l’énergie solaire et présentera plusieurs espaces verts.

C’est un fait, le bateau a pour vocation d’offrir un cadre de travail hors pair, réunissant les start-ups et leurs idées novatrices. Mais il laissera aussi une grande place aux loisirs. Les possibilités de détentes seront en effet nombreuses. Entre autre, les entrepreneurs pourront faire de la gym, se changer les idées au restaurant ou se divertir devant un film. Et pour ceux qui désireront rester dormir sur place, des containers feront office d’habitation. Oui, Max Marty et Dario Mutabdzija ont pensé à tout.

Avec tout ces concepts, un design futuriste, Blueseed a tout du projet insolite et extraordinaire. Alors que les initiateurs s’échinent à réunir les fonds, seul l’avenir nous dira s’il verra ou non le jour.

Par Sébastien Tribot, journaliste scientifique

 

Découvrez notre offre de formation Projets :


L’essentiel de REACH 2/2 (mai)

Transport de marchandises dangereuses : la liste des dérogations publiées par la Commission européenne

15/05/2013

La liste actualisée des dérogations nationales autorisées par la directive 2008/68 relative au transport de marchandises dangereuses au sein de l’Union Européenne a été publiée par la Commission le 15 mai. Pour la France, une nouvelle dérogation est autorisée. Prévue par l’arrêté du 12 décembre 2012 qui modifie l’arrêté TMD, elle concerne le transport d’échantillons de substances chimiques, mélanges et articles contenant des marchandises dangereuses aux fins de surveillance du marché. Pour le reste, les dérogations autorisées en France sont les mêmes que les années précédentes.

Interdiction d’utilisation de certains produits biocide

17/05/2013

L’arrêté du 18 avril 2013 relatif à l’interdiction d’utilisation de certains produits biocides est paru au Journal Officiel le 17 mai 2013.

Le texte est consultable sur : http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000027412385&dateTexte=&categorieLien=i

La bifenthrine bientôt interdite

Un arrêté du 18 avril 2013 prévoit l’interdiction de la bifenthrine dans les produits biocides. Il précise que l’utilisation des produits biocides contenant de la bifenthrine pour le type de produits 18 sera interdite à partir du 1er novembre 2013.

Cet arrêté permet de fixer une date de fin d’utilisation de ces produits dont l’interdiction de mise sur le marché est effective depuis le 1er mai 2013.

Consultation publique pour des classification et étiquetage harmonisé

21/05/2013

L’ECHA lance une consultation publique additionnelle pour la classification et l’étiquetage harmonisés de l’etridiazole (N°CE 219-991-8). Cela fait suite à une première consultation clôturée le 13 avril 2012. Les commentaires sur les deux classes de danger – toxicité pour la reproduction et cancérogénèse – sont à transmettre avant le 3 juin 2013 à l’adresse [email protected]. Les commentaires seront publiés sur le site web de l’ECHA.

Projet de loi Ddadue

27/05/2013

Le Sénat a adopté le 27 mai le projet de loi portant diverses dispositions d’adaptation au droit de l’Union européenne dans le domaine du développement durable (Ddadue). Ce texte, sur lequel le Gouvernement a engagé la procédure accélérée, avait été voté par l’Assemblée nationale le 17 mai. Une commission mixte paritaire doit se réunir le 12 juin afin de régler les derniers points de désaccord entre les deux chambres et permettre l’adoption définitive de la loi.  

Ce projet de loi touche plusieurs règlementations (directive SEVESO 3, règlement biocide, directive IED, directive Eurovignette…).

Ce projet de loi est téléchargeable sur : http://www.senat.fr/petite-loi-ameli/2012-2013/600.html

L’ECHA publie son premier plan stratégique quinquennal en consultation publique

28/05/2013

Les citoyens et les organismes sont invités à commenter le projet du programme de travail pluriannuel 2014-2018 de l’ECHA, qui s’articule autour de quatre objectifs stratégiques à long terme pour l’Agence.

Consultation publique sur le projet d’avis du RAC sur la toxicité pour la reproduction de l’arséniure de gallium

29/05/2013

L’ECHA invite les parties intéressées à commenter un projet d’avis du RAC concernant la toxicité pour la reproduction de l’arséniure de gallium, avant son adoption par le Comité. Les commentaires reçus par l’ECHA seront mis en ligne régulièrement. Ils sont à soumettre avant le 19 juin 2013.

Nouvelle consultation pour éviter les tests sur les animaux

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont le 2-benzyl-2-dimethylamino-4′-morpholinobutyrophenone (N°CE : 404-360-3), produit en verre amorphe formé à partir de la fusion et du défibrage de l’oxyde de dipotassium, oxo (oxoalumanyloxy) alumane et dioxosilane (N°CE : 931-219-8), O,O-di(1-methylethyl)trithio-bis-thioformate; O,O-di(1-methylethyl)tetrathio-bis-thioformate; O,O-di(1-methylethyl)pentathio-bis-thioformate (N°CE : 403-030-6).

Les informations relatives à ces substances sont à soumettre pour le 8 juillet 2013.

14/06/2013 : conférence en ligne sur les bases de IUCLID 5.5

L’ECHA organise une conférence en ligne le 14 juin 2013 sur les bases de IUCLID 5.5. Cette conférence donnera un aperçu des concepts de base de IUCLID ainsi qu’une introduction aux nouvelles fonctionnalités de IUCLID 5.5.

 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Notre Q.I. est en chute libre

Sommes-nous en train de devenir stupides ? C’est en tout cas la conclusion désastreuse d’une étude qui révèle que  notre QI décline de 1.23 points par décennie. A ce rythme là, ceux dont le QI dépasse les 100 seront bientôt considérés comme des génies. Menée conjointement par des chercheurs suédois, belges, néerlandais et irlandais, l’étude a consisté à mesurer le temps de réaction moyen d’un homme.

Les données penchent nettement en faveur de l’homme de 1889 qui affichait un temps de 183 millisecondes, contre seulement 253 millisecondes pour un occidental vivant en 2004. Or, le temps de réaction est un indicateur des capacités cognitives d’une personne, et cette contre-performance témoignerait donc d’un recul de notre intelligence.

Mais pourquoi une telle régression ? Et pourquoi cela concerne l’homme occidental en particulier ?

Tout simplement parce que les femmes les plus intelligentes font de moins ne moins d’enfants. L’accès à l’éducation et au travail les conduit à se reproduire une à deux fois maximum, en transmettant leur patrimoine génétique « intelligent » qu’à un ou deux enfants. A contrario, les femmes issues des basses couches sociales, qui seraient moins intelligentes, continuent à avoir des familles nombreuses, avec 3, 4 ou plus d’enfants. Ainsi, la proportion d’enfants intelligents baisse quand celle d’enfants stupides augmente. En moyenne, l’homme occidental devient donc plus bête.

Une explication simpliste qui n’engage que les auteurs de l’étude.

Découvrir l’étude : sciencedirect.com/science/article/pii/S0160289613000470

Par Audrey Loubens, journaliste scientifique

Lorsque les satellites assurent la sécurité alimentaire mondiale

En orbite à 850 km ou à 36 000 km de la surface de la Terre, les capteurs des satellites peuvent saisir des détails avec une précision de pixel qui descend à quelques mètres. Les satellites ont déjà révolutionné la météorologie grâce aux mesures de paramètres de l’atmosphère : température, pression, vitesse des vents, etc. Ils sont à présent en phase de révolutionner l’agriculture pour l’amener à devenir une agriculture de précision.

Les satellites peuvent désormais suivre l’évolution des cultures à des stades clés de leur croissance en mesurant des paramètres qui traduisent la densité et l’état de la végétation sur une parcelle, comme la température, la teneur en chlorophylle et l’indice foliaire.

Par exemple, la température de surface d’une parcelle augmente et c’est peut-être un stress hydrique qui est en cours de détection !

Il est ainsi possible d’optimiser les intrants en déterminant la période idéale pour irriguer, épandre des pesticides ou des engrais ou tout simplement pour récolter. Surtout, les satellites permettent d’optimiser les traitements à l’intérieur d’une même parcelle, les besoins n’y étant pas forcément les mêmes.

À l’échelle mondiale, le Programme de suivi de l’agriculture mondial par satellite GEO-GLAM (Group on Earth Observations- Global Agriculture Monitoring) permet d’anticiper les volumes des grandes productions agricoles mondiales, de prévoir une surproduction ou, à l’inverse, une pénurie.

Ce programme a été décidé en 2011 par le G20 agricole et est porté par des institutions de 12 pays (Allemagne, Argentine, Australie, Brésil, Canada, Chine, France, Inde, Italie, Japon, Russie, USA) et par l’Union européenne, en étroite coordination avec l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) et l’Organisation météorologique internationale (OMI).

Concrètement, quel est son intérêt ?

L’objectif du programme GEO-GLAM est de lutter contre la « volatilité » des prix agricoles en renforçant l’information et la transparence sur les marchés agricoles. L’idée est de donner à la communauté internationale la capacité de produire et de diffuser rapidement une information pertinente et fiable sur les perspectives de production agricole aux échelles nationales, régionales et globale.

Cela est particulièrement intéressant pour les nations qui ont besoin d’assurer leur sécurité alimentaire et les gros acteurs économiques du secteur. Car oui, lors de la crise alimentaire de 2008, plusieurs pays ont été pris de cours. 

Rappelons, par exemple, que le Vietnam est un gros pays producteur et exportateur de riz. Durant cette crise de 2008, son gouvernement a annoncé des restrictions à l’export pour assurer la sécurité alimentaire de sa population et éviter des spéculations trop importantes. Il y a donc un intérêt incontestable à connaître à l’avance les volumes de production pour les gouvernements et les opérateurs économiques qui veulent une information fiable et complète. Ils pourront placer leurs ordres de vente ou d’achat en conséquence. 

Les satellites permettent ainsi plus facilement de connaître les surfaces mises en culture, celles-ci pouvant varier d’une année sur l’autre, notamment dans les pays en développement et l’information étant difficile à obtenir sur le terrain. Les satellites permettent d’ores et déjà d’identifier les grandes cultures de céréales comme le riz, le maïs et le soja, mais aussi le tournesol. Cela reste toutefois encore compliqué pour les cultures vivrières. 

Grâce à quelques satellites en fonctionnement depuis une dizaine d’années, il est possible de comparer le développement des cultures de l’année en cours à la moyenne passée. Cela permet la prédiction d’anomalies ou de stress. Dès lors, il est possible de prévoir les rendements. « Là, on oscille entre des dires d’experts ou des modèles statistiques », explique Pascal Kosuth, chercheur Irstea, travaillant sur le projet.

« En 2011, on a vu de très fortes sécheresses à la fois sur la Corn Belt aux Etats-Unis et sur le croissant Ukraine – Russie – Kazahstan et l’on a su qu’il y aurait une chute de production agricole mondiale », précise-t-il. 

Le programme vise à mettre à disposition l’imagerie satellitaire aux acteurs qui le demandent, à développer les méthodes pour identifier de nouvelles cultures et mieux les analyser, à soutenir quelques programmes faisant du suivi global, à développer les compétences des pays qui veulent améliorer leur propre suivi et à suivre les zones à risque. « Toutes les informations qui sortiront de Geo-glam seront publiques et gratuites », affirme le chercheur.

Plus largement, les satellites permettent de quantifier les gaz dans l’atmosphère (dioxyde de carbone, ozone, etc.), la hauteur des arbres, la déforestation, l’épaisseur des glaces sur les océans et le niveau des océans. Des chercheurs travaillent sur la mesure des isotopes et de la vitesse de surface des océans. « On pourra très probablement dans 10, 15 ou 20 ans estimer les débits des fleuves partout à la surface du globe », prévoit Pascal Kosuth. Les satellites n’ont donc pas fini de nous impressionner.

Par Matthieu Combe, journaliste scientifique

 

Découvrez le pack « Environnement » :


Comment améliorer la réalisation d’une idée ?

Cependant, il faut exceller dans son exécution pour s’assurer qu’elle répondra aux attentes des consommateurs et éloignera vos concurrents. En adoptant certaines méthodes, vous pouvez améliorer la réalisation d’une idée pour favoriser vos chances de devenir un entrepreneur prospère.

Etre passionné par l’idée

Une idée peut être réalisée plus efficacement si vous exprimez un intérêt fort pour cette dernière et son marché. Favorisez des domaines qui vous passionnent, qui vous donnent envie. Grâce à ce fort intérêt, votre implication sera totale et vous pourrez alors mieux la réaliser.

Ne cherchez donc pas une idée dans des domaines qui ne vous attirent pas, qui ne vous donnent pas envie, car votre détermination à la réaliser sera beaucoup moins motivée.

Comprendre son marché

La qualité de réalisation de votre idée dépendra notamment de votre compréhension du marché que vous souhaitez conquérir. Si vous avez acquis une forte expérience, vous comprendrez clairement les besoins de vos futurs consommateurs et les réponses apportées par vos éventuels concurrents.

Dans le cas contraire, vous risquez d’apporter une réponse inadaptée et de mal anticiper les évolutions de votre marché. Vos concurrents en profiteront alors pour capter vos parts de marché en peu de temps.

Vous pouvez améliorer votre compréhension d’un marché en travaillant quelques temps pour l’un de vos futurs concurrents, ou dans une entreprise proposant un poste qui vous enrichira, tel que le métier de commercial, qui vous apportera une forte proximité auprès des clients.

Avoir une équipe compétente

Les compétences de votre équipe détermineront votre capacité d’exécution et sa qualité. Une idée nécessite de nombreuses compétences qu’il faut trouver pour assurer sa réalisation. Ainsi, vous aurez peut-être besoin d’un développeur, graphiste, responsable administratif ou marketing par exemple.

Vous devez faire le point sur vos compétences et celles qui vous manquent. Ensuite, il faudra trouver des associés ou partenaires pour combler vos lacunes.

S’il vous manque des compétences fondamentales, la réalisation de votre idée sera retardée, vous manquerez alors de dynamisme et vous risquez de réaliser de façon médiocre votre idée.

Trouver de bonnes idées 

La réalisation d’une idée est primordiale à la concrétisation de votre projet. Cependant, encore faut-il trouver la bonne idée !

Par exemple, MonPetitBiz.fr est le magazine francophone spécialisé dans les nouvelles idées de business innovantes et tendances à travers le monde, de tout domaine, et n’attendant qu’à être importée sur le marché français. 

Par Marc du magazine MonPetitBiz

Source : ameliorationcontinue.fr/ecoute-client-realisation-idee/

La quantité de CO2 dans l’air n’a jamais été aussi importante

« Le monde doit se réveiller ». C’est par ces mots que Chritiana Figueres, responsable climat de l’ONU, espère convaincre de l’urgence et de la nécessité de limiter les émissions de gaz à effet de serre. Car la situation empire.  

Le jeudi 9 mai 2013, l’observatoire référence situé sur le  volcan de Mauna Loa à Hawaï a mesuré une concentration de CO2 dans l’air de 400,03 ppm. Jamais une telle concentration n‘avait été atteinte, alors même que les  scientifiques du monde entier militent pour tenter de contenir le réchauffement climatique à +2°C par rapport aux niveaux existants avant le 19ème siècle. 

Il s’agit pour l’instant d’une mesure ponctuelle. Heureusement car si l’on venait à atteindre le seuil de 400 ppm sur l’année, alors cela signifierait que le réchauffement est déjà de 2.4°C, d’après le dernier rapport du GIEC (Groupe Intergouvernemental d’Experts sur l’Evolution du Climat).

« Le monde doit se réveiller et prendre note de ce que cela signifie pour la sécurité des hommes, leur bien-être et le développement économique. » insiste Christiana Figueres. Seul problème, les actions à mener nécessitent une vision à long terme, souvent incompatible avec les délais des décideurs politiques. Car pour espérer limiter la casse, il faudrait que les émissions de CO2 décroissent dès 2020, et qu’elles soient divisées par trois entre 2020 et 2050. Un objectif qui s’annonce très compliqué à tenir puisque pour l’instant elles augmentent d’environ 3% par an.

La limite des 2°C de réchauffement pour 2100 correspond à un seuil critique au-delà duquel la planète risque un emballement climatique : fonte de la banquise, multiplication des phénomènes extrêmes (canicules, tornades, ouragans…), élévation du niveau des océans, modification de la végétation ou encore migration des animaux.

Le GIEC rendra son prochain rapport en septembre.

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation de prévention des Gaz à effet de serre :


Des clusters de nanoparticules d’or pour améliorer les capteurs SERS ?

Cellules cancéreuses, pathogènes alimentaires ou encore certaines menaces biologiques : tous peuvent être détectés depuis plusieurs années grâce à la diffusion Raman exaltée par effet de surface (SERS pour « Surface Enhanced Raman Spectroscopy »), technique dérivée de la spectroscopie Raman, une méthode non destructive d’observation et de caractérisation de la composition moléculaire et de la structure externe d’un matériau.

Un faisceau de lumière monochromatique est envoyé sur un échantillon à étudier, diffusant la lumière avec un décalage en fréquence qui est ensuite analysé pour nous renseigner sur l’échantillon en question.

Pour faire face au besoin grandissant de précision pour ces instruments de mesure de pointe, une équipe de chercheurs de l’agence gouvernementale A*Star de Singapour a développé une matrice particulièrement régulière constituée de clusters de nanoparticules d’or, capable d’améliorer sensiblement la précision des capteurs SERS, ouvrant la voie à de nombreuses applications commerciales économiquement intéressantes.

Les capteurs SERS nécessitent une surface métallique nanostructurée, sur laquelle on projette le faisceau de lumière.

Une surface idéale présente une nanostructure dense, un arrangement régulier pour produire des niveaux de signaux tout aussi réguliers, une certaine robustesse et un coût de production intéressant.

Les chercheurs sont parvenus à réaliser cette prouesse en se servant de surfaces enrobées d’une couche de nanoparticules de polymères, sur lesquelles de plus petites nanoparticules d’or sont venues s’attacher spontanément, pour former la matrice de clusters.

L’utilisation de ces clusters semble économiquement intéressante : seulement 10 milligrammes du polymère et 100 milligrammes des nanoparticules d’or sont nécessaires pour enrober une cellule de 10 centimètres de diamètre.

Par Moonzur Rahman

 

Découvrez les offres de formation :


Economiser de l’énergie en optimisant la mise en veille des appareils de production

Voilà une idée qui pourrait séduire de nombreux industriels : économiser de l’énergie et donc de l’argent via une meilleure gestion de la mise en veille des machines.

Développée conjointement par Siemens, Phoenix Contact, l’Institut Fraunhofer, avec l’aide de constructeurs automobiles allemands tels que Volkswagen, Audi, Daimler, Porsche et BMW, le système existe depuis mi-2010.

Le principe est simple : mettre en veille les machines lorsqu’elles ne fonctionnent pas. Si cela est faisable de façon manuelle, en pratique l’arrêt des robots est réservé aux longues périodes de pauses.

De plus, l’arrêt et le redémarrage des machines nécessitent souvent le respect d’un certain protocole, ce qui est long et fastidieux.

PROFIenergy propose justement d’automatiser l’arrêt et le redémarrage des machines, que cela soit pour de longues ou courtes périodes comme la pause déjeuner par exemple.

Pour cela, quatre modes de fonctionnement sont disponibles et paramétrables pour personnaliser les dispositifs de coupures, du mode 0 qui consiste en une veille totale, les fonctions de sécurité de l’équipement étant désactivées, au mode 3 où l’appareil est prêt à fonctionner.

Avec ce système, il serait possible d’économiser jusqu’à 80% d’énergie, ce qui représenterait un gain annuel de 60 000 euros pour l’exploitation d’une cellule robotisée dans l’automobile

Cette solution s’appuie sur le standard de communication PROFINET, créé par l’association PROFIBUS et PROFINET International.

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation Economies d’énergie :


Ethique et robotique : quid des robots tueurs

Christof Heyns, Rapporteur spécial de l’ONU sur les exécutions extrajudiciaires, sommaires et arbitraires, présentera son rapport sur les robots autonomes munis d’armes létales le 29 mai, lors de la 2e session du Conseil des droits de l’homme des Nations Unies à Genève. Il recommandera aux gouvernements d’instaurer des moratoires nationaux sur le développement de ces robots et demandera l’établissement d’un groupe de haut niveau pour l’élaboration d’un traité international.

Pour appuyer la sortie de ce rapport, Human Rights Watch a lancé fin avril une campagne mondiale pour l’interdiction de ces « robots tueurs ». « Le recours à des robots tueurs transgresserait toute frontière morale et juridique, et devrait être rejeté comme étant inacceptable pour la conscience publique.» affirme Steve Goose, directeur de la division Armes à Human Rights Watch dans un communiqué.

Découvrez le pack « Ingénierie des systèmes robotiques » 

De nombreuses préoccupations sont en effet suscitées par les armes complètement autonomes, notamment sur les plans juridique, éthique et politique. L’utilisation d’armes totalement autonomes créerait un vide juridique en matière de responsabilité, car il serait très difficile d’établir clairement qui serait légalement responsable des actes d’un robot. En l’absence d’intervention humaine dans la chaîne de décision, qui serait responsable en cas de raté : le fabricant, l’armée, le politique ?

De quels robots parle-t-on exactement ?

Les progrès technologiques permettent aujourd’hui de contrôler des drones ou des véhicules armés sans équipage. « De nombreuses armées sont à la recherche d’armes de plus en plus autonomes, mais une ligne rouge doit être tracée dès maintenant devant des armes qui seraient complètement autonomes », estime Steve Goose. « Mettre au point ces armes reviendrait à aller trop loin dans le recours à la technologie et une interdiction est nécessaire dès maintenant, avant que les investissements, la dynamique technologique et de nouvelles doctrines militaires ne les rendent inéluctables.» poursuit-il.

Le Département américain de la Défense a d’ores et déjà émis une Directive (nº 3000.09) qui, pour l’instant, exige qu’un être humain soit dans la chaîne de consultation des systèmes pleinement autonomes quand il s’agit de décider de l’utilisation de la force létale. En revanche, elle prévoit une dérogation possible si les responsables du Département au plus haut niveau le décidaient. Les acteurs en présence estiment donc qu’il faut aller plus loin dans l’interdiction.

Une réflexion éthique en cours

Le plan « France robots initiatives », soutenu par Arnaud Montebourg, ministre du redressement productif, vise une réflexion sur ces questions éthiques. Cette réflexion s’intéressera bien évidemment à l’acceptabilité éthique et sociétale des robots dans les domaines de la défense et de la sécurité, mais aussi, de façon plus large, à la place respective de l’homme et des machines « intelligentes » dans la société. Ce travail débouchera sur une charte éthique ou déontologique.

Par Matthieu Combe, journaliste scientifique

Peut-on rattraper le retard de la robotique française?

La France est entrée en récession, la production hexagonale diminue et Arnaud Montebourg, ministre du redressement productif, aimerait bien relancer les machines.

Il a donc décidé de miser en partie sur la robotique. Et pour cause : la Commission européenne estime à 100 milliards d’euros en 2020 le marché de la seule robotique de service.

Voilà une bonne raison de vouloir être parmi les leaders ! Alors, quitte à se fixer des objectifs, autant viser haut et chercher à se hisser parmi les 5 nations leader de la robotique dans le monde d’ici 2020.

On distingue traditionnellement la robotique industrielle de la robotique de service à usage personnel ou professionnel.

La première constitue un marché mature dominé par les Japonais, les Américains et les Allemands ; la seconde est un marché émergeant au potentiel de croissance considérable.

 

      Découvrez le pack « Ingénierie des systèmes robotiques » 


Cette distinction tend cependant de plus en plus à s’estomper, car les briques technologiques concernant les deux domaines sont largement communes.

Ce rapprochement est encore davantage renforcé par l’émergence de la « cobotique », c’est-à-dire la cohabitation des humains et des robots. 

Des filières françaises à consolider et à fédérer

En matière de robotique, il n’existe pas à ce jour de leadeurs industriels français mondiaux. Notre pays possède toutefois de nombreuses briques technologiques et de nombreux acteurs performants connexes à cette filière.

On y trouve des intégrateurs et des équipementiers de haut niveau, quelques dizaines de start up technologiques, des pôles de compétitivité mondiaux ou à vocation mondiale travaillant sur la robotique et EADS, Thalès ou EDF ont lancé des programmes de recherche importants. 

Pour cette raison, la recherche robotique française est encore peu représentée dans les projets européens.

Sa participation s’élève à 5,6 %, pendant que celle de l’Allemagne monte à 27,4 %, celle de la Grande Bretagne à 17,3 % et celle de l’Italie à 12,4 % !

Dans cette perspective, le plan « France Robots Initiatives » cherchera à renforcer la participation française aux projets de recherche européens et tentera de structurer la filière, la développer et créer les conditions propices à l’émergence d’un marché sur le long terme.

Pour que la réussite soit au rendez-vous, le plan prévoit une large palette d’outils. 

Quel est le plan d’actions ?

Le marché étant encore émergeant, le plan « France Robots initiatives » donne la priorité à la robotique de service à usage personnel et professionnel.

Il cherche aussi à développer une offre française mondiale en matière de cobotique et de machines intelligentes destinée notamment aux PME.

Ces systèmes permettront d’importantes avancées dans les secteurs où les opérateurs ont besoin de robots performants, notamment en médecine, aéronautique, défense et nucléaire.

Le plan se propose de répondre à trois enjeux majeurs : trouver des aides financières à la filière robotique, fédérer la filière et améliorer la compétitivité industrielle des entreprises pour maintenir et même relocaliser la production et l’emploi industriel en France.

Il prévoit aussi de soutenir la formation, la R&D et l’innovation. Pour réussir cette nouvelle industrialisation, il faudra notamment parvenir à améliorer le transfert technologique des académiques vers l’industrie.

Pour mieux fédérer la filière, des états généraux de la robotique seront organisés chaque année.

Ils pourraient se tenir en marge du salon InnoRobo, désormais identifié comme le rendez-vous européen de la robotique de service, qui réunit les grands experts européens, coréens, japonais et américains.

Le plan prévoit également de développer les défis, sur le principe des trophées de la robotique étudiants. Ces défis constituent en effet un catalyseur puissant de collaborations entre le monde académique et le monde de l’entreprise. Plusieurs défis ciblés sur des verrous ou simplement des objectifs bien identifiés pourraient être lancés la même année. Le Ministère financement de ces défis se fera à hauteur de 1,5 millions d’euros.

Des graines à faire germer

Le plan prévoit également le soutien à la robotique par l’achat public innovant. De plus, dans le cadre du programme des investissements d’avenir et de l’appel à projets « filières », un appel à projet spécifique robotique soutenu à hauteur de 10 millions d’euros concernera l’industrialisation de dispositifs mettant en œuvre des briques technologiques stratégiques. 

Enfin, l’émergence de ces nouveaux marchés doit être organisée dès maintenant, notamment au travers de la réglementation.

Ainsi, le marché des drones, par exemple, ne peut pas décoller en France faute d’une réglementation autorisant leur insertion progressive dans la circulation aérienne.

Il faudrait éviter cet écueil à l’avenir, par exemple pour les voitures autonomes, dont le développement de la réglementation promet des débats houleux !

Par Matthieu Combe, journaliste scientifique

Revue du web : quels sont les meilleurs robots français ?

Cette semaine dans notre revue du Web, consacrée à la robotique française :

  • NAO, un succès français : le petit robot humanoïde d’Aldebaran Robotics tient le haut du pavé tricolore ;
  • ROMEO, le petit frère, destiné à l’assistance aux personnes âgées ou handicapées ;
  • e-vigilante, le robot rondier d’EOS Innovation ;
  • Jessiko, le poisson robot social et autonome ;
  • SmartBot, plate-forme alsacienne de divertissement mobile ;
  • Et pour finir, pas de cocorico pour le gadget (inutile ?) de la semaine : « Automato », le robot foireux et hilarant de Heinz

      Découvrez le pack « Ingénierie des systèmes robotiques » 


NAO, un succès français

Pour débuter notre quarante-cinquième Revue du Web, arrêtons-nous un instant sur la superstar des robots tricolores, le petit NAO.

Conçu par la société française Aldebaran Robotics, une start-up basée à Paris, NAO défraie la chronique tant son succès semble ne plus avoir de limites.

Adoubé par les universités et les laboratoires de recherche du monde entier, ce poids plume de 58 centimètres de haut serait parvenu à transformer – et ce pour un grand nombre d’observateurs – Aldebaran Robotics en leader mondial dans le domaine de la robotique humanoïde.

Sorti de l’anonymat pour la première fois à la fin de l’année 2006, ce n’est véritablement qu’en 2007 qu’il explose aux yeux de tous, lorsque la RoboCup – tournoi international de robotique, l’une des vitrines de l’innovation robotique – décide de se servir de NAO comme plate-forme standard de la compétition, damant le pion au géant japonais Sony et à son chien robot Aibo.

Les universités et les laboratoires de recherche du monde entier se l’arrachent, utilisant les capacités d’interaction du petit robot et sa grande polyvalence aussi bien comme support pédagogique que comme plate-forme de recherche. Alors que NAO équipait déjà près de 500 établissements, Aldebaran Robotics se décide, en 2012, à proposer son robot au grand public.

Programmable, son point fort est qu’il incarne l’accès à l’innovation concrète. NAO dispose d’un corps avec pas moins de 25 degrés de liberté (comprenant moteurs et actionneurs électriques), de deux caméras, de quatre microphones, d’un télémètre sonar lui permettant d’estimer les distances aux obstacles dans son environnement, avec une portée de détection allant de 0 à 70 centimètres, de deux émetteurs et récepteurs infrarouges, de neuf capteurs tactiles et de huit capteurs de pression.

Suivant ce pour quoi il est programmé, il peut danser, chanter ou encore… jouer au foot.

Il tourne sur un processeur Intel ATOM 1,6 GHz exploitant un noyau Linux et supportant le middleware exclusif d’Aldebaran (NAOqi). Il dispose d’une autonomie d’environ 90 minutes, et est également équipé d’un gestionnaire de chute totalement innovant, qui a pour rôle de détecter le moment ou le centre de masse de NAO sort du « polygone de sustentation », défini par la position du ou des pieds en contact avec le sol.

Que de chemin parcouru depuis 2006, jusqu’à la nouvelle génération, le « NAO Next Gen » qui tient d’ailleurs toutes ses promesses !

 

ROMEO, le petit frère ?

Si NAO est bien la superstar des robots humanoïdes français, son petit frère ROMEO, également conçu par les Parisiens de Aldebaran Robotics, pourrait bien un jour lui tenir la dragée haute et passer du statut de dauphin à celui de star à part entière.

Un premier prototype de ce robot fut dévoilé à la presse, aux professionnels et aux partenaires du projet début 2012, levant un peu le voile sur les intentions du pôle de compétitivité français Cap Digital, chef d’orchestre du projet.

ROMEO est un robot humanoïde qui, du haut de son mètre quarante, devrait révolutionner l’assistance aux personnes âgées ou handicapées.

« Les robots humanoïdes auront un rôle essentiel à jouer en assistant les personnes âgées dans leur vie quotidienne, en leur permettant de rester chez elles plus longtemps et de conserver le plus d’autonomie possible », peut-on lire sur le site d’Aldebaran Robotics.

Les responsables du projet mettent l’accent sur le coût exorbitant des séjours hospitaliers à long terme pour promouvoir ROMEO comme une « alternative économiquement pertinente », offrant une plate-forme idéale d’assistance pour les soins médicaux à distance, tout comme son grand frère NAO.

Une fois sorti de la phase de développement, ROMEO devrait être capable de marcher, de se repérer face à des obstacles, de manipuler des objets du quotidien (bouteille, clés, ouvrir une porte…), de porter des objets (voire des humains) et de porter secours à un être humain en cas de chute.

Le projet, d’un montant total avoisinant les 10 millions d’euros, est financé par la Région Île de France, la Direction Générale de la Compétitivité, de l’Industrie et des Services et la Ville de Paris, et est subventionné à hauteur de 4,9 millions d’euros. Les plus optimistes attendent une mouture plus aboutie courant 2015.

e-vigilante, vaisseau amiral de EOS Innovation

Le robot mobile et autonome e-vigilante, dédié à la surveillance des entrepôts et sites industriels étendus, peut être considéré comme le vaisseau amiral de la jeune société française EOS Innovation, fondée en 2010 par David Lemaître et basée à Evry, en région parisienne.

Bien que la plate-forme d’e-vigilante soit encore expérimentale, rien ne l’empêche de remplir gaillardement sa fonction première : donner l’alerte en cas d’intrusion dans un entrepôt (ou tout autre type d’espace clos), ou en cas d’incidents (comme une fuite d’eau ou un départ d’incendie). L’information est transmise à un agent de sécurité – e-vigilante est connecté à internet via wifi – qui prend alors le contrôle du robot.

En effet, le robot rondier d’EOS Innovation est totalement autonome, une première en Europe, aidé dans sa tâche par un système complet de cartographie et de navigation mis au point à l’école des Mines de Paris.

Cette plate-forme robotique modulaire et évolutive embarque à son bord de nombreux capteurs, une caméra infrarouge motorisée à 360°, des enceintes et des microphones, ainsi que quelques moyens de dissuasion – tels qu’un flash aveuglant et une alarme stridente.

Le robot rondier ne dépasse pas les 25 centimètres de hauteur, dispose de plus de 7 heures d’autonomie et est équipé d’une connectique USB.

e-vigilante effectue des rondes définies ou aléatoires sur un périmètre assigné, à une vitesse comprise entre 8 et 10 km/h, vitesse à laquelle il pourra bientôt parcourir les entrepôts du groupe Casino pour un essai, avant peut-être de se lancer dans une production industrielle courant 2014.

Jessiko, poisson robot social et autonome

On reste en région parisienne, mais on va cette fois-ci du côté de Palaiseau pour rendre visite à la start-up Robotswim, dont le poulain « Jessiko » est un poisson robot social et autonome qui fait de plus en plus parler de lui, et qui semble avoir le vent en poupe.

Las d’organiser des concours de robotique – la coupe de France de football des robots – alors que son cerveau fourmille d’idées et que son carnet d’adresse est plein à craquer, Christophe Tiraby a décidé de franchir le cap et de devenir un acteur de ce marché, avec la mise au point d’un robot poisson de petite taille et au faible coût de production.

Nous sommes en 2005, et Jessiko vient tout juste de naître.

Conçu pour nager en banc, ce poisson d’une vingtaine de centimètres de long réagit à son environnement et aux informations provenant aussi bien de l’extérieur que des autres poissons grâce à deux microprocesseurs embarqués.

Mais c’est surtout sa « tête chercheuse » révolutionnaire, nœud central d’un procédé de localisation basé sur les ondes lumineuses qui donne toute son autonomie à Jessiko, et qui attise par là même les convoitises de nombreux fabricants de robot.

Il peut atteindre une vitesse de pointe de plus de 20 centimètres par seconde grâce aux battements rapides de sa nageoire arrière, la nageoire avant – proéminente – lui permet de contrôler le roulis, et son aileron lui permet de gérer au mieux sa flottabilité en influant sur le volume d’eau déplacé.

Il remporte le Grand Prix de l’Innovation de la Ville de Paris en novembre 2009, catégorie Design, et c’est peut-être là que le bât blesse : Jessiko semble pour le moment n’être destiné qu’à orner les aquariums du monde entier, animant grands magasins et événements en tous genres, mais il pourrait à l’avenir embarquer divers capteurs pour fournir des renseignements sur la qualité de l’eau et sur son pH.

SmartBot, plate-forme de divertissement mobile

Dirigeons-nous enfin vers Mutzig, petite commune du Bas-Rhin, pour jeter un œil à une petite plate-forme de divertissement mobile baptisée SmartBot.

Bien qu’elle puisse faire pâle figure comparée au robot humanoïde NAO d’Aldebaran Robotics, la petite plate-forme robotique a désormais un peu plus qu’un simple succès d’estime.

Conçue par la start-up Overdrive Robotics, le petit engin utilise un smartphone en guise de cerveau et d’interface utilisateur, ce qui lui permet d’être particulièrement polyvalent.

Pour contrôler ou jouer avec la plate-forme SmartBot, quatorze applications gratuites sont disponibles. Vous pouvez même créer vos propres applications et les soumettre aux développeurs de la start-up via SmartBot SDK.

Les 500 grammes de SmartBot sont compatibles avec les principaux systèmes d’exploitation – Android, iOS, Windows Phone – et peuvent se réserver sur le site du fabricant pour 160 euros.

Le gadget (inutile ?) de la semaine : « Automato », le robot foireux et hilarant de Heinz

Pas de cocorico par contre pour le gadget (inutile?) de la semaine, car nous nous sommes laissés charmer par un grand classique de la publicité virale, le robot « Automato » de la marque américaine Heinz, le géant du ketchup.

Mis au point en 2005 par Bill Fienup et Barry Kudrowitz, deux talentueux ingénieurs du prestigieux Massachusetts Institute of Technology (MIT) pour les besoins d’un concours, le « Ketchup Crapper » fut un succès immédiat de par son extrême décalage et ses nombreux ratés potaches, qui augmentèrent d’autant le coefficient sympathie de la bête télécommandée.

Le but du Ketchup Crapper ? Essayer tant bien que mal d’agrémenter nos assiettes de ketchup tout en crânant avec ses petits bras verts musclés. Spectacle et second degré garantis !

L’entreprise Medtech, dédiée à l’assistance robotique pour les chirurgiens, a le vent en poupe !

On le sait, la course aux investisseurs relève bien souvent du périple en France. Engendrant une perte de temps conséquente tant dans le développement du projet qu’au niveau de la recherche de marché. Cela occasionne parfois un manque de motivation contraignant les inventeurs à s’expatrier ou à vendre leur concept. Ce fût le cas en 2006 lorsque Bertin Nahum avait vendu les brevets de Brigit, son robot orthopédique à Zimmer Inc, le leader mondial en la matière. Aujourd’hui avec un apport de fonds suffisant, la donne est bien différente. Voilà pourquoi, avec Rosa, il se dit prêt à se lancer vers de nouveaux marchés, notamment outre-Atlantique.

      Découvrez le pack « Ingénierie des systèmes robotiques » 


Mais faisons un retour sur l’histoire de Medtech. Aux commandes de l’entreprise, on trouve Bertin Nahum, diplômé de l’Institut National des Sciences Appliquées et détenteur d’un Master of Science en Robotique de Coventry University. Après avoir occupé différents postes au sein d’entreprises américaines telles que Computer Motion Inc ou Integrated Surgical System Inc, il crée Medtech, une PME destinée au soutien des chirurgiens à l’aide de la robotique. C’était en 2002 et la PME a aujourd’hui onze ans. Au départ seuls quatre employés y travaillaient. Ils sont une vingtaine à présent et Medtech réalise un chiffre d’affaire annuel de deux millions d’euros.

Mieux, ce fondateur charismatique compte désormais, selon le magazine canadien Discovery Series, parmi les chefs d’entreprises les plus révolutionnaires. Au même titre que Steve Jobs ou encore Mark Zuckerberk. C’est dire ! Une notoriété qu’il doit à son talent d’entrepreneur bien sûr, mais surtout à sa dernière innovation : le dispositif Rosa.

Ce système dispose des avantages des robots médicaux, mais au service de la neuro-chirurgie. C’est-à-dire qu’il apporte un certain confort de travail. Il ne remplace pas les médecins mais les assistent dans les tâches les plus délicates lors des interventions dont la précision est primordiale. Ainsi, une fois les données préopératoires planifiées, les chirurgiens opèrent à distance, guidés par l’image. Rosa est un véritable combiné de nouvelles technologies. Il a d’ailleurs été conçu en collaboration avec des équipes chirurgicales pour répondre au mieux à leurs besoins.

Forcément, ce dispositif révolutionnaire a de quoi intéresser. D’autant que le secteur de la neuro-chirurgie ne bénéficiait pas encore d’un tel outil. Des financements sont enfin arrivés. Medtech est parvenu à obtenir 4,5 millions d’euros de fonds. Ils ont pour but de permettre un déploiement à plus grande échelle. Car la France n’est pas le seul pays visé.

Les États-Unis sont aussi en ligne de mire tout comme le développement commercial à l’étranger en général. Seule ombre au tableau, le coût onéreux de la machine : 500 000 euros. Il devrait en dissuader plus d’un hôpital. Pour l’heure, seules les grandes infrastructures peuvent se le permettre mais elles ne doivent pas penser à la rentabilité financière immédiate. Il ne peut y en avoir. Pour amortir un tel investissement il faudra tabler sur le long terme. Toutefois, le dispositif offre bien des avantages aux médecins ainsi qu’aux patients, notamment d’un point de vue récupération et donc de libération des chambres.

Par Sébastien Tribot

«La révolution smart grid ne se fera pas à l’insu du consommateur»

A trop focaliser sur les apports techniques et économiques de ces nouvelles technologies, les acteurs du secteur courent le risque de passer à côté de l’essentiel : leur adoption par les particuliers. Pour permettre à ce marché d’atteindre une masse critique, le consommateur devra se sentir pleinement impliqué. Une démarche qui demandera du temps et nécessitera de développer une argumentation moins « rationnelle ».

Une distinction très forte entre sphères publique et privée

Une personne peut être très rationnelle dans ses choix de consommation lorsqu’elle se trouve dans un espace public ou professionnel et agir à l’inverse une fois chez elle, la sphère privée restant synonyme de confort et d’opulence.

« Si, sur son lieu de travail, un individu accepte facilement que le chauffage n’excède pas 19° », commente ainsi Stéphane Hugon, « il considèrera paradoxalement tout aussi normal d’avoir une température de 24° à son domicile. »

L’argument économique, prôné par les acteurs des futurs réseaux énergétiques intelligents, se confronte aujourd’hui à une dimension anthropologique sous-estimée et fortement liée à l’éducation de chacun.

En effet, même si une prise de conscience existe quant à l’importance de modérer sa consommation énergétique, dans les faits, les actes individuels allant dans ce sens restent marginaux.

« Actuellement, les smart grids ne sont pas compris, ni perçus comme des leviers d’économies et ont donc du mal à générer de l’engagement de la part des individus sur le plan comportemental.

Revoir son isolation, par exemple, sera un effort mieux consenti, car efficace immédiatement et, surtout, visible », souligne Stéphane Hugon.

Créer des passerelles de communication entre deux mondes

La façon d’expliquer l’offre au consommateur est primordiale pour obtenir son adhésion. Il s’agit de remplacer la logique technique par une logique de crédibilité et de confiance.

Sans le consentement du consommateur, les applications smart grids sont vouées à l’échec. « Si tous les consommateurs veulent que leur voiture roule bien, très peu regardent sous le capot.

C’est la même chose avec les smart grids : l’individu souhaite optimiser sa consommation d’énergie, mais ne s’intéresse pas à ce qui se passe à l’intérieur de son compteur électrique », précise Stéphane Hugon. Actuellement, les smart grids se retrouvent au centre de deux mondes, qui ne se comprennent pas ou peu : les habitants et les ingénieurs.

L’impératif est aujourd’hui de trouver des interfaces de langage commun aux deux univers.

Des freins techniques et sociologiques

Le premier frein à l’essor des smart grids dans notre société reste la méconnaissance du fonctionnement de notre système énergétique.

Avec ces technologies, le particulier n’est plus seulement consommateur, il devient producteur. Une dimension nouvelle et révolutionnaire, qui reste difficile à saisir pour le citoyen lambda.

« Notre système s’inscrit dans une culture de service public avec un opérateur historique et un rapport passif entre ce dernier et le consommateur. L’idée qui consiste à transformer l’individu en partenaire du distributeur est forcément déstabilisante », explique Stéphane Hugon.

La crainte de perdre le contrôle de son domicile, lieu sécurisant par excellence, est aussi un élément dissuasif. 

Ainsi, la possibilité future pour l’opérateur, selon les pics de consommation, de baisser à distance les radiateurs ou de retarder de quelques minutes le cycle d’une machine à laver, par exemple, est générateur d’angoisse. Enfin, la recherche du confort et du plaisir, liée directement à l’utilisation de l’énergie, ne s’accorde pas avec la promesse, de rationalisation et d’économie faite par les acteurs du secteur.

« Perdre du bien-être pour un bénéfice de quelques euros par mois est un argument insuffisant, qui ne touchera qu’une frange minime de la population », souligne Stéphane Hugon 

Adopter la logique des réseaux

Les smart grids peuvent être perçus comme le maillage réticulaire, tel qu’il existe aujourd’hui dans le monde de l’Internet, appliqué à l’énergie. En comprenant ce qui a fait le succès de ce réseau (la recréation de lien entre les individus), il est possible de mettre en place des systèmes d’échanges basés sur la confiance.

Il faut donc déplacer le curseur de l’argument économique vers celui de la création de richesse pour son environnement immédiat.

L’idée que, avec les économies d’électricité réalisées dans un quartier, nous serons capables d’alimenter une crèche, un immeuble ou un commerce de proximité redonne du sens aux projets de réseaux énergétiques intelligents, bien plus fédératrice que l’argument économique individuel.

« C’est par le collectif que la pratique consommatoire peut évoluer. Après avoir prôné l’individualisme, source d’ennui, d’isolement, voire de désenchantement, les Français ressentent le besoin de recréer du lien social, de s’enraciner à nouveau dans leur environnement, de se retrouver autour de projets communs. »

Ainsi, les expériences de solidarité se multiplient (Fête des voisins, AMAP, apéros sauvages, nombreuses créations d’associations, etc.) et cette tendance durable peut profiter aux technologies smart grids, en les inscrivant dans une logique d’échanges symboliques, au travers de nouvelles formes de collectivité.

Par Stéphane Hugon

Stéphane Hugon est sociologue, chercheur au Centre d’Etudes sur l’Actuel et le Quotidien (CEAQ), où il anime le GRETECH, un groupe de recherche sur la technologie. Une fois par semaine, il anime le séminaire « Vie quotidienne, imaginaire et post-modernité » à l’Université Paris Descartes – Sorbonne. Il est également le fondateur d’ERANOS, une société d’études qualitatives spécialisée dans l’identification et le décryptage des imaginaires sociaux contemporains.

A propos de SG PARIS 2013 : la 3e édition de cet’événement dédié aux réseaux énergétiques intelligents se tiendra du 4 au 6 juin 2013 au CNIT – Paris La Défense et abordera les évolutions en cours dans le monde de l’énergie et des technologies IT. 

Publié par Iris Trahin

Real Humans, 100% humains

Dans cette série, qui a fait grand bruit, les hubots (pour human robots) ont la même apparence que nous. Ils sont la propriété d’humains et leur rendent la vie plus facile en exécutant à leur place les besognes les plus pénibles : des tâches domestiques au travail à l’usine, en passant par les soins et l’assistance médicale aux personnes âgées. La cohabitation engendre de nouvelles situations et suscitent de vifs débats de société parmi les humains. 

Peu de technologie dans cette série : les robots sont des systèmes mécatroniques, au sang bleu et commandés par un disque dur qui contient leur programme, celui qui définit leur usage et leurs aptitudes. Ils peuvent être éteints à tout moment grâce à un bouton situé sous leur bras et se rechargent tout seuls au niveau de leur nuque où se trouve un port USB. On notera au passage le faible niveau d’autonomie énergétique de ces machines qui doivent recharger leur batterie chaque jour. Dans ce futur alternatif, la question du stockage de l’énergie n’est donc toujours pas réglée.

Les hubots peuvent être trafiqués et détournés de leur fonction première en modifiant leur code source. Un humain a de cette façon réussi à libérer certains hubots en leur donnant une forme d’humanité qui les poussera à la rébellion pour acquérir leur indépendance. Au fil des épisodes, les hubots prennent graduellement conscience de leur aliénation par l’humain, revendiquent leur liberté et les mêmes droits que les humains, et c’est là que les ennuis commencent.

Adoptés par beaucoup d’humains comme objets domestiques, ils suscitent une hostilité croissante chez certains tandis que d’autres commencent à mener un véritable combat pour qu’ils obtiennent un statut de citoyen à part entière. Leur ressemblance troublante avec les humains, leur sourire perpétuel et leur apparente docilité rendent encore plus insupportables les traitements, voire les mauvais traitements, qu’ils subissent. D’autant plus qu’ils sont tous différents physiquement, comme des individus uniques. 

La série parle donc beaucoup d’esclavage moderne. Comme beaucoup d’œuvres littéraires ou cinématographiques sur le sujet, elle questionne aussi le spectateur sur ce qui définit un être humain : son âme, sa conscience, sa capacité à apprendre, à ressentir des émotions, à rechercher une forme de liberté. Non sans humour, elle fait également écho à nos débats de société actuels : le rejet de l’autre, l’exploitation d’un groupe d’individus par un autre, la déshumanisation de l’humain par le travail, les couples mixtes reconnus par la loi, l’humain augmenté, le transhumanisme…

C.C

La réforme du code minier se précise

Les débats portant sur la réforme du code minier sont nés des préoccupations environnementales, notamment les gaz de schiste et la prospection d’hydrocarbures au large de la Guyane.

Les textes n’avaient pas permis d’anticiper suffisamment la nécessité de faire des études d’impact dans les espaces protégés. Mais cette réforme s’intéresse en réalité à beaucoup plus d’usages que ces seules questions.

Le texte devra régir tous les usages du sous-sol, hors aménagement. « La réforme a pour but de s’intéresser au stockage souterrain de gaz, au stockage géologique de dioxyde de carbone dans un objectif de réduction des émissions de gaz à effet de serre et à la géothermie », rappelle Arnaud Gossement, avocat spécialisé en droit public et en droit de l’environnement.

Pour réformer le code minier, il fallait s’intéresser à trois sujets clés : les processus à déployer pour permettre la participation du public à différents niveaux, la fiscalité minière et les questions liées à la pré-mine, ainsi qu’à la fin de l’exploitation.

La loi n° 2012-1460 du 27 décembre 2012 relative à la mise en œuvre du principe de participation du public défini à l’article 7 de la Charte de l’environnement s’est emparée du premier sujet.

Elle organise une nouvelle voie de participation du public par voie électronique lorsqu’un permis public de recherche est déposé. La réforme en cours d’élaboration s’intéressera aux deux autres sujets.

Plus qu’un simple titre minier d’exploration 

Traditionnellement, un titre minier est un document qui donne à un industriel une autorisation de principe d’exploration ou d’exploitation d’une ressource.

Ce titre lui confère deux privilèges : l’exclusivité par rapport à la concurrence et le droit de pénétrer sur les terres des propriétaires quels qu’ils soient, puisque ces derniers ne sont pas propriétaires de leur sous-sol (contrairement aux Etats-Unis).

« Ce titre n’autorise en rien de faire des travaux. » précise François Demarcq, directeur général délégué du BRGM. Cette autorisation doit être obtenue a posteriori.

En accord avec le « choc de simplification » voulu par François Hollande, la réforme devrait changer les règles du jeu et les projets de travaux devraient désormais être présentés avant l’obtention des titres.

«La délivrance d’un titre minier vaudra permis de construire, de défricher, d’aménager.» a expliqué Thierry Tuot lors de son audition du 24 avril. Toutefois, par souci de protection de l’environnement, l’étude d’impact devrait être généralisée à chaque projet.

Mieux connaître le sous-sol

La loi s’intéressera aux usages possibles du sous-sol et au recensement des ressources pour organiser une meilleure cartographie des ressources du territoire.

Les données actuelles sont disparates et partielles. « Nous ne savons pas si nous disposons de gisement de terres rares.», rappelait Thierry Tuot lors de son audition.

Dans le cadre du débat national sur la transition énergétique, il pourrait être intéressant de donner une priorité à la recherche de ces métaux stratégiques 

Le code minier s’intéresse à l’exploration et l’exploitation de gîtes miniers, mais des activités connexes peuvent relever d’autres législations. « La réforme du code minier ne sera que l’un des aspects de la réforme de l’activité minière », assure Arnaud Gossement.

Plus largement, l’activité minière relève également du code de l’environnement, du code général des collectivités territoriales et de la Constitution. 

La réforme était attendue pour fin 2012. Si le projet de loi est en préparation, il devrait être voté avant la fin de l’année. Et il y a urgence.

Avec la réforme en cours, « 120 permis sont actuellement bloqués dans l’administration », révèle jean-Louis Schilansky, président de l’Union française des industries pétrolières (Ufip).

Les concessions pétrolières en cours sont en phase d’être bloquées et les investisseurs étrangers commencent à craindre cette instabilité juridique…

Par Matthieu Combe, journaliste scientifique

 

Découvrez notre offre de formation Energie :


Consacrez plus de temps à l’ingénierie qu’à la résolution de problèmes avec PTC Mathcad Express

Dans le monde de l’industrie, les cycles se réduisent et sont si courts qu’il est impossible d’effectuer les calculs techniques à la main ou à l’aide d’un tableur.

PTC Mathcad Express est un logiciel de calculs techniques qui permet de résoudre, documenter, partager et réutiliser les calculs techniques les plus complexesplus rapidement et plus facilement que jamais.

Vous pouvez désormais télécharger une licence gratuite à vie de Mathcad Express.

Téléchargez le logiciel dès maintenant et bénéficiez gratuitement des fonctionnalités suivantes :

·         Une facilité d’utilisation: une notation mathématique en langage naturel, sans besoin de programmation.

·         Algèbre symbolique: manipulez des calculs symboliques et numériques en temps réel.

·         Une prise en charge dynamique des unités: vérification et validation des calculs importants améliorées.

·         Des feuilles de calcul documentées, contenant des calculs, des graphiques (2D/3D), des images et du texte, en vue d’une réutilisation et d’un partage facilités

Autre avantage, et non des moindres, vous pourrez profiter des fonctionnalités étendues de calcul de Mathcad Prime 2.0 pendant les 30 jours suivant le téléchargement de Mathcad Express !

Au terme de la période d’essai de 30 jours, vous pourrez soit continuer à utiliser les fonctionnalités de base de Mathcad Express pendant une durée illimitée, soit mettre votre logiciel à niveau de manière à profiter de la version intégrale de Mathcad Prime 2.0.

Téléchargez Mathcad Express aujourd’hui

Samsung Galaxy S4 : déjà plus de 10 millions d’unités écoulées

Grande nouvelle pour le fabricant de smartphones Samsung : le fabricant coréen serait parvenu à écouler plus de dix millions d’unités du Galaxy S4, un mois seulement après la sortie officielle de la bête, fin avril dernier.

Le dernier né du numéro un mondial de la téléphonie mobile (devant Nokia) fait mieux que ses prédécesseurs, le Galaxy S2 ayant atteint les dix millions d’unités écoulées en un peu plus de cinq mois de commercialisation, alors qu’il aura presque fallu attendre deux mois pour que le Galaxy S3 atteigne ce seuil symbolique.

Shin Jong-kyun, l’un des dirigeants et éminence grise de la marque coréenne, avait déjà désamorcé l’effet de surprise la semaine dernière, en déclarant que la barre des dix millions devait pouvoir être franchie rapidement cette semaine.

Pourtant, les chiffres brandis fièrement par Samsung prêtent un peu à confusion, car ce ne sont pas là les chiffres de vente du S4 à proprement parler, mais le nombre de Galaxy S4… acheminés en magasin.

Il y a donc, parmi ces dix millions de terminaux écoulés, « quelques uns » qui doivent se trouver encore en magasin. Ce n’est pas la première fois que le géant coréen procède ainsi, relançant une fois de plus le débat entre pro Apple (qui a plutôt tendance à claironner sur les chiffres de vente) et pro Samsung, chacun défendant le smartphone et le mode opératoire de leur petit protégé.

Toutefois, pas de quoi rougir pour Samsung : il se vendrait dans le monde près de quatre Galaxy S4… par seconde, de quoi permettre d’atteindre les dix millions d’unités vendues très rapidement.

Par Moonzur Rahman