Décryptage

News Informatique / Electronique / Télécoms de juin

Posté le 25 juin 2011
par La rédaction
dans Informatique et Numérique

En 2011, retrouvez chaque mois l’actualité détaillée des secteurs Informatique/Electronique/Télécoms. Business, recherche, innovations, marché… à l’international ou au niveau français, la rédaction fait le point sur les faits marquants du mois écoulé. En juin, zoom sur l'Autriche, le cloud computing, IPV6, les smart grids...

Les entreprises françaises sont-elles prêtes pour le passage à l’IPV6 ?

 

En prévision de la Journée mondiale de l’IPv6, Infoblox Inc a annoncé aujourd’hui les résultats d’une enquête effectuée auprès de plus de 2.400 entreprises IT représentatives au sujet de leurs préoccupations sur l’IPv6, les projets d’adoption et de l’état actuel du déploiement. Comme l’offre mondiale d’adresses IPv4 ne cesse de diminuer, les entreprises devront être en mesure de soutenir l’explosion du nombre de périphériques compatibles IPv6 qui se connectent au réseau, que ce soit un ordinateur portable, téléphone portable, imprimante, scanner ou une tablette. Ne pas avoir une adresse IP est l’équivalent d’avoir un téléphone sans un numéro de téléphone, ce qui explique pourquoi il y a un besoin critique pour les entreprises à évaluer, élaborer et commencer le processus de migration des réseaux d’aujourd’hui.

Les résultats de l’enquête en ligne renforcent le fait que les entreprises sont confrontées à des problèmes majeurs d’éducation, de planification et de mise en œuvre de défis qui indiquent que la plupart sont mal préparées pour une migration réussie vers le réseau IPv6.

Les données révèlent des préoccupations et des défis :

“Le niveau de préoccupation est élevé, ce qui est bon signe, mais il ya beaucoup d’incertitude sur les mesures nécessaires et les outils pour gérer avec succès la transition d’IPv4 à IPv6», a commenté Cricket Liu, Expert en technologie DNS, et vice président Architecture d’Infoblox.

« Bien que la transition ne se fera pas du jour au lendemain, des mesures évidentes, telles que l’éducation, une évaluation des dispositifs de réseau qui sont prêts pour IPv6, et la mise en œuvre des outils automatisés de gestion des adresses IP, sont nécessaires. Le suivi des adresses IP dans une feuille de calcul est vraiment risqué avec plus de 128 bits des adresses IPv6, ce qui augmente la probabilité d’erreurs liés à la saisie manuelle. Des solutions qui automatisent la gestion des adresses IP sont devenus une nécessité pour éviter les erreurs et rester au fait des réseaux dynamiques d’aujourd’hui et les demandes des utilisateurs. »

Cloud computing : Atos Origin va offrir des solutions de tests informatiques

Disponible à l’échelle mondiale, cette nouvelle solution offrira aux clients de tous les secteurs d’activités un moyen flexible et financièrement avantageux de gérer toutes leurs exigences en matière de tests afin que leurs projets informatiques, quelle qu’en soit l’ampleur, puissent passer en toute sécurité de la phase de développement à la phase de production. La solution complète, qui couvre l’ensemble du cycle de développement logiciel, est basée sur un modèle de « tarification à l’acte » conçu par Atos Origin à l’aide du set d’outils intégré Rational Jazz d’IBM. Cette solution intègre la méthodologie de Tests et Recettes d’Atos Origin et tire parti de la longue expérience développée avec sa clientèle en la matière.

La simulation informatique temps réel au service des SmartGrids

KTH, l’un des instituts technologiques internationaux les plus renommés, conduit des recherches dans de nombreux domaines tels que les technologies de l’information et de la communication, les transports ou l’énergie. En 2010, les chercheurs de KTH souhaitent concevoir SmarTSLab (Smart Transmission Systems-Laboratory), une nouvelle plateforme technologique dédiée à l’utilisation des SmartGrids. L’équipe projette alors de développer des nouvelles technologies informatiques visant à optimiser la production et la distribution, à économiser l’énergie, à sécuriser le réseau électrique et à réduire les coûts.

Pour mener ces recherches, KTH aspire à trouver une alternative technologique à la simulation analogique, qui implique la réalisation de tests sur maquette à échelle réduite. L’institut lance alors un appel d’offre public pour la conception d’une solution de simulation informatique temps réel, dont la rapidité et la puissance de calcul permettraient de reproduire informatiquement et en temps réel :

En décembre 2010, KTH choisit le simulateur d’OPAL-RT Europe. Fondé sur la dernière génération de processeurs multi-cœurs Intel i7 et les cartes de calcul FPGA, ce simulateur est doté d’une précision de calcul à la microseconde et apte à reproduire virtuellement une grande variété de configurations de réseaux électriques. Cette plateforme de simulation temps réel, capable de reproduire avec précision de grands réseaux électriques, est aujourd’hui la plus rapide et la plus puissante d’Europe.

De plus, il respecte la norme de communication internationale IEC 61850, liée aux équipements de protection des réseaux et indispensable à la conduite de ces recherches. Le simulateur est intégré avec l’environnement de modélisation MATLAB/Simulink, ce qui permet une prise en main rapide. Aujourd’hui, les chercheurs soumettent le simulateur OPAL-RT Europe à une multitude de cas d’exploitation et d’incidents techniques :

Ces tests informatiques devraient permettre de tirer des enseignements concrets et de valider des nouveaux concepts de technologies informatiques pour un déploiement efficace et pérenne des SmartGrids. « Le simulateur livré par OPAL-RT Europe nous donne accès à une technologie hautement performante et polyvalente. En outre, ce simulateur est étroitement intégré avec MATLAB / Simulink, un environnement de modélisation que nos élèves connaissent bien. Cela réduit les besoins en formation, simplifie nos recherches et augmente nos possibilités de coopération internationale. »

Zoom sur l’Autriche

Un coeur virtuel fait la jonction entre l’informatique et la médecine

Des chercheurs de l’Institut de Biophysique de l’Université de Médecine de Graz ont développé un modèle informatique -« in silico »- du coeur humain. Ce modèle permet de simuler les différents processus qui prennent place dans le coeur, ainsi que de visualiser les effets de différents traitements : interventions physiques ou prise de médicaments.

La compréhension et l’étude du coeur est une question d’importance fondamentale : en effet, les maladies cardio-vasculaires constituent la première cause de décès dans les pays industrialisés (environ 1,9 million de morts chaque année dans l’Union Européenne – ce sont quelques 30% des décès leur sont attribuables). Les causes sont néanmoins très diverses : troubles de la circulation, hypertension artérielle, inflammation du muscle cardiaque… Un modèle informatique du coeur peut permettre de simuler les réactions cardiaques à différents stimuli et ce jusqu’au niveau cellulaire, offrant aux chercheurs et aux médecins des informations précieuses.

Le champ des applications possibles d’un tel outil sont vastes : des modèles électro-physiologiques peuvent être utilisés par exemple pour optimiser le traitement de la fibrillation auriculaire, pour adapter les stimulateurs cardiaques ou encore pour observer les effets de médicaments agissant sur les troubles du rythme cardiaque…

L’un des objectifs des recherches en cours à l’Université de Médecine de Graz – en collaboration avec des experts de laboratoires de pointe dans le monde entier, tels que l’Institute of Computational Medicine à l’Université John Hopkins – est, à terme, de pouvoir proposer une médecine personnalisée aux patients : le modèle informatique pourrait être adapté à la situation de chacun après avoir récupéré des données individuelles par imagerie ainsi que par des examens électro-physiologiques.

Ces techniques de simulation sont rendues possibles notamment grâce au développement et à la généralisation des superordinateurs, la simulation d’un coeur humain peut ainsi se calculer en quelques minutes, mais en utilisant un système informatique basé sur plusieurs milliers d’unités de calcul.

En savoir plus : http://www.bulletins-electroniques.com/actualites/67003.htm

Ordinateur quantique : un correcteur d’erreurs itératif – un registre quantique de 14 bits

Une équipe de recherche basée à l’Institut de Physique Expérimentale de l’Université d’Innsbruck et à l’IQOQI (Institute for Quantum Optics and Quantum Information, un institut de l’Académie des Sciences autrichienne) a réussi à démontrer expérimentalement la faisabilité d’une étape cruciale dans le développement d’un ordinateur quantique : la correction itérative d’erreurs. La même équipe a également réussi à intriquer 14 bits quantiques (ou qubits), ce qui constitue un record mondial.
 
Pour tout système traitant des données, il existe des sources d’erreurs potentielles (réseau défectueux pour la transmission de données numériques par exemple). Des méthodes pour l’informatique classique ont ainsi été développées afin d’identifier et de corriger automatiquement les différentes erreurs produites au cours de la manipulation des données. Or les systèmes quantiques sont, de par leur nature même, encore plus sensibles aux perturbations que les systèmes classiques ; la correction d’erreurs pour un tel système demande donc un algorithme particulièrement performant. Le groupe de recherche mené par le physicien autrichien Rainer Blatt a démontré la faisabilité de la réalisation pratique d’un tel algorithme.
 
Contrairement à ce qui se fait pour un système classique, il n’est pas possible de copier l’information quantique – et par conséquent de comparer plusieurs fois les données pour détecter les éventuelles erreurs. Il est ainsi nécessaire de recourir à l’intrication, un phénomène quantique dans lequel l’état quantique de deux objets spatialement séparés se décrit globalement : deux particules intriquées forment en réalité un système unique, même si elles sont loin l’une de l’autre.
 
En pratique, les physiciens de l’équipe ont stocké trois ions calcium – dont l’un représente le qubit de référence, les deux autres représentent chacun un qubit auxiliaire – dans un piège ionique. La première étape consiste à intriquer le qubit de référence avec les deux autres, ce qui transfère l’information quantique sur les trois particules. Ensuite, un algorithme quantique mis au point par les chercheurs vérifie s’il y a une erreur, détermine laquelle s’il y en a une et la corrige. Après la correction, les deux ions auxiliaires sont soumis à un faisceau laser qui, en changeant leur état quantique, permet de les réinitialiser : c’est cet ajout expérimental qui permet de corriger les erreurs de façon répétitive.
 
Ce groupe de recherche est en pointe dans le domaine de l’informatique quantique. Il y a trois ans, il avait par exemple déjà présenté une porte quantique dont les sorties sont correctes plus de 99 fois sur 100. Le groupe est également détenteur d’un nouveau record depuis peu : celui de la taille d’un registre quantique. L’équipe a en effet pu réaliser l’intrication contrôlée de 14 qubits. Le précédent record, 8 qubits, datait de 2005 et était détenu… par la même équipe. Les 14 qubits -des ions calcium, encore- ont été confinés dans un piège ionique et manipulés à l’aide de lasers.
 
Les physiciens ont constaté que le taux de désintégration des atomes n’est pas linéairement proportionnel au nombre de qubits, mais proportionnel au carré du nombre de qubits. Cela signifie que la sensibilité d’un système quantique augmente significativement lorsque le nombre de particules intriquées augmente. Ce phénomène est connu sous le nom de superdécohérence et a rarement été observé jusqu’à présent.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66998.htm

Par S.B

LES BILANS