Dans un premier temps, les simulations numériques étaient réservées aux industriels de l’automobile, de l’aéronautique et de l’énergie. Ils souhaitaient notamment disposer de capacités de calcul qui sont utilisées pratiquement en permanence pour simuler et optimiser la conception de produits, de processus et de matériaux. Leur objectif est d’améliorer leurs performances et de réduire le temps de développement.
Depuis quelques années, les laboratoires pharmaceutiques et des entreprises de la cosmétique ont intégré le calcul intensif à la demande.
Le calcul intensif est également essentiel pour analyser de grands ensembles de données, tels que ceux générés par des études d’observation, des simulations ou des expériences. Il permet aux chercheurs d’identifier des modèles et des corrélations dans les données qui seraient difficiles à détecter avec des ressources informatiques traditionnelles.
Grappe de calcul
Pourquoi le HPC est-il devenu incontournable ? La réponse se trouve dans les différences entre le fonctionnement du calcul intensif et celui d’un système informatique standard. Celui-ci résout les problèmes principalement en divisant la charge de travail en tâches, puis en les exécutant en séquence sur un processeur (calcul en série).
Les systèmes HPC se caractérisent par leur puissance de traitement à grande vitesse, leurs réseaux à haute performance et leur grande capacité de mémoire, ce qui leur permet d’effectuer des quantités massives de traitements parallèles. Un supercalculateur est un type d’ordinateur HPC très avancé qui fournit une immense puissance de calcul et une grande vitesse, ce qui en fait un élément clé des systèmes de calcul à haute performance.
L’infrastructure d’un système HPC contient plusieurs sous-systèmes (ordinateurs, logiciels et outils spécialisés pour la gestion des ressources) étroitement interconnectés qui travaillent en parallèle comme un système unique pour effectuer des tâches de calcul à grande échelle. C’est ce qu’on appelle une grappe de calcul à haute performance.
Au cours des vingt dernières années, la plupart des algorithmes ont été parallélisés, ce qui signifie que le problème global est divisé en plusieurs parties, chacune étant exécutée sur un ordinateur ou un cœur distinct.
Le stockage HPC est un élément clé de toute grappe de calcul à haute performance fonctionnant de manière fluide et efficace. Des volumes très importants de données (qui peuvent atteindre plusieurs pétaoctets) sont nécessaires pour démarrer une simulation de longue durée ou la maintenir en fonctionnement. En fonction de l’algorithme, l’application peut également nécessiter davantage de données au fur et à mesure de son exécution.
Des obstacles à son adoption
Par exemple, lors de la simulation de l’interaction de différentes molécules médicamenteuses, des milliers de descriptions moléculaires devront être ingérées en même temps. Au fur et à mesure de l’exécution de l’application, un plus grand nombre de ces descriptions peuvent mériter d’être étudiées, ce qui nécessite une infrastructure de stockage à faible latence et à large bande passante.
Cependant, malgré des progrès récents impressionnants dans ce domaine, certains obstacles empêchent une adoption généralisée. Le premier est le coût. Même si le cloud a « démocratisé » l’usage du HPC, il s’agit toujours d’un investissement – en termes d’argent et de temps.
Le second frein concerne la conformité. La maintenance des systèmes HPC et des systèmes de données doit tenir compte de l’évolution des réglementations, en particulier celles concernant la protection des données personnelles de santé.
Il y a enfin, et c’est en partie lié au second obstacle, la protection et la confidentialité des informations. Différentes mesures de cybersécurité doivent s’appliquer à tous les aspects de l’environnement HPC, du réseau au stockage et au calcul en lui-même.
Cet article se trouve dans le dossier :
Modéliser le vivant : promesses et limites des jumeaux numériques
- A quand le jumeau numérique d'un système vivant ?
- L’Europe veut créer un jumeau numérique de la Terre
- « Le jumeau numérique du vivant est un objet de recherche avant tout »
- « Diffuser plus vite l’innovation médicale grâce au jumeau numérique »
- Samp : du jumeau numérique à la "Réalité Partagée"
- Uzufly : des jumeaux numériques à la précision digne d’une horloge suisse
- Morphosense : surveiller la santé structurelle des ouvrages en temps réel
- CELONIS et EMPORIX associent orchestration des processus et process mining pour transformer les entreprises en profondeur
- IA dans les usines : « Quand le "pourquoi" est clair, les freins tombent »
- Le jumeau numérique, à la frontière du virtuel et du réel
- Les thèses du mois : "Modéliser le vivant : promesses et limites des jumeaux numériques"
- « Notre façon de prédire l’interaction et l’affinité est unique au monde »
- « Les approches classique et quantique sont complémentaires »
- Les secrets structurels sous la loupe du numérique
- Pourquoi le calcul intensif révolutionne-t-il de nombreux secteurs industriels ?
- Modélisations et simulations : une autre voie scientifique
Dans l'actualité
- IBM veut développer un « supercalculateur quantique »
- Pierre Jaeger, IBM quantum EMEA : « Le principal défi avec le quantique est d’identifier les vrais cas d’usage »
- IA : Comment Microsoft entend accélérer la recherche scientifique
- Biais algorithmiques : la sensibilisation commence dès la formation
- Les thèses du mois : « La transition énergétique redéfinit les missions des ingénieurs »
- La revue du Magazine d’Actualité #5 : du 30 septembre au 4 octobre
- Monitoring embarqué : Touch Sensity poursuit son ascension
- Ingénieur en bureau d’études : 6 cartes à jouer
- À Massy, Quandela fait passer l’ordinateur quantique de l’ombre à la lumière
- Journées Usines Ouvertes : plus de 200 sites à découvrir partout en France, les 4 et 5 avril prochains
- Avec FeNNix-Bio1, Qubit Pharmaceuticals en passe de révolutionner la modélisation moléculaire
- Le supercalculateur Jean Zay gagne en puissance
Dans les ressources documentaires
- La simulation numérique : un outil pour les innovations technologiques
- Processeurs graphiques totalement programmables (GPU)
- Virtualisation et sécurité pour l’informatique en nuage
- Santé et IdO : Perspectives, organisation de l’IdO en santé
- Calcul généraliste sur carte graphique - Du rendu au calcul massivement parallèle