Cet article est la version actualisée de l’article [H 1 088] intitulé Introduction au parallélisme et aux architectures parallèles, de Franck CAPPELLO et Jean-Paul SANSONNET, paru dans nos éditions en 1999.
RECHERCHEZ parmi plus de 10 000 articles de référence ou pratiques et 4 000 articles d'actualité
PAR DOMAINE D'EXPERTISE
PAR SECTEUR INDUSTRIEL
PAR MOTS-CLES
NAVIGUER DANS LA
CARTOGRAPHIE INTERACTIVE
DÉCOUVREZ toute l'actualité, la veille technologique GRATUITE, les études de cas et les événements de chaque secteur de l'industrie.
Article précédent
Processeurs à grand nombre de cœurs (manycores)Article de référence | Réf : H1088 v2
Auteur(s) : Franck CAPPELLO, Daniel ETIEMBLE
Date de publication : 10 août 2017
Article suivant
Processeurs multithreads et multicœursCet article fait partie de l’offre
Technologies logicielles Architectures des systèmes (225 articles en ce moment)
Cette offre vous donne accès à :
Une base complète et actualisée d'articles validés par des comités scientifiques
Un service Questions aux experts et des outils pratiques
Des Quiz interactifs pour valider la compréhension et ancrer les connaissances
Présentation
Lire l'article
Bibliographie & annexes
Inclus dans l'offre
Cet article est la version actualisée de l’article [H 1 088] intitulé Introduction au parallélisme et aux architectures parallèles, de Franck CAPPELLO et Jean-Paul SANSONNET, paru dans nos éditions en 1999.
Le parallélisme est dorénavant utilisé dans la majorité des architectures, des systèmes embarqués aux superordinateurs. Les monoprocesseurs sont remplacés par des processeurs multicœurs. Cet article décrit la notion de parallélisme et ses différents types. Il présente les grandes classes d’architectures parallèles avec leurs ressources et organisations mémoire, en distinguant les architectures homogènes et hétérogènes. Les principes des techniques de programmation sont introduits avec les extensions parallèles des langages de programmation couramment utilisés et les modèles de programmation visant à rapprocher la programmation parallèle de la programmation séquentielle, en incluant les spécificités des architectures. Enfin, les modèles et métriques d’évaluation des performances sont examinés.
Since the early 2000s, parallelism has found use in most computer architectures, from embedded systems to supercomputers. Multi-core processors have replaced uniprocessors. This article describes parallelism and its different types. It presents the main classes of parallel architectures with their resources and memory organizations, in both homogeneous and heterogeneous architectures. The basic parallel programming techniques are introduced with the parallel extensions of commonly used programming languages, and the programming models designed to close the gap with sequential programming, while allowing for the specific features of parallel architectures. Finally, performance evaluation is presented with metrics and performance models.
Franck CAPPELLO : Docteur en Informatique de l’université Paris Sud - IEEE Fellow
Daniel ETIEMBLE : Ingénieur de l’INSA de Lyon - Professeur émérite à l’université Paris Sud -
La notion de parallélisme, qui consiste à utiliser plusieurs processeurs ou opérateurs matériels pour exécuter un ou plusieurs programmes, est ancienne. Les multiprocesseurs datent des années 1960. De cette période jusqu’à la fin des années 1990, des architectures parallèles ont été utilisées pour les applications nécessitant des besoins de calcul que les monoprocesseurs étaient incapables de fournir. Étaient concernés les mainframes et serveurs d’une part, et les machines vectorielles puis parallèles utilisées pour le calcul scientifique hautes performances d’autre part. Les années 1980 ont vu l’apparition de différentes sociétés proposant des machines parallèles, sociétés qui ont assez rapidement disparu. La raison essentielle est liée aux progressions exponentielles des performances des microprocesseurs, utilisés dans les PC et les serveurs multiprocesseurs. L’utilisation massive du parallélisme se limitait aux très grandes applications de simulation numérique avec les architectures massivement parallèles. Le début des années 2000, avec les limitations des monoprocesseurs et le « mur de la chaleur », a complètement changé la situation (voir [H 1 058]). Les processeurs multicœurs sont présents en 2016 dans les architectures matérielles pour tous les types de composants : appareils mobiles (smartphones, tablettes), systèmes embarqués, télévisions, PC portables et PC de bureau, et jusqu’aux machines parallèles et superordinateurs pour la très haute performance.
Dans cet article, nous introduisons la notion de parallélisme, présentons les différents types de parallélisme et les différentes formes d’architectures parallèles. Alors que la programmation des machines parallèles a été longtemps réservée à des spécialistes, tout programmeur doit maintenant maîtriser les notions essentielles de la programmation parallèle pour tirer parti des possibilités des architectures. Nous présentons les extensions parallèles des langages de programmation couramment utilisés, les modèles de programmation développés qui visent à « rapprocher » la programmation parallèle des techniques de la programmation séquentielle tout en prenant en compte les spécificités des architectures parallèles. Enfin, l’intérêt des architectures parallèles réside dans les performances qu’elles permettent d’atteindre. Pour optimiser ces performances et/ou réduire la consommation énergétique, il est nécessaire de modéliser d’une part le parallélisme existant dans une application et d’autre part les architectures parallèles. Nous examinons donc les métriques utilisées pour évaluer ou prévoir les performances et les grandes lois qui les gouvernent.
parallélisme de données et de contrôle | extensions SIMD | classification de Flynn | mémoires partagées et distribuées | modèles d'exécution | modèles de programmation | OpenMP | MPI | pThreads | loi d’Amdhal | modèle Roofline
data and control parallelism | SIMD extensions | Flynn's taxonomy | shared and distributed memories | execution models | programming models | OpenMP | MPI | pThreads | Amdhal's law | Roofline model
Accueil > Ressources documentaires > Sciences fondamentales > Mathématiques > Méthodes numériques > Introduction au parallélisme et aux architectures parallèles
Vous êtes abonné à cette offre ?
Connectez-vous !
Vous souhaitez découvrir cette offre ?
Cet article est inclus dans l'offre :
TECHNOLOGIES LOGICIELLES ARCHITECTURES DES SYSTÈMES
(1) - KOBAYASHI (H.) - Feasibility Study of a Future HPC System for Memory-Intensive Applications : Final Report. - Proceedings of the joint Workshop on Sustained Simulation Performance, University of Stuttgart (HLRS) and Tohoku University, pp 3-16 (2014).
(2) - KOBAYASHI (H.) - Feasibility Study of a Future HPC System for Memory-Intensive Applications : Final Report. - in SuperComputing, NEC Booth, http://jpn.nec.com/hpc/info/pdf/SC13_NEC_Tohoku_Prof.Kobayashi.pdf (2013).
(3) - BERNSTEIN (A.J.) - Analysis of Programs for Parallel Processing. - IEEE Transactions on Electronic Computers. EC-15 (5) : 757-763 (October 1966).
(4) - * - Intel® 64 and IA-32 Architectures Software Developer Manuals, http://www.intel.com/content/www/us/en/processors/architectures-software-developer-manuals.html.
(5) - * - ARM Synchronization Primitives, http://infocenter.arm.com/help/topic/com.arm.doc.dht0008a/DHT0008A_arm_synchronization_primitives.pdf.
...
Vous êtes abonné à cette offre ?
Connectez-vous !
Vous souhaitez découvrir cette offre ?
Cet article est inclus dans l'offre :
TECHNOLOGIES LOGICIELLES ARCHITECTURES DES SYSTÈMES
DÉTAIL DE L'ABONNEMENT :
TOUS LES ARTICLES DE VOTRE RESSOURCE DOCUMENTAIRE
Accès aux :
Articles et leurs mises à jour
Nouveautés
Archives
Articles interactifs
Formats :
HTML illimité
Versions PDF
Site responsive (mobile)
Info parution :
Toutes les nouveautés de vos ressources documentaires par email
DES ARTICLES INTERACTIFS
Articles enrichis de quiz :
Expérience de lecture améliorée
Quiz attractifs, stimulants et variés
Compréhension et ancrage mémoriel assurés
DES SERVICES ET OUTILS PRATIQUES
Votre site est 100% responsive,
compatible PC, mobiles et tablettes.
FORMULES
Formule monoposte | Autres formules | |
---|---|---|
Ressources documentaires | ||
Consultation HTML des articles | Illimitée | Illimitée |
Quiz d'entraînement | Illimités | Illimités |
Téléchargement des versions PDF | 5 / jour | Selon devis |
Accès aux archives | Oui | Oui |
Info parution | Oui | Oui |
Services inclus | ||
Questions aux experts (1) | 4 / an | Jusqu'à 12 par an |
Articles Découverte | 5 / an | Jusqu'à 7 par an |
Dictionnaire technique multilingue | Oui | Oui |
(1) Non disponible pour les lycées, les établissements d’enseignement supérieur et autres organismes de formation. |
||
Formule 12 mois 2 060 € HT |
Autres formules |
INTRODUCTION
1 - MOTIVATIONS POUR LE PARALLÉLISME
2 - QU’EST-CE QUE LE PARALLÉLISME ?
3 - SOURCES DU PARALLÉLISME ET OPÉRATIONS FONDAMENTALES
4 - PARALLÉLISME DANS LES MONOPROCESSEURS
5 - CLASSIFICATION DES ARCHITECTURES PARALLÈLES
6 - RESSOURCES DES ARCHITECTURES PARALLÈLES
8 - PROGRAMMATION DES ARCHITECTURES PARALLÈLES
9 - LOIS ET MÉTRIQUES DE PERFORMANCES DES ARCHITECTURES PARALLÈLES
Information
Quiz d'entraînement bientôt disponible
TECHNIQUES DE L'INGENIEUR
L'EXPERTISE TECHNIQUE ET SCIENTIFIQUE
DE RÉFÉRENCE
ÉDITION - FORMATION - CONSEIL :
Avec Techniques de l'Ingénieur, retrouvez tous les articles scientifiques et techniques : base de données, veille technologique, documentation et expertise technique
SOLUTION EN LIGNE
Automatique - Robotique | Biomédical - Pharma | Construction et travaux publics | Électronique - Photonique | Énergies | Environnement - Sécurité | Génie industriel | Ingénierie des transports | Innovation | Matériaux | Mécanique | Mesures - Analyses | Procédés chimie - bio - agro | Sciences fondamentales | Technologies de l'information
PAIEMENT
SÉCURISÉ
OUVERTURE RAPIDE
DE VOS DROITS
ASSISTANCE TÉLÉPHONIQUE
+33 (0)1 53 35 20 20